І PyTorch, і Tensorflow Fold є глибокими рамками навчання, призначеними для вирішення ситуацій, коли вхідні дані мають неоднакову довжину або розміри (тобто ситуації, коли динамічні графіки є корисними або потрібними).
Мені хотілося б знати, як вони порівнюються, у сенсі парадигм, на які вони покладаються (наприклад, динамічне формування) та їх наслідків, речей, які не можуть бути реалізовані в кожній, слабкості / сильні сторони тощо.
Я маю намір використовувати цю інформацію, щоб вибрати одну з них, щоб почати вивчення графіків динамічних обчислень, але я не маю на увазі конкретного завдання.
Примітка 1: інші динамічні рамки обчислювальної графіки, такі як DyNet або Chainer , також вітаються в порівнянні, але я хотів би зосередитись на PyTorch і Tensorflow Fold, тому що я думаю, що вони / будуть найбільш використовуваними.
Примітка 2: Я знайшов цю тему hackernews на PyTorch з дещо рідкою інформацією, але не дуже.
Примітка 3: Ще одна відповідна нитка hackernews , про Tensorflow Fold, яка містить деяку інформацію про те, як вони порівнюються.
Примітка 4: відповідна нитка Reddit .
Примітка 5: відповідна помилка в github Tensorflow Fold, яка визначає важливе обмеження: неможливість зробити умовне розгалуження під час оцінки.
Примітка 6: обговорення на форумі pytorch про введення змінної довжини стосовно використовуваних алгоритмів (наприклад, динамічне пакетне з'єднання ).