Існують рекурентні нейронні мережі та рекурсивні нейронні мережі. Обидва зазвичай позначаються однаковим абревіатурою: RNN. Згідно з Вікіпедією , періодичні NN насправді є рекурсивними NN, але я не дуже розумію пояснення.
Більше того, я не вважаю, що краще (із прикладами чи так) для обробки природних мов. Справа в тому, що, хоча Сочер використовує в своєму підручнику рекурсивний NN для NLP , я не можу знайти гарну реалізацію рекурсивних нейронних мереж, і коли я шукаю в Google, більшість відповідей стосуються рецидивуючого NN.
Крім того, чи є інший DNN, який краще застосовується для NLP, або це залежить від завдання NLP? Мережі глибокої віри або штабельні автокодери? (Я, здається, не знайшов жодної конкретної утиліти для ConvNets в NLP, і більшість реалізацій мають на увазі машинне бачення).
Нарешті, я б особливо віддав перевагу DNN-реалізаціям для C ++ (ще краще, якщо вона має підтримку GPU) або Scala (краще, якщо вона має підтримку Spark), а не Python або Matlab / Octave.
Я спробував Deeplearning4j, але він постійно розробляється, і документація трохи застаріла, і я не можу зробити так, щоб вона працювала. Дуже погано, тому що він має "чорний ящик" як спосіб робити речі, дуже схожий на scikit-learn або Weka, чого я дуже хочу.