Il existe des réseaux de neurones récurrents et des réseaux de neurones récursifs. Les deux sont généralement désignés par le même acronyme: RNN. Selon Wikipedia , NN récurrent est en réalité NN récursif, mais je ne comprends pas vraiment l'explication.
De plus, je ne semble pas trouver ce qui est le mieux (avec des exemples ou à peu près) pour le traitement du langage naturel. Le fait est que, bien que Socher utilise Recursive NN pour la PNL dans son tutoriel , je ne parviens pas à trouver une bonne implémentation des réseaux de neurones récursifs. Lorsque je recherche dans Google, la plupart des réponses portent sur NN récurrent.
De plus, y a-t-il un autre DNN qui s'applique mieux à la PNL ou dépend-il de la tâche de la PNL? Filets de croyances profondes ou autoencodeurs empilés? (Je ne trouve pas d'utilisation particulière pour ConvNets dans la PNL, et la plupart des implémentations sont conçues pour la vision par ordinateur).
Enfin, je préférerais vraiment les implémentations DNN pour C ++ (mieux encore s'il prend en charge le processeur graphique) ou Scala (mieux pour le support Spark) que pour Python ou Matlab / Octave.
J'ai essayé Deeplearning4j, mais il est en développement constant et la documentation est un peu dépassée et je n'arrive pas à le faire fonctionner. Dommage car il a la "boîte noire" comme une façon de faire les choses, tout à fait comme scikit-learn ou Weka, ce que je veux vraiment.