Sur la suggestion de l'OP rcpinto, j'ai converti un commentaire sur le fait de voir "environ une demi-douzaine d'articles qui font suite aux travaux de Graves et al. Qui ont produit des résultats de calibre" et fournirai quelques liens. Gardez à l'esprit que cela ne répond qu'à la partie de la question relative aux MNT, pas à Google DeepMind lui-même, et j'apprends toujours les ficelles de l'apprentissage automatique, donc une partie du matériel dans ces articles est au-dessus de ma tête; J'ai réussi à saisir une grande partie du matériel dans le document original de Graves et al. {1] et je suis sur le point d'avoir un code NTM local à tester. J'ai également au moins parcouru les articles suivants au cours des derniers mois; ils ne reproduisent pas l'étude NTM d'une manière scientifique stricte, mais bon nombre de leurs résultats expérimentaux tendent à soutenir l'original au moins tangentiellement:
• Dans cet article sur une variante de l'adressage NTM, Gulcehere et al. n'essayez pas de reproduire précisément les tests de Graves et al., mais comme l'équipe DeepMind, il montre des résultats nettement meilleurs pour le NTM d'origine et plusieurs variantes par rapport à un LSTM récurrent ordinaire. Ils utilisent 10 000 échantillons de formation d'un ensemble de données Q&R Facebook, plutôt que les N-grammes Graves et al. opéré dans leur papier, donc ce n'est pas la réplication au sens strict. Ils ont cependant réussi à obtenir une version du NTM d'origine et plusieurs variantes et ont enregistré la même amplitude d'amélioration des performances. 2
• Contrairement au NTM original, cette étude a testé une version d'apprentissage par renforcement qui n'était pas différenciable; c'est peut-être pourquoi ils n'ont pas pu résoudre plusieurs des goûts de programmation, comme la répétition-copie, à moins que le contrôleur ne se limite pas à avancer. Leurs résultats ont néanmoins été suffisamment bons pour étayer l'idée de MNT. Une révision plus récente de leur document est apparemment disponible, que je n'ai pas encore lu, donc peut-être certains des problèmes de leur variante ont été résolus. 3
• Au lieu de tester la saveur originale de NTM contre des réseaux neuronaux ordinaires comme les LSTM, ce document l'a opposé à plusieurs structures de mémoire NTM plus avancées. Ils ont obtenu de bons résultats sur le même type de tâches de programmation que Graves et al. testé, mais je ne pense pas qu'ils utilisaient le même ensemble de données (il est difficile de dire à partir de la façon dont leur étude est écrite exactement sur quels ensembles de données ils fonctionnaient). 4
• Dans. 8 de cette étude , un NTM surpasse clairement plusieurs schémas basés sur le LSTM, le feed-forward et le plus proche voisin sur un ensemble de données de reconnaissance de caractères Omniglot. Une approche alternative à la mémoire externe concoctée par les auteurs la bat clairement, mais elle fonctionne toujours bien évidemment. Les auteurs semblent appartenir à une équipe rivale de Google, ce qui pourrait donc être un problème lors de l'évaluation de la reproductibilité. 5
• Dans. 2 ces auteurs ont rapporté avoir obtenu une meilleure généralisation sur les "très grandes séquences" dans un test de tâches de copie, en utilisant un réseau NTM beaucoup plus petit, ils ont évolué avec l'algorithme génétique NEAT, qui développe dynamiquement les topologies. 6
Les MNT sont assez nouveaux, il n'y a donc pas eu beaucoup de temps pour reproduire rigoureusement la recherche originale, je suppose. Cependant, la poignée d'articles que j'ai parcourus au cours de l'été semblent étayer leurs résultats expérimentaux; Je n'ai encore vu aucun rapport qui soit autre que d'excellentes performances. Bien sûr, j'ai un biais de disponibilité, car je n'ai lu que les fichiers PDF que je pouvais facilement trouver dans une recherche imprudente sur Internet. À partir de ce petit échantillon, il semble que la plupart des recherches de suivi se sont concentrées sur l'extension du concept, et non sur la réplication, ce qui expliquerait le manque de données de reproductibilité. J'espère que ça aide.
1 Graves, Alex; Wayne, Greg et Danihelka, Ivo, 2014, «Neural Turing Machines», publié le 10 décembre 2014.
2 Gulcehre, Caglar; Chandar, Sarath; Choy, Kyunghyun et Bengio, Yoshua, 2016, «Dynamic Neural Turing machine with Soft and Hard Addressing Schemes», publié le 30 juin 2016.
3 Zaremba, Wojciech et Sutskever, Ilya, 2015, «Reinforcement Learning Neural Turing Machines», publié le 4 mai 2015.
4 Zhang; Wei; Yu, Yang et Zhou, Bowen, 2015, «Structured Memory for Neural Turing Machines», publié le 25 octobre 2015.
5 Santoro, Adam; Bartunov, Sergey; Botvinick, Matthew; Wierstra, Daan et Lillicrap, Timothy, 2016, «One-Shot Learning with Memory-Augmented Neural Networks», publié le 19 mai 2016.
6 Boll Greve, Rasmus; Jacobsen, Emil Juul et Sebastian Risi, date inconnue, "Evolving Neural Turing Machines". Aucun éditeur répertorié
Tous sauf (peut-être) Boll Greve et al. ont été publiés à la Cornell Univeristy Library arXiv.org Repository: Ithaca, New York.