Quelle part du travail de Deep Mind est réellement reproductible?


9

Deep Mind a publié de nombreux ouvrages sur le deep learning au cours des dernières années, la plupart à la pointe de la technologie dans leurs tâches respectives. Mais quelle partie de ce travail a réellement été reproduite par la communauté de l'IA? Par exemple, le papier Neural Turing Machine semble être très difficile à reproduire, selon d'autres chercheurs.


Je ne suis pas sûr de reproduire les résultats de l'article d'origine, mais je suis tombé sur une demi-douzaine d'articles qui font suite au travail de Graves et al.qui ont produit des résultats de calibre. La plupart sont sur des variantes du thème NTM. Je peux poster des liens si cela peut aider.
SQLServerSteve

1
Ce commentaire + liens serait une bonne réponse réelle.
rcpinto

Je vais le convertir en réponse sous peu, dès que je pourrai retrouver les adresses web.
SQLServerSteve

Réponses:


7

Sur la suggestion de l'OP rcpinto, j'ai converti un commentaire sur le fait de voir "environ une demi-douzaine d'articles qui font suite aux travaux de Graves et al. Qui ont produit des résultats de calibre" et fournirai quelques liens. Gardez à l'esprit que cela ne répond qu'à la partie de la question relative aux MNT, pas à Google DeepMind lui-même, et j'apprends toujours les ficelles de l'apprentissage automatique, donc une partie du matériel dans ces articles est au-dessus de ma tête; J'ai réussi à saisir une grande partie du matériel dans le document original de Graves et al. {1] et je suis sur le point d'avoir un code NTM local à tester. J'ai également au moins parcouru les articles suivants au cours des derniers mois; ils ne reproduisent pas l'étude NTM d'une manière scientifique stricte, mais bon nombre de leurs résultats expérimentaux tendent à soutenir l'original au moins tangentiellement:

• Dans cet article sur une variante de l'adressage NTM, Gulcehere et al. n'essayez pas de reproduire précisément les tests de Graves et al., mais comme l'équipe DeepMind, il montre des résultats nettement meilleurs pour le NTM d'origine et plusieurs variantes par rapport à un LSTM récurrent ordinaire. Ils utilisent 10 000 échantillons de formation d'un ensemble de données Q&R Facebook, plutôt que les N-grammes Graves et al. opéré dans leur papier, donc ce n'est pas la réplication au sens strict. Ils ont cependant réussi à obtenir une version du NTM d'origine et plusieurs variantes et ont enregistré la même amplitude d'amélioration des performances. 2

• Contrairement au NTM original, cette étude a testé une version d'apprentissage par renforcement qui n'était pas différenciable; c'est peut-être pourquoi ils n'ont pas pu résoudre plusieurs des goûts de programmation, comme la répétition-copie, à moins que le contrôleur ne se limite pas à avancer. Leurs résultats ont néanmoins été suffisamment bons pour étayer l'idée de MNT. Une révision plus récente de leur document est apparemment disponible, que je n'ai pas encore lu, donc peut-être certains des problèmes de leur variante ont été résolus. 3

• Au lieu de tester la saveur originale de NTM contre des réseaux neuronaux ordinaires comme les LSTM, ce document l'a opposé à plusieurs structures de mémoire NTM plus avancées. Ils ont obtenu de bons résultats sur le même type de tâches de programmation que Graves et al. testé, mais je ne pense pas qu'ils utilisaient le même ensemble de données (il est difficile de dire à partir de la façon dont leur étude est écrite exactement sur quels ensembles de données ils fonctionnaient). 4

• Dans. 8 de cette étude , un NTM surpasse clairement plusieurs schémas basés sur le LSTM, le feed-forward et le plus proche voisin sur un ensemble de données de reconnaissance de caractères Omniglot. Une approche alternative à la mémoire externe concoctée par les auteurs la bat clairement, mais elle fonctionne toujours bien évidemment. Les auteurs semblent appartenir à une équipe rivale de Google, ce qui pourrait donc être un problème lors de l'évaluation de la reproductibilité. 5

• Dans. 2 ces auteurs ont rapporté avoir obtenu une meilleure généralisation sur les "très grandes séquences" dans un test de tâches de copie, en utilisant un réseau NTM beaucoup plus petit, ils ont évolué avec l'algorithme génétique NEAT, qui développe dynamiquement les topologies. 6

Les MNT sont assez nouveaux, il n'y a donc pas eu beaucoup de temps pour reproduire rigoureusement la recherche originale, je suppose. Cependant, la poignée d'articles que j'ai parcourus au cours de l'été semblent étayer leurs résultats expérimentaux; Je n'ai encore vu aucun rapport qui soit autre que d'excellentes performances. Bien sûr, j'ai un biais de disponibilité, car je n'ai lu que les fichiers PDF que je pouvais facilement trouver dans une recherche imprudente sur Internet. À partir de ce petit échantillon, il semble que la plupart des recherches de suivi se sont concentrées sur l'extension du concept, et non sur la réplication, ce qui expliquerait le manque de données de reproductibilité. J'espère que ça aide.

1 Graves, Alex; Wayne, Greg et Danihelka, Ivo, 2014, «Neural Turing Machines», publié le 10 décembre 2014.

2 Gulcehre, Caglar; Chandar, Sarath; Choy, Kyunghyun et Bengio, Yoshua, 2016, «Dynamic Neural Turing machine with Soft and Hard Addressing Schemes», publié le 30 juin 2016.

3 Zaremba, Wojciech et Sutskever, Ilya, 2015, «Reinforcement Learning Neural Turing Machines», publié le 4 mai 2015.

4 Zhang; Wei; Yu, Yang et Zhou, Bowen, 2015, «Structured Memory for Neural Turing Machines», publié le 25 octobre 2015.

5 Santoro, Adam; Bartunov, Sergey; Botvinick, Matthew; Wierstra, Daan et Lillicrap, Timothy, 2016, «One-Shot Learning with Memory-Augmented Neural Networks», publié le 19 mai 2016.

6 Boll Greve, Rasmus; Jacobsen, Emil Juul et Sebastian Risi, date inconnue, "Evolving Neural Turing Machines". Aucun éditeur répertorié

Tous sauf (peut-être) Boll Greve et al. ont été publiés à la Cornell Univeristy Library arXiv.org Repository: Ithaca, New York.


4

J'ai tendance à penser que cette question est à la frontière et pourrait se rapprocher. Quelques commentaires pour l'instant, cependant.


falsex Il y a (au moins) deux problèmes avec la reproduction du travail d'une entreprise comme DeepMind:

  • Détails techniques manquants dans les publications.
  • Accès au même niveau de données.

Les détails techniques devraient être réalisables. Certaines personnes ont reproduit certaines des cascades de jeu Atari . AlphaGo est apparemment plus complexe et nécessitera plus de travail, mais cela devrait être réalisable à un moment donné dans le futur (les individus peuvent manquer de ressources informatiques aujourd'hui).

Les données peuvent être plus délicates. Plusieurs entreprises ouvrent leurs ensembles de données, mais les données sont aussi le nerf de la concurrence ...


J'essaie en fait de trouver ces frontières ... diriez-vous que c'est hors sujet? Trop large? Ou quoi?
rcpinto

Je ne suis pas encore décidé. Je me demande ce qui compte pour AI si nous pouvons ou ne pouvons pas reproduire les affirmations de certaines entreprises. Je peux voir des gens s'interroger à ce sujet et venir ici pour obtenir des réponses, mais nous ne parlons pas vraiment d'IA. Votre question est encore jeune. Voyons la décision de la communauté. Je trouve cela "limite acceptable".
Eric Platon
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.