La réponse courte est que la vision de Hawkins n'a pas encore été mise en œuvre de manière largement accessible, en particulier les éléments indispensables liés à la prédiction.
La réponse longue est que j'ai lu le livre de Hawkins il y a quelques années et que j'étais excité par les possibilités de la mémoire temporelle hiérarchique (HTM). Je le suis toujours, malgré le fait que j'ai quelques réserves sur certaines de ses réflexions philosophiques sur les significations de la conscience, du libre arbitre et d'autres sujets de ce genre. Je ne développerai pas ces craintes ici parce qu'elles ne sont pas pertinentes pour la raison principale et écrasante pour laquelle les réseaux HTM n'ont pas réussi autant que prévu à ce jour: à ma connaissance, Numenta n'a mis en œuvre qu'une version tronquée de sa vision. Ils ont laissé de côté la plupart de l'architecture de prédiction, qui joue un rôle si critique dans les théories de Hawkins. Comme Gerod M. Bonhoff l'a mis dans une excellente thèse 1 sur les HTM,
La décision de conception la plus importante adoptée par Numenta a été d'éliminer la rétroaction dans la hiérarchie et de choisir de simuler ce concept théorique en utilisant uniquement des algorithmes de regroupement de données pour la pondération. Cette décision est immédiatement suspecte et viole les concepts clés de HTM. Le feedback, insiste Hawkins, est vital pour la fonction corticale et au centre de ses théories. Pourtant, Numenta affirme que la plupart des problèmes applicables à HTM peuvent être résolus en utilisant leur implémentation et leurs algorithmes de mise en commun propriétaires. "
J'apprends toujours les ficelles dans ce domaine et je ne peux pas dire si Numenta a depuis abandonné cette approche en faveur d'une mise en œuvre complète des idées de Hawkins, en particulier l'architecture de prédiction très importante. Même s'ils l'ont fait, cette décision de conception a probablement retardé l'adoption de plusieurs années. Ce n'est pas une critique en soi; Peut-être que les coûts de calcul du suivi des valeurs de prédiction et de leur mise à jour à la volée étaient trop lourds à supporter à l'époque, en plus des coûts ordinaires de traitement des réseaux de neurones, ne leur laissant d'autre chemin que d'essayer des demi-mesures comme leur pooling propriétaire mécanismes. Néanmoins, tous les meilleurs articles de recherche que j'ai lus sur le sujet depuis lors ont choisi de réimplémenter les algorithmes plutôt que de s'appuyer sur la plate-forme de Numenta, généralement en raison des fonctionnalités de prédiction manquantes.Rapport technique de Maltoni pour le laboratoire du système biométrique de l'Université de Bologne 2 . Dans tous ces cas, cependant, il n'y a pas de logiciel facilement accessible pour mettre leurs variantes HTM à une utilisation immédiate (pour autant que je sache). L'essentiel de tout cela est que, comme la célèbre maxime de GK Chesterton sur le christianisme, "les HTM n'ont pas été jugés et manqués; ils ont été trouvés difficiles et n'ont pas été essayés". Étant donné que Numenta a omis les étapes de prédiction, je suppose qu'elles seraient les principales pierres d'achoppement attendant quiconque souhaite coder la vision complète de Hawkins de ce que devrait être un HTM.
1 Bonhoff, Gerod M., 2008, Using Hierarchical Temporal Memory for Detecting Anomalous Network Activity. Présenté en mars 2008 à l'Air Force Institute of Technology, Wright-Patterson Air Force Base, Ohio.
2 Maltoni, Davide, 2011, Pattern Recognition by Hierarchical Temporal Memory. Rapport technique DEIS publié le 13 avril 2011. Laboratoire du système biométrique de l'Université de Bologne: Bologne, Italie.