Tout ce qui concerne le Deep Learning (DL) et les réseaux profonds (er) semble "réussi", progressant au moins très rapidement et cultivant la croyance selon laquelle AGI est à portée de main. C'est de l'imagination populaire. DL est un formidable outil pour faire face à tant de problèmes, y compris la création d'AGI. Mais cela ne suffit pas. Un outil est un ingrédient nécessaire, mais souvent insuffisant.
Des figures de proue du domaine cherchent ailleurs à progresser. Ce rapport / revendication rassemble des liens vers des déclarations de Yoshua Bengio , Yann LeCun et Geoff Hinton . Le rapport explique également:
Les principales faiblesses de DL (telles que je les vois) sont: la dépendance aux neurones modèles les plus simples possibles («caricaturaux» comme LeCun les appelle); utilisation des idées de la mécanique statistique et des statistiques du XIXe siècle, qui sont à la base des fonctions énergétiques et des méthodes de log-vraisemblance; et la combinaison de ceux-ci dans des techniques telles que le backprop et la descente de gradient stochastique, conduisant à un régime d'application très limité (hors ligne, principalement par lots, apprentissage supervisé), nécessitant des praticiens très talentueux (alias "Stochastic Graduate Descent"), de grandes quantités de cher données de formation étiquetées et puissance de calcul. Bien qu'il soit idéal pour les grandes entreprises qui peuvent attirer ou acheter le talent et déployer des ressources illimitées pour collecter des données et les analyser, DL n'est tout simplement ni accessible ni utile pour la majorité d'entre nous.
Bien qu'intéressant et pertinent, ce type d'explication ne répond pas vraiment à l'essentiel du problème: qu'est-ce qui manque?
La question semble large, mais peut-être par manque de réponse simple. Existe-t-il un moyen d'identifier exactement ce qui manque à DL pour une AGI?