Y a-t-il un argument scientifique / mathématique qui empêche l'apprentissage en profondeur de produire une IA forte?


12

J'ai lu The Book of Why de Judea Pearl , dans lequel il mentionne que l'apprentissage en profondeur n'est qu'une technologie glorifiée d'ajustement de courbe, et ne sera pas en mesure de produire une intelligence humaine.

De son livre, il y a ce diagramme qui illustre les trois niveaux de capacités cognitives:

Trois niveaux de capacités cognitives

L'idée est que «l'intelligence» produite par la technologie actuelle d'apprentissage en profondeur n'est qu'au niveau de l'association. Ainsi, l'IA est loin du niveau de poser des questions comme «comment puis-je faire en sorte que Y se produise» (intervention) et «Et si j'ai agi différemment, X se produira-t-il toujours? (contrefactuels), et il est très peu probable que les techniques d'ajustement de courbe puissent nous rapprocher d'un niveau supérieur de capacité cognitive.

J'ai trouvé son argument convaincant à un niveau intuitif, mais je suis incapable de trouver des lois physiques ou mathématiques qui peuvent renforcer ou jeter le doute sur cet argument.

Alors, y a-t-il un argument scientifique / physique / chimique / biologique / mathématique qui empêche l'apprentissage en profondeur de produire jamais une IA forte (intelligence humaine)?


Il y a quelques heures, nous avons eu une sorte de Quetion qui parle de neuroscience et d'intelligence artificielle, donc je pense que cette question convient parfaitement aux applications de données, c'est-à-dire en plus de l'apprentissage automatique.
quintumnia

1
L'un des problèmes rencontrés pour répondre à cette question est que le "Deep Learning" est une sorte de nom de marque, où les choses faites avec des réseaux de neurones qui vont au-delà de l'ajustement des courbes statistiques - par exemple, les RNN pour les séquences d'apprentissage et "l'apprentissage par renforcement profond" - peuvent également être considéré comme faisant partie de celui-ci par les adhérents. Si vous permettez au terme d'évoluer comme ceci, il est très difficile de clouer tout argument sur ses capacités.
Neil Slater

théorème d'incomplétude de
godel

2
@thecomplexitytheorist: l'incomplétude de Godel, le problème des entscheidung et similaires, tout cela aussi pour l'esprit humain. En conclusion, si c'était une raison pour ne pas atteindre l'IA, alors ni les humains ne sont intelligents. Modus tollens, Godels n'est pas un problème sur le chemin d'AGI
pasaba por aqui

Qui peut dire que «faire» et «imaginer» ne sont pas simplement des «ajustements de courbes» qui se passent dans le cerveau?
Dunk

Réponses:


3

Le commentaire de Judea Pearl en 2018 sur ACM.org, dans son article To Build Truly Intelligent Machines, Teach Them Cause and Effect transperce la vérité.

Toutes les réalisations impressionnantes de l'apprentissage en profondeur correspondent à un ajustement de courbe.

Rn

  1. Les réseaux artificiels ne peuvent pas exécuter la logique.
  2. Les réseaux artificiels sont la meilleure approche de l'IA.

Comment exclure la rationalité de la liste des caractéristiques humaines importantes de l'intelligence, ce que signifieraient ces deux affirmations prises ensemble?

Le cerveau humain est-il un réseau d'ajusteurs de courbes sophistiqués? La célèbre citation de Marvin Minsky, "Le cerveau se trouve être une machine à viande", a été offerte sans preuve, et ni une preuve de sa banalisation du cerveau humain ni une preuve que le cerveau est hors de portée de la calculabilité de Turing ont été proposées depuis .

Lorsque vous lisez ces mots, vos réseaux de neurones effectuent-ils la séquence d'ajustements de courbe suivante?

  • Bords des bâtonnets et des cônes rétiniens
  • Lignes à partir des bords
  • Formes à partir de lignes
  • Lettres de formes
  • Éléments linguistiques de groupes de lettres
  • Structures linguistiques des éléments
  • Comprendre des structures linguistiques

Le cas est fort pour l'affirmation que les cinq premiers sont un mécanisme de convergence sur un modèle, et toute la structure d'apprentissage automatique n'est qu'une méthode pour ajuster les données au modèle.

Ces deux derniers éléments sont là où le paradigme tombe en panne et où de nombreux chercheurs et auteurs en IA ont correctement déclaré que l'apprentissage automatique a des limites importantes lorsqu'il est basé uniquement sur des perceptrons multicouches et des noyaux de convolution. En outre, le dernier élément de la puce est largement simplifié à l'extrême dans son état actuel, probablement par ordre de grandeur. Même si Minsky a raison de dire qu'un ordinateur peut effectuer ce que fait le cerveau, le processus de lecture et de compréhension de ce paragraphe pourrait facilement avoir mille types différents de composants de processus uniques dans des modèles de flux de travail interne avec un parallélisme massif. La technologie d'imagerie indique cette probabilité. Nous avons des ordinateurs qui modélisent uniquement les couches périphériques les plus simples.

Y a-t-il un argument scientifique / mathématique qui empêche l'apprentissage en profondeur de produire une IA forte? - Non. Mais aucun argument de ce type ne le garantit non plus.

D'autres questions examinent ici si ces ajusteurs de courbes sophistiqués peuvent effectuer des éléments de cognition ou de raisonnement.

Le totem de trois à l'image de la question, voir, faire et imaginer, n'est pas particulièrement complet, précis ou perspicace.

  • Il y a au moins cinq paradigmes sensoriels chez l'homme, pas un
  • Faire précéder les sens humains de milliards d'années - les bactéries font
  • L'imagination n'est pas un processus beaucoup plus élevé que la relecture de scénarios à partir de modèles d'expérience passée avec une méthode pour appliquer des fonctions définies pour les combiner et injecter des mutations aléatoires
  • La créativité peut simplement être imaginée dans l'élément précédent, suivie par l'élimination des résultats d'imagination inutiles avec certains critères de qualité orientés vers le marché, laissant les produits créatifs impressionnants qui se vendent

Les formes supérieures sont l'appréciation, le sens des réalités au-delà de la portée de la mesure scientifique, le doute légitime, l'amour, le sacrifice pour le bien des autres ou de l'humanité.

Beaucoup reconnaissent que l'état actuel de la technologie de l'intelligence artificielle est loin d'être acquis par un système capable de répondre de manière fiable: "Comment puis-je faire en sorte que Y se produise?" ou "Si j'ai agi différemment, X se produira-t-il toujours?"

Il n'y a aucune preuve mathématique qu'une combinaison de petits éléments d'ajustement de courbe peut ou ne peut pas atteindre la capacité de répondre à ces questions aussi bien qu'un être humain typique peut le faire, principalement parce qu'il n'y a pas suffisamment de compréhension de ce qu'est l'intelligence ou comment la définir en termes mathématiques.

Il est également possible que l'intelligence humaine n'existe pas du tout, que les références à celle-ci soient basées sur une croyance religieuse selon laquelle nous sommes plus élevés en tant qu'espèce que les autres espèces. Que nous pouvons peupler, consommer et exterminer n'est pas en fait une conception très intelligente de l'intelligence.

L'affirmation selon laquelle l'intelligence humaine est une adaptation qui nous différencie des autres mammifères est en conflit avec notre adaptation. Nous n'avons pas été testés. Venez le prochain tueur mondial météorique avec une onde de choc de l'ampleur de celle du météore du cratère Chicxulub, suivie de quelques milliers d'années de l'hiver solaire et nous verrons si c'est notre existence de 160 000 ans ou celle de 4 000 000 000 d'années de bactéries qui s'avère plus durable. Dans la chronologie de la vie, l'intelligence humaine n'a pas encore fait ses preuves en tant que trait adaptatif.

Ce qui est clair dans le développement de l'IA, c'est que d'autres types de systèmes jouent un rôle avec les apprenants profonds basés sur le concept de perceptron multicouche et les noyaux de convolution qui sont strictement des ajusteurs de surface.

Les composants Q-learning, les composants basés sur l'attention et les composants de mémoire à court et à long terme sont tous strictement un ajusteur de surface également, mais uniquement en étendant considérablement la définition de l'ajustement de surface. Ils ont des propriétés adaptatives et un état en temps réel, de sorte qu'ils peuvent être Turing complets.

Les conteneurs de logique floue, les systèmes basés sur des règles, les algorithmes aux propriétés markoviennes et de nombreux autres types de composants jouent également leur rôle et ne sont pas du tout des ajusteurs de surface.

En résumé, certains points ont été fondés sur plus que la plausibilité ou une qualité intuitive agréable, cependant, beaucoup de ces auteurs ne fournissent pas un cadre mathématique avec des définitions, des applications, des lemmes, des théorèmes, des preuves ou même des expériences de pensée qui peuvent être scruté de manière formelle.


1

C'est un paradoxe, mais une machine d'apprentissage profond (définie comme une variante de NeuralNet) est incapable d'apprendre quoi que ce soit. Il s'agit d'une architecture matérielle / logicielle flexible et configurable qui peut être paramétrée pour résoudre de nombreux problèmes. Mais les paramètres optimaux pour résoudre un problème sont obtenus par un système externe, c'est-à-dire un algorithme de rétropropagation.

Le sous-système de rétropropagation utilise des paradigmes de programmation conventionnels, ce n'est pas un réseau neuronal. Ce fait est en opposition absolue avec l'esprit humain, où l'apprentissage et l'utilisation des connaissances se font par le même système (l'esprit).

Si toutes les choses vraiment intéressantes sont faites en dehors du NN, il est difficile de prétendre qu'un NN (dans n'importe quelle variante) peut se développer dans un AGI.

Il est également possible de trouver quelques différences supplémentaires. Les réseaux de neurones sont fortement numériques dans son interface et ses internes. De ce point de vue, ils sont une évolution des machines à vecteurs supports.

Trop de différences et de restrictions pour attendre un AGI.

Remarque: je suis fortement en désaccord sur le tirage inclus dans la question d'origine. «Voir», «faire», «imager» sont des niveaux absolument faux. Il ignore des concepts logiciels de base et courants comme «abstraction» ou «état de programme» (d'esprit, en termes de Turing); ceux d'IA appliqués comme "prévu"; et AGI comme "libre arbitre", "objectifs et sentiments", ...


4
Je pense que retirer la rétropropagation (ou n'importe quelle partie du cadre de formation) de la considération, et prétendre que la partie restante est la partie "Deep Learning" est artificiel, et en quelque sorte esquiver la question. Je pense qu'il est raisonnable de supposer que OP signifie Deep Learning tel qu'il est pratiqué, y compris les processus de formation disponibles.
Neil Slater

1
@NeilSlater: Si nous disons qu'un DL est une sorte de NeuralNet (afin de remarquer la similitude avec l'esprit humain et, par conséquent, son pouvoir possible d'atteindre un AGI), nous excluons la partie d'apprentissage, qui n'est pas un NN . Si nous incluons le sous-système d'apprentissage dans la définition d'un DL, alors ce n'est pas un NN, c'est seulement une programmation conventionnelle, avec la puissance de n'importe quel programme conventionnel, et a les mêmes possibilités d'atteindre AGI que n'importe quel autre système de programme ou paradigme.
pasaba por aqui

Le cerveau humain apprend en recevant et en traitant exclusivement les entrées de «systèmes» externes. Les paramètres optimaux pour résoudre les problèmes sont obtenus par essais et erreurs, en appliquant des règles et en traitant les entrées de systèmes externes. L'entraînement commence alors que le bébé est encore dans l'utérus et se poursuit 24/7 par la suite. L'état actuel de l'IA n'est certainement pas comparable à l'émulation du cerveau humain; mais affirmer que l'IA ne peut pas apprendre (ou qu'elle n'apprend pas déjà de la même manière que le cerveau humain) suppose que le cerveau humain «apprenne» et fonctionne que la science ne connaît pas encore.
Dunk
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.