C'est une question importante pour l'IA - peut-être la plus importante de toutes - pour le domaine de la recherche intelligence . Je veux dire que si l'IA est une science, alors ses expériences seront testables empiriquement. Il doit y avoir un moyen de décider de réussir ou d'échouer. Quels sont donc les tests d'intelligence? Avant même de concevoir un test, vous avez besoin d'une idée claire de ce qu'est l'intelligence, sinon comment pourriez-vous concevoir un test compétent pour cela?
Bien sûr, je fais partie du projet de recherche et développement connu sous le nom de construction de sous-marins étanches, et bien sûr, je suis totalement confiant que mon sous-marin est étanche, mais je ne sais pas comment tester si c'est le cas ou non parce que je ne sais pas ce que signifie "étanche". Cette idée est absurde. Mais demandez à AI ce que signifie «intelligence». Les réponses que vous obtenez, à l'analyse, sont presque les mêmes que l'exemple sous-marin.
Réponse de base - Comportement
Le mot (idée, concept) "Intelligence" est généralement défini par l'IA en termes de comportement. C'est-à-dire l'approche de test de Turing. Une machine est intelligente si elle se comporte d'une manière qui, si un être humain se comportait de la même manière, l'homme serait censé effectuer une action qui nécessitait une intelligence humaine.
Problème 1 : les pianos des joueurs sont intelligents. Jouer un morceau de Scott Joplin nécessite évidemment de l'intelligence chez un humain.
Problème 2 . Si une machine réussit le test, cela montre seulement qu'elle est "intelligente" pour les comportements testés. Qu'en est-il des comportements non testés? Il s'agit en fait d'un problème de vie ou de mort aujourd'hui avec les systèmes de contrôle de l'IA des véhicules autonomes. Les systèmes d'intelligence artificielle sont assez bons pour conduire une voiture (ce qui nécessite évidemment l'intelligence humaine) dans des environnements spécifiques, par exemple des autoroutes avec des voies bien marquées, pas de virages serrés et une barrière médiane séparant les deux directions. Mais les systèmes tournent mal dans les «cas marginaux» - des situations inhabituelles.
Problème 3 . Qui mettrait son enfant dans un bus scolaire conduit par un robot qui avait réussi le test de Turing pour conduire des bus scolaires? Qu'en est-il d'une tempête lorsqu'une ligne électrique sous tension tombe de l'autre côté de la route? Ou un twister au loin vient de cette façon? Qu'en est-il de mille autres possibilités non testées? Un parent responsable voudrait savoir (a) quels sont les principes des structures et processus internes de l'intelligence humaine, et (b) que le conducteur du bus numérique avait des structures et processus internes suffisamment similaires - c'est-à-dire non pas un comportement mais les bons éléments internes , la bonne causalité intérieure.
Réponse souhaitée - principes intérieurs
Je voudrais savoir que la machine exécutait les bons processus internes et qu'elle exécutait ces processus (algorithmes) sur les bonnes structures internes (mémoire). Le problème est que personne ne semble savoir quels sont les bons processus et structures internes de l'intelligence humaine. (Un problème énorme à coup sûr - mais qui n'a pas retenu l'IA - ou les développeurs de systèmes autonomes - un peu.) L'implication de cela est que ce que l'IA devrait faire maintenant est de déterminer quels sont les processus internes et les structures de l'intelligence humaine. Mais il ne fait pas cela - il commercialise plutôt sa technologie défectueuse.
Éléments d'une définition - 1. Généralisation
Nous savons certaines choses sur l'intelligence humaine. Certains tests testent vraiment si une machine possède certaines propriétés de l'esprit humain. L'une de ces propriétés est la généralisation. Dans son article de 1950, Turing, comme une sorte de blague, a donné un très bon exemple de généralisation conversationnelle: (Le témoin est la machine.)
"Interrogateur: Dans la première ligne de votre sonnet qui se lit" Dois-je te comparer à un jour d'été "," un jour de printemps "ne ferait-il pas aussi bien ou mieux?
Témoin: Il ne scannerait pas.
Interrogateur: Que diriez-vous d'une «journée d'hiver» qui balayerait bien.
Témoin: Oui, mais personne ne veut être comparé à une journée d'hiver.
Interrogateur: Diriez-vous que M. Pickwick vous a rappelé Noël?
Témoin: D'une certaine manière.
Interrogateur: Pourtant, Noël est un jour d'hiver, et je ne pense pas que M. Pickwick s'opposerait à la comparaison.
Témoin: Je ne pense pas que vous soyez sérieux. Par écorchement hivernal, on entend une journée d'hiver typique, plutôt qu'une journée spéciale comme Noël. "
L'intelligence artificielle actuelle n'a rien qui se rapproche même de loin de pouvoir généraliser comme ça. L'absence de généralisation est considérée comme peut-être le plus grand échec de l'IA actuelle. La capacité de généraliser serait une partie d'une définition adéquate de "l'intelligence". Mais ce que signifie la généralisation devrait être expliqué.
Le problème de la généralisation est également à l'origine de plusieurs objections philosophiques sévères à la théorie de l'IA, y compris le problème du cadre, le problème de la connaissance de bon sens et le problème de l'explosion combinatoire.
Éléments d'une définition - 2. Perception
La perception sensorielle est assez évidemment fondamentale pour l'apprentissage et l'intelligence humaine. Les données (sous une forme ou une autre) sont émises par les sens humains puis traitées par le système central. Dans l'ordinateur, les valeurs binaires sortent du capteur numérique et se dirigent vers la machine. Cependant, rien dans les valeurs elles-mêmes n'indique ce qui a été détecté. Pourtant, la seule chose que l'ordinateur obtient est les valeurs binaires. Comment la machine pourrait-elle jamais savoir ce qui est détecté? (Le problème classique de l'argument de la chambre chinoise.)
Donc, un autre élément de l'intelligence humaine est la capacité de percevoir d'une manière humaine. Ce que "la manière humaine" signifie ici, c'est que la machine traite l'entrée sensorielle en utilisant les mêmes principes qui s'appliquent à la perception humaine. Le problème est que personne ne semble savoir comment construire une sémantique (connaissance) à partir des données émises par des capteurs numériques (ou des sens organiques). Mais encore, la perception de type humain doit être un élément d'une définition adéquate de "l'intelligence".
Une fois que l'IA aura résolu ces deux problèmes - généralisation et perception -, elle sera probablement, espérons-le , en passe de réaliser son objectif initial de près de 70 ans - construire une machine avec (ou qui pourrait acquérir) un type humain intelligence générale. Et peut-être que les principes de généralisation et les principes de perception sont une seule et même chose. Et peut-être qu'il n'y a en fait qu'un seul principe. Il ne faut pas supposer que les réponses sont complexes. Parfois, les choses les plus difficiles à comprendre sont les plus simples.
La question "Que voulons-nous dire lorsque nous disons" intelligence "? Est donc très importante pour l'IA. Et la conclusion est que l'IA devrait remplacer sa définition comportementale actuelle de" l'intelligence "par une définition qui inclut les éléments humains de la généralisation et de la perception. Ensuite, continuez et essayez de définir les principes de fonctionnement, ou principe, des deux.