L'analogie est-elle nécessaire à l'intelligence générale artificielle?


9

Les analogies sont assez puissantes en communication. Ils permettent d'expliquer des concepts complexes à des personnes sans connaissance du domaine, simplement en les mappant sur un domaine connu. Hofstadter dit qu'ils comptent , tandis que Dijkstra dit qu'ils sont dangereux. Quoi qu'il en soit, les analogies peuvent être considérées comme un moyen puissant de transférer des concepts de la communication humaine (oserais-je dire transférer l'apprentissage ?).

Je connais des travaux hérités, tels que le raisonnement basé sur les cas , mais aucun travail plus récent sur le mécanisme d'analogie en IA.

Y a-t-il consensus sur la nécessité ou non d'une analogie avec les AGI, et dans quelle mesure seraient-elles critiques?

S'il vous plaît, pensez à étayer vos réponses avec des travaux concrets ou des publications.

Réponses:


6

Je ne pense pas pouvoir vous donner une vraie réponse à la vraie question telle que posée, car je n'ai pas de définition stricte de "l'intelligence générale". Je n'ai pas non plus de définition solide de "critique" dans son contexte.

Mais ... si nous nous appuyons sur notre compréhension naïve / intuitive de ce qu'est l'intelligence et de ce que cela signifie d'être critique, vous pourriez traduire cela par "un système d'intelligence général aurait-il besoin de faire des analogies pour faire certaines choses qu'il ne pourrait pas" sinon? " Ou, pour le dire autrement, "existe-t-il des comportements utiles qui sont activés par le raisonnement analogique et qui ne peuvent être reproduits autrement?"

Au sens strict, je n'ai pas non plus de réponse à l'une ou l'autre de ces questions, mais il existe au moins des preuves suggérant que la réponse pourrait être "oui". Voir, pour référence, l' article Copycat de Hofstadter et Mitchell. D'après ce que j'ai vu, certains des types de problèmes que Copycat résout sont différents de tout ce que j'ai vu résolu par d'autres approches. Maintenant, c'est peut-être juste une coïncidence si personne n'a essayé de résoudre ces problèmes avec, je ne sais pas, disons "apprentissage profond" ou "induction de règles" ou "algorithmes génétiques". Ou peut-être qu'ils l'ont fait et que je ne suis tout simplement pas tombé sur ce corpus de recherches.

Quoi qu'il en soit, j'ajouterai également qu'il y a encore des recherches en cours sur l'utilisation de l'analogie pour l'IA / ML. Voir par exemple cet article de juillet 2017 où les auteurs parlent de l'utilisation de l'analogie, mais définissent leur approche comme une "inférence analogique" (qui, selon eux, est différente du "raisonnement analogique" tel que défini au cours de la précédente "période GOFAI"). Il y a aussi cet article de juin 2017 où un autre groupe d'auteurs traite d'une forme de raisonnement analogique.

Je ne pense pas qu'il y ait un consensus sur la question de savoir si une certaine forme de raisonnement analogique est "critique", mais c'est certainement un sujet qui fait toujours l'objet de recherches.

Et pour commencer sur un peu d'une tangente - une question connexe intéressante serait de se demander si oui ou non la "fabrication d'analogie" serait une propriété émergente d'une ANN suffisamment profonde / large, ou une telle installation devrait-elle être conçue et codé explicitement.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.