Quelles sont les implications des théorèmes de Gödel sur la recherche en IA?


13

Remarque: Mon expérience avec le théorème de Gödel est assez limitée: j'ai lu Gödel Escher Bach; parcouru la première moitié de l'introduction au théorème de Godel (par Peter Smith); et quelques trucs aléatoires ici et là sur Internet. Autrement dit, je n'ai qu'une vague compréhension de haut niveau de la théorie.

À mon humble avis, le théorème d'incomplétude de Gödel (et ses nombreux théorèmes connexes, tels que le problème de Halting et le théorème de Löbs) sont parmi les découvertes théoriques les plus importantes.

Cependant, c'est un peu décevant de constater qu'il n'y a pas beaucoup (du moins à ma connaissance) d'applications théoriques des théorèmes, probablement en partie à cause de 1. la nature obtuse de la preuve 2. les implications philosophiques fortes que les gens ne sont pas prêt à s'engager facilement.

Malgré cela, il y a encore quelques tentatives pour appliquer les théorèmes dans un contexte de philosophie de l'esprit / IA. Du haut de ma tête:

L'argument Lucas-Penrose : qui soutient que l'esprit n'est pas implémenté sur un système formel (comme dans l'ordinateur). (Pas une preuve de rigueur cependant)

Apparemment, une partie de la recherche au MIRI utilise Löbs Thereom, bien que le seul exemple que je connaisse est la coopération des agents Löbian.

Ce sont tous vraiment cool, mais y a-t-il d'autres exemples? Surtout ceux qui sont réellement sérieusement pris en compte par la communauté universitaire.

(cf. Quelles sont les implications philosophiques du premier théorème d'incomplétude de Gödel? sur SE)

Réponses:


6

Il y a certainement beaucoup d'implications pour l'IA, notamment:

  1. L'inférence avec la logique du premier ordre est semi-décidable. C'est une grosse déception pour tous ceux qui voulaient utiliser la logique comme outil d'IA primaire.

  2. L'équivalence de base de deux déclarations logiques de premier ordre est indécidable, ce qui a des implications pour les systèmes et les bases de données basés sur la connaissance. Par exemple, l'optimisation des requêtes de base de données est un problème indécidable à cause de cela.

  3. L'équivalence de deux grammaires hors contexte est indécidable, ce qui pose problème pour l'approche linguistique formelle du traitement du langage

  4. Lorsque vous effectuez une planification en IA, il suffit de trouver un plan réalisable pour certains langages de planification qui sont nécessaires dans la pratique.

  5. Lors de la génération automatique de programmes - nous sommes confrontés à un tas de résultats de décidabilité, car tout langage de programmation raisonnable est aussi puissant qu'une machine de Turing.

  6. Enfin, toutes les questions non triviales sur un paradigme informatique expressif, comme les réseaux Perti ou les automates cellulaires sont indécidables.


Quelqu'un peut-il fournir une source pour cela? Ou un point du doigt vers un texte pertinent.
kc sayz 'kc sayz'

1

J'ai écrit un article complet à ce sujet il y a une vingtaine d'années, qui a été publié dans Engineering Applications of Artificial Intelligence 12 (1999) 655-659 . C'est assez technique et vous pouvez le lire en entier sur mon site personnel, mais voici la conclusion:

Dans ce qui précède, il a été montré qu'il existe une infinité de constructions de preuve dans le théorème de Gödel - contrairement à celle qui a été utilisée jusqu'à présent dans les discussions sur l'intelligence artificielle. Bien que toutes les constructions réellement divulguées puissent être imitées par un ordinateur, il est évident qu'il existe des constructions qui n'ont pas encore été divulguées. Notre analyse a montré qu'il pourrait exister des constructions qui ne pourraient être découvertes que par un humain. Il s'agit d'un petit «peut-être» certainement indémontrable qui dépend des limites de l'imagination humaine.

Par conséquent, les personnes qui plaident pour l'équivalence mathématique des humains et des machines doivent en fin de compte s'appuyer sur leur croyance en un esprit limité, ce qui implique que leur conclusion est contenue dans leur hypothèse. D'autre part, les personnes prônant la supériorité des humains doivent assumer cette supériorité dans leurs arguments mathématiques, ne tirant finalement que la conclusion qui était déjà présente dans leur système de raisonnement dès le début.

Ainsi, il n'est pas possible de produire des arguments (méta) mathématiquement solides concernant la relation entre l'esprit humain et la machine de Turing sans faire une supposition sur l'esprit humain qui soit en même temps la conclusion de l'argument. Par conséquent, la question est indécidable.

Avertissement: J'ai quitté le milieu universitaire depuis, donc je ne connais pas la pensée contemporaine.


0

J'ai trouvé cet article du mathématicien et philosophe Solomon Feferman sur la conférence Gibbs de Gödel de 1951 sur certaines conséquences philosophiques des théorèmes d'incomplétude , en lisant l'article suivant de Wikipedia

Philosophie de l'intelligence artificielle ,

dont le résumé nous donne (comme prévu) une idée de haut niveau de ce qui est discuté dans le même:

Il s'agit d'une analyse critique de la première partie de la conférence Gibbs de Gödel de 1951 sur certaines conséquences philosophiques des théorèmes d'incomplétude.

La discussion de Gödel est formulée en termes de distinction entre les mathématiques objectives et les mathématiques subjectives , selon lesquelles la première consiste en les vérités des mathématiques au sens absolu, et la seconde se compose de toutes les vérités humainement démontrables.

La question est de savoir si celles-ci coïncident; s'ils le font, aucun système axiomatique formel (ou machine de Turing ) ne peut comprendre les potentialités mathématiques de la pensée humaine, et sinon, il y a des problèmes mathématiques absolument insolubles de forme diophantienne.

Soit ... l'esprit humain ... dépasse infiniment les pouvoirs de n'importe quelle machine finie, soit il existe des problèmes diophantiens absolument insolubles.

ce qui peut être intéressant, du moins philosophiquement, pour la recherche en IA. Je crains que ce document ne soit similaire à l'article auquel vous vous liez concernant les «tentatives» ou arguments philosophiques de Lucas et Penrose.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.