Quelle est la pertinence d'AIXI dans la recherche actuelle sur l'intelligence artificielle?


14

De Wikipédia:

AIXI ['ai̯k͡siː] est un formalisme mathématique théorique pour l'intelligence générale artificielle. Il combine l'induction de Solomonoff avec la théorie de la décision séquentielle. AIXI a été proposé pour la première fois par Marcus Hutter en 2000 [1] et les résultats ci-dessous sont prouvés dans le livre de 2005 de Hutter Universal Artificial Intelligence. [2]

Bien que non calculables, des approximations sont possibles, comme AIXItl . Trouver des approximations d'AIXI pourrait être un moyen objectif de résoudre l'IA.

AIXI est-il vraiment un gros problème dans la recherche sur l'intelligence générale artificielle ? Peut-il être pensé comme un concept central du domaine? Si oui, pourquoi n'avons-nous pas plus de publications sur ce sujet (ou peut-être que nous en avons et je ne suis pas au courant)?

Réponses:


8

La «recherche actuelle sur l'intelligence artificielle» est un domaine assez large. D'où je suis assis, dans un domaine principalement CS, les gens se concentrent sur l'intelligence étroite qui peut effectuer un travail économiquement pertinent sur des tâches étroites. (C'est-à-dire, prévoir le moment où les composants échoueront, prévoir les annonces sur lesquelles un utilisateur cliquera, etc.)

Pour ces types d'outils, la généralité d'un formalisme comme AIXI est une faiblesse plutôt qu'une force. Vous n'avez pas besoin de prendre une IA qui pourrait en théorie calculer quoi que ce soit, puis de la former lentement pour vous concentrer sur ce que vous voulez, alors que vous pouvez simplement façonner directement un outil qui est le miroir de votre tâche.

Je ne suis pas aussi familier avec la recherche AGI elle-même, mais j'ai l'impression qu'AIXI est, dans une certaine mesure, l'idée la plus simple qui pourrait fonctionner - elle prend toute la partie difficile et la pousse dans le calcul, c'est donc juste un défi d'ingénierie . ' (Il s'agit de `` trouver des approximations d'AIXI. '') La question devient alors, est de commencer à AIXI et d'essayer d'approcher sur un chemin de recherche plus ou moins fructueux que de commencer par quelque chose de petit et fonctionnel, et d'essayer de construire?

Mon impression est que ce dernier est beaucoup plus courant, mais encore une fois, je ne vois qu'un petit coin de cet espace.


Vous ne répondez pas réellement aux questions du post actuel . La première question est "AIXI est-il vraiment un gros problème dans la recherche en intelligence artificielle générale ?". La question pose strictement sur l'importance d'AIXI dans la recherche AGI , elle ne demande pas si vous pensez que d'autres outils spécifiques sont meilleurs pour les tâches correspondantes au lieu de restreindre les approximations des modèles AGI aux mêmes tâches spécifiques. Dans le post, une autre question est: "pourquoi n'avons-nous pas plus de publications sur ce sujet?" Aucune réponse à cette question dans votre message.
nbro

5

AIXI est-il vraiment un gros problème dans la recherche sur l'intelligence générale artificielle?

Oui, c'est une grande contribution théorique à AGI. AFAIK, c'est la tentative la plus sérieuse de construire un cadre théorique ou une fondation pour AGI. Des œuvres similaires sont les machines Gödel de Schmidhuber et l' architecture SOAR .

AIXI est un cadre abstrait et non anthropomorphe pour AGI qui s'appuie sur le champ d'apprentissage du renforcement, sans quelques hypothèses habituelles (par exemple, sans les hypothèses de Markov et d' ergodicité , ce qui garantit que l'agent peut facilement récupérer de toutes les erreurs qu'il a commises dans le passé). Même si certaines propriétés d'optimalité d'AIXI ont été prouvées, il est (Turing) non calculable (il ne peut pas être exécuté sur un ordinateur), et donc son utilité pratique est très limitée. Néanmoins, dans le livre de Hutter Universal Artificial Intelligence: Sequential Decisions based on Algorithmic Probability(2005), où plusieurs propriétés d'AIXI sont rigoureusement prouvées, une version calculable mais intraitable d'AIXI, AIXItl, est également décrite. De plus, dans l'article A Monte Carlo AIXI Approximation (2009), de Joel Veness et al., Une approximation calculable et traitable d'AIXI est introduite. Il y a donc eu quelques tentatives pour rendre AIXI pratiquement utile.

L'article Qu'est-ce que AIXI? - An Introduction to General Reinforcement Learning (2015), de Jan Leike, qui est l'un des contributeurs au développement et à l'évolution du framework AIXI, donne une introduction en douceur à l'agent AIXI. Voir également The AIXI Architecture at the Stanford Encyclopedia of Philosophy pour une introduction éventuellement plus douce à AIXI.

Peut-il être considéré comme un concept central pour le domaine?

Oui, l'introduction d'AIXI et des recherches connexes a contribué à l'évolution du domaine AGI. Il y a eu plusieurs discussions et articles publiés, après son introduction en 2000 par Hutter dans l'article A Theory of Universal Artificial Intelligence based on Algorithmic Complexity .

Voir par exemple la section 7, «Exemples de superintelligences», de l'article Artificial General Intelligence and the Human Mental Model (2012), de Roman V. Yampolskiy et Joshua Fox. Voir aussi https://wiki.lesswrong.com/wiki/AIXI qui contient une discussion concernant quelques problèmes liés à AIXI, qui doivent être résolus ou éventuellement évités dans les futurs frameworks AGI. Voir aussi ceci et ces articles.

Si oui, pourquoi n'avons-nous pas plus de publications sur ce sujet (ou peut-être que nous en avons et je ne suis pas au courant)?

Il y a eu plusieurs publications, principalement par Marcus Hutter et des chercheurs associés. Vous pouvez voir les publications de Marcus Hutter sur la page Web suivante: http://www.hutter1.net/official/publ.htm .

Si vous souhaitez contribuer à cette théorie, il existe plusieurs façons. Si vous êtes bien éduqué en mathématiques, vous pouvez essayer de résoudre certains des problèmes décrits ici (qui sont également mentionnés dans le livre de Hutter 2005 mentionné ci-dessus). De plus, vous pouvez également contribuer à de nouvelles approximations ou à des améliorations des approximations existantes de l'agent AIXI. Enfin, vous pouvez créer votre nouveau framework AGI en évitant les problèmes associés au framework AIXI. Voir aussi les projets promus par Hutter . Il peut être judicieux de prendre également en compte, par exemple, Gödel Machines et les travaux connexes, avant d'essayer d'introduire un nouveau cadre (à condition que vous en soyez capable).

Je pense que cette théorie n'a pas attiré plus de gens probablement parce qu'elle est très technique et mathématique (donc elle n'est pas très facile à comprendre à moins d'avoir une formation très solide en apprentissage par renforcement, en théorie des probabilités, etc.). Je pense également que la plupart des gens (dans la communauté de l'IA) ne sont pas intéressés par les théories, mais ils sont principalement guidés par des résultats pratiques et utiles.


4

AIXI est vraiment un cadre conceptuel. Tout le travail acharné de compression de l'environnement demeure.

Pour approfondir la question soulevée dans la réponse de Matthew Graves: étant donné notre niveau limité actuel de capacité à représenter des environnements complexes, il me semble que cela ne fait pas beaucoup de différence pratique que vous commenciez avec AIXI comme définissant le `` haut '' de le système et travailler vers le bas (par exemple via des méthodes de compression soi-disant généralisées) ou commencer par le `` bas '' et essayer de résoudre les problèmes dans un seul domaine via des méthodes spécifiques au domaine qui (vous l'espérez) peuvent ensuite être abstraites pour fournir une compression interdomaine.


Le deuxième paragraphe est le résultat de votre seule opinion. Vous donnez zéro argumentations / explications pourquoi vous pensez comme ça. Pour moi, "étant donné notre niveau limité actuel de capacité à représenter des environnements complexes" n'est certainement pas une explication ou une argumentation suffisante.
nbro

@nbro Pour citer un célèbre chercheur en IA: "Nous n'avons pas encore représenté un seul concept sur un ordinateur", certainement pas avec le genre de malléabilité qui vient naturellement aux humains. Ainsi, dans la pratique, il est difficile de déterminer l'utilité d'AIXI car nous n'avons pas une idée précise des types de représentations qu'il doit manipuler, ni comment il pourrait les manipuler utilement.
NietzscheanAI
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.