Quel type d'environnement simulé est suffisamment complexe pour développer une IA générale?


11

Imaginez-vous essayer de créer un environnement virtuel simulé qui est suffisamment compliqué pour créer une "IA générale" (que je définis comme une IA consciente de soi) mais qui est aussi simple que possible. À quoi ressemblerait cet environnement minimal?

c'est-à-dire qu'un environnement qui n'était qu'un jeu d'échecs serait trop simple. Un programme d'échecs ne peut pas être une IA générale.

Un environnement avec plusieurs agents jouant aux échecs et se communiquant leurs résultats. Est-ce que cela constituerait une IA générale? (Si vous pouvez dire qu'un grand maître d'échecs qui pense aux échecs toute la journée a une `` IA générale ''? Pendant son temps à penser aux échecs, est-il différent d'un ordinateur d'échecs?).

Qu'en est-il d'un monde simulé en 3D? Cela semble trop compliqué. Après tout, pourquoi une IA générale ne peut-elle pas exister dans un monde 2D.

Quel serait un exemple d'un environnement simple mais pas trop simple pour que la ou les IA puissent avoir conscience de soi?


J'ai modifié ma réponse pour mieux répondre à l'éventail de questions que vous posez.
DukeZhou

Je suppose que la question de la négation crée un environnement, à moins que Dieu n'existe finalement sans environnement ou créateurs successifs de la même manière.
Bobs

"AI consciente de soi" n'est pas plus descriptive que "AI générale". Que signifie «conscient de soi»?
Dunk

Réponses:


5

Je pense que c'est l'une des meilleures questions liées à AGI que j'ai vues dans ce forum.

Je vais sauter toute thématique sur "qu'est-ce qu'un AGI", "jeu de simulation", ... Ces sujets ont été débattus pendant des décennies et aujourd'hui ils sont, à mon avis, une impasse.

Ainsi, je ne peux que répondre avec mon expérience personnelle:

C'est un théorème de base en informatique que n'importe quel nombre de dimensions, y compris temporelles, dans un espace de taille finie, peut être réduit à 1D.

Cependant, dans des exemples pratiques, la représentation 1D devient difficile à analyser et à visualiser. C'est un travail plus pratique avec des graphes, qui peut être vu comme un intermédiaire entre 1D et 2D. Les graphiques permettent de représenter tous les faits et relations nécessaires.

Par exemple, si nous essayons de développer un AGI capable de travailler dans le domaine des mathématiques, toute expression (que les humains nous écrivons dans une représentation 2D avec des rationnels, des indices, des intégrales, ...) peut être représentée comme 1D (comme une expression écrit dans une source de programme) mais ce 1D doit être analysé pour atteindre le graphique qui peut être analysé ou exécuté. Ainsi, le graphique qui résulte après l'analyse de l'expression est la représentation la plus pratique.

Un autre exemple, si nous voulons un agent qui voyage à travers un monde 3D, ce monde peut être vu comme un espace vide avec des objets qui ont des propriétés. Encore une fois, après la phase initiale d'analyse de scène et de reconnaissance d'objet (l'équivalent de l'analyseur dans l'exemple précédent), nous arrivons à un graphique.

Ainsi, pour vraiment travailler dans le domaine de l'AGI, je suggère d'ignorer les problèmes d'analyse de scène, de reconnaissance d'objet, de reconnaissance vocale (IA étroite) et de travailler directement sur les graphiques représentatifs.


1
Il est intéressant que vous parliez de graphiques. Parce que mon instinct me disait qu'une sorte d'entité qui navigue dans les nœuds d'un graphique pourrait être suffisamment complexe. Mais je crains qu'un graphique fini avec des choses finies ne soit assez limité. Mais d'une autre manière, nos propres vies sont plutôt limitées quand on y pense: manger; travailler; dormir; répéter. Cependant, si les entités devaient rivaliser (ou collaborer) avec d'autres entités, un comportement peut-être plus complexe se produirait si elles essayaient de se deviner.
Zooby

3

Je pense que la chose la plus importante est que le temps doit être simulé d'une manière ou d'une autre. Pensez au chatbot conscient de vous-même. Ensuite, pour être "conscient de soi", l'environnement pourrait être des données qui sont introduites dans le temps et qui peuvent être distinguées comme étant "soi" et "autre". Par cela, je suppose que je veux dire "soi" est la partie qu'il influence directement et "autre" est la partie qui est influencée indirectement ou pas du tout. En dehors de cela, il peut probablement vivre dans des environnements assez abstraits. La raison pour laquelle le temps est si important est que sans lui, l'algorithme cognitif ne fait que résoudre un problème mathématique.


1
En théorie informatique, le temps est réduit à une séquence d'événements. Ainsi, un événement 1D (c'est-à-dire une chaîne) qui évolue dans le temps peut être considéré comme un événement 2D (tableau de chaînes) ou une séquence 1D (séquence de chaînes).
pasaba por aqui

1
Je ne suis pas d'accord avec l'idée que le temps dans le monde réel (ou sans doute pour un temps artificiel suffisamment intéressant) peut être adéquatement rejeté comme "juste une autre dimension". Il faut au moins une dimension temporelle pour prendre en charge toute représentation d'entropie ou de changement. Et je dirais que toute représentation adéquate des systèmes dynamiques nécessite une distinction adéquate entre une dimension temporelle et la position. Même votre suggestion de représentation donne à l'ordre de la séquence un endroit spécial.
42-

1
@ 42- Il se trouve que, dans mes efforts pour définir formellement la structure topologique du Sudoku et des carrés latins en tant que fonctions matricielles probabilistes en utilisant la théorie des ensembles, j'aurais heurté un mur jusqu'à ce que je commence à regarder Hamiltonian Evolution et à réaliser t (temps, ou, "tours" dans la nouvelle conception théorique du jeu des tableaux orthogonaux) était l'élément manquant!
DukeZhou

Pensons maintenant aux systèmes dynamiques dans la relativité générale. Peut-être avez-vous besoin d'une métrique de «gravité» pour calculer un potentiel de valeur locale? Certaines configurations seraient-elles des "trous noirs"
42-

2

L'IA générale peut absolument exister dans un monde 2D, juste qu'une IA généralisée (définie ici comme «une force cohérente à travers un ensemble de problèmes») dans ce contexte serait encore tout à fait distincte d'une intelligence générale artificielle , définie comme «un algorithme qui peut effectuer toute tâche intellectuelle qu'un être humain peut ".

Même là, la définition de l'AGI est floue, car "quel humain?" (L'intelligence humaine est un spectre, où les individus possèdent différents degrés de capacité de résolution de problèmes dans différents contextes.)


Conscience artificielle : Malheureusement, la conscience de soi / conscience est un problème fortement métaphysique, distinct de la capacité de résolution de problèmes (intelligence).

Vous voulez certainement regarder la " salle chinoise " et les réfutations.


Il vaut probablement la peine d'examiner le principe holographique : "un concept en physique selon lequel un espace est considéré comme un hologramme de n-1 dimensions." Certes, les modèles et les jeux peuvent être structurés de cette manière.

Un autre endroit à explorer est les théories de l'émergence de la superintelligence sur l'infini Game of Life de Conway . (En un mot, ma compréhension est qu'une fois que les chercheurs ont trouvé comment générer un nombre quelconque dans les automates cellulaires, la possibilité d'une sensibilité émergente avec un plateau de jeu de taille suffisante est au moins théoriquement valable.)


2

Jusqu'à présent, parmi les réponses, celle de @DukeZhou a été la plus provocatrice. Par exemple, la référence à la critique de la salle chinoise fait apparaître la thèse de Searle selon laquelle une certaine forme d'intentionnalité pourrait avoir besoin de soutien dans l'environnement artificiel. Cela pourrait impliquer la nécessité d'un système de valeurs ou d'un système douleur-plaisir, c'est-à-dire quelque chose où de bonnes conséquences peuvent être «ressenties» ou activement recherchées et de mauvaises conséquences évitées. Ou un certain potentiel d'extinction individuelle (décès ou résiliation) pourrait devoir être reconnu. La possibilité de la "mort de l'ego"peut avoir besoin d'avoir une valeur négative élevée. Cela pourrait impliquer qu'un monde artificiel devrait inclure «d'autres esprits» ou d'autres agents, que l'agent intelligent émergent ou apprenant pourrait observer (dans un certain sens) et «réfléchir», c'est-à-dire reconnaître une intelligence comme la sienne. En ce sens, le syllogisme cartésien "je pense donc je suis" se transmute en: je (ou plutôt moi en tant qu'IA) vois des preuves de la pensée des autres, et "par stupide," je "peux aussi". Ces «autres» pourraient être soit d'autres systèmes d'apprentissage (AGI), soit un certain contact avec des intrants discrets humains médiés par l'environnement artificiel. Discussion sur Wikipédia du "test de Turing inversé"

La mention de la dimensionnalité devrait provoquer une discussion sur ce que serait la profondeur de représentation requise d'une "physique" du monde externe à l'IA. Une certaine représentation du temps et de l'espace semble nécessaire, c'est-à-dire une sous-structure dimensionnelle pour progresser vers l'atteinte des objectifs. Le monde des blocs était l'un des premiers problèmes de jouets dont la solution a suscité l'optimisme dans les années 60 et 70 du siècle dernier, selon lequel des progrès substantiels étaient en cours. Je ne suis au courant d'aucun effort pour programmer une douleur ou un plaisir dans le programme SHRDLU de cette époque (pas de blocages sur les orteils du programme), mais toutes les représentations intéressantes de science-fiction des IA ont une certaine reconnaissance des conséquences néfastes "physiques" dans le monde réel".

Edit: je vais ajouter un besoin d '"entités avec des fonctionnalités" dans cet environnement qui pourraient être "perçues" (par l'un des "autres" qui interagissent avec l'AGI) comme entrée de données aux efforts d'induction, d'identification et l'inférence sur les relations. Cela crée une base pour une «expérience» partagée.


Bienvenue sur AI et merci pour votre contribution! (Le lien "ego-death" est rompu, mais je ne savais pas si vous aviez l'intention de créer un lien vers la question ou la réponse spécifique, donc retardez la correction en attendant une clarification.) Excellent links, btw! Puis-je vous demander si votre surnom fait référence à la réponse proposée à la question "Combien de routes un homme doit-il emprunter?" :)
DukeZhou

Pas vraiment. Sur Internet, personne ne sait si vous êtes une IA générale.
42-

2

Bien qu'une bonne réponse de @pasaba por aqui, je suis d'accord avec @zooby qu'un graphique pourrait être trop simpliste. Si les humains étaient dans un environnement où les options se noyaient ou prenaient 5000 mesures indépendantes pour construire un bateau, nous n'aurions jamais traversé de mers. Je pense que tout graphique, s'il est conçu à la main, ne serait pas assez complexe pour appeler l'agent interne en tant qu'IA générale. Le monde aurait besoin de suffisamment d'états intermédiaires pour qu'il ne soit plus décrit comme un graphique, mais au moins comme un espace multidimensionnel.

Je pense qu'il y a 2 points à considérer. Qu'est-ce qui est "simple" et quand le reconnaîtriez-vous comme une "IA générale"? Je ne trouve pas l'IA consciente de soi satisfaisante, car nous ne pouvons pas mesurer ce que l'on appelle la conscience; on ne voit que son état et son interaction avec l'environnement.

Pour 1. Je dirais que le monde dans lequel nous vivons est en fait assez simple. Il y a 4 forces de la nature, quelques lois de conservation et un tas de types de particules qui expliquent la plupart de tout. C'est juste qu'il y a beaucoup de ces particules et cela a conduit à un monde assez complexe. Bien sûr, cela coûte cher à simuler, mais nous pourrions prendre quelques raccourcis. Il y a 200 ans, les gens n'auraient pas besoin de toute la mécanique quantique pour expliquer le monde. Si nous remplacions les protons, les neutrons et la force forte par les atomes dans le tableau périodique, nous serions surtout bien. Le problème est que nous avons remplacé 3 lois plus générales par 100 instances spécifiques. Pour que l'environnement simulé soit suffisamment complexe, je pense que cette tendance doit se maintenir.

Ce qui m'amène à 2. Je pense que nous ne serions vraiment satisfaits que si l'agent exprime l'IA générale que lorsqu'il peut délibérément interagir avec l'environnement d'une manière qui nous dérouterait, tout en en bénéficiant clairement (donc pas accidentellement). Maintenant, cela pourrait être assez difficile ou prendre beaucoup de temps, donc une condition plus détendue serait de construire des outils que nous nous attendions à ce qu'il construise, montrant ainsi la maîtrise de son propre environnement. Par exemple, des preuves de bateaux ont été trouvées il y a entre 100 000 et 900 000 ans, ce qui correspond à peu près à la même échelle de temps lorsque les premiers humains se sont développés.. Cependant, bien que nous nous considérions comme intelligents, je ne suis pas sûr que nous considérions un agent de fabrication de bateaux comme ayant une intelligence générale, car cela semble être une invention assez simple. Mais je pense que nous serions satisfaits après quelques inventions de ce genre.

Je pense donc que nous aurions besoin d'un monde semblable à un Sim, c'est en fait beaucoup plus compliqué que le jeu. Avec des milliers de types d'éléments, de nombreuses instances de chaque élément et suffisamment de degrés de liberté pour interagir avec tout. Je pense aussi que nous avons besoin de quelque chose qui semble familier pour reconnaître tout agent comme intelligent. Ainsi, un monde en 3D, compliqué, semblable à un minecraft serait le monde le plus simple dans lequel nous reconnaîtrions l'émergence de l'intelligence générale.


0

L '«intelligence générale artificielle» est quelque chose de différent d'un agent qui agit intelligemment dans un environnement. Parce que, selon la littérature, ces agents sont appelés «IA étroite». Un système AGI est l'environnement. Cela signifie que le dernier défi Micromouse est un système AGI qui a pour objectif de développer des systèmes AI étroits.

Développer une AGI équivaut à développer une compétition de robotique. Il est formalisé dans un livre de règles et agit comme un environnement pour apprendre, programmer des logiciels et discuter des résultats. Dans tous les cas, un système AGI est une compétition sociale, ce qui signifie qu'il est attrayant pour les équipes de participer à la compétition. AGI ne répond pas comment réaliser l'intelligence, c'est un test pour la mesurer. Les soi-disant cerveaux humains, l'architecture cognitive et les résolveurs de problèmes généraux n'ont pas été développés comme une IA étroite pour agir intelligemment, ils ont été développés comme un test de turing pour une machine qui est intelligente.

Comment mesurer avec un programme informatique si un autre programme informatique est intelligent? Une possibilité est la théorie de la simulation humaine. Cela signifie que nous testons si le programme informatique se comporte comme un humain, et le test de Turing a l'obligation de tester la mémoire à court terme, la mémoire à long terme et la capacité d'apprendre de nouvelles choses. Dans sa forme la plus simple, le test de turing peut être fait avec un formulaire simple qui doit être rempli par un humain, mais il est également possible de sortir l'humain de la boucle et d'utiliser un ordinateur pour tester l'intelligence d'un autre ordinateur . C'est le but, SOAR, OpenCog et AIXI a été développé.


Il est difficile d'établir la relation entre cette réponse et la question d'origine.
pasaba por aqui
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.