Comment mesurer l'égalisation d'un programme d'IA?


9

Un programme d'IA peut-il avoir un égaliseur (intelligence émotionnelle ou quotient émotionnel)?

En d'autres termes, peut-on mesurer l'égalisation d'un programme d'IA?

Si l'égalisation est plus problématique à mesurer que le QI (au moins avec un applicaple standard pour les programmes humains et IA), pourquoi est-ce le cas?


Quels «tests d'égalisation» connaissez-vous pour les humains? Quel serait l'obstacle à leur application à une IA?
NietzscheanAI

Réponses:


6

La réponse à votre question est "En principe, oui" - dans sa forme la plus générale, les tests d'égalisation ne sont qu'un cas spécifique du test de Turing ("Comment vous sentiriez-vous à propos de ...?").

Pour voir pourquoi des tests d'égalisation significatifs peuvent être difficiles à réaliser, envisagez les deux tests possibles suivants:

À un extrême de la complexité, le film 'Blade Runner' montre un test pour distinguer l'homme et l'androïde sur la base des réponses à des questions chargées d'émotion.

Si vous avez essayé de poser ces questions (ou même beaucoup plus simples) à un chatbot moderne, vous concluriez probablement rapidement que vous ne parliez pas à une personne.

Le problème de l'évaluation de l'égalisation est que plus le test est sophistiqué émotionnellement, plus le système d'IA doit être général, afin de transformer l'entrée en une représentation significative.

À l'autre extrême de ce qui précède, supposons qu'un test d'égalisation a été formulé d'une manière extrêmement structurée, avec l'entrée structurée fournie par un humain. Dans un tel cas, le succès d'un «test d'égalisation» n'est pas vraiment ancré dans le monde réel.

Dans un essai intitulé "L'effet Eliza indéracinable et ses dangers", Douglas Hofstadter donne l'exemple suivant, dans lequel le programme ACME est revendiqué (et non par Hofstadter) pour "comprendre" l'analogie.

Ici, l'ordinateur apprend qu'un gars du nom de Sluggo emmène sa femme Jane et son bon ami Buck dans un bar, où les choses suivent leur cours naturel et Jane se retrouve enceinte de Buck. Elle a le bébé mais n'en veut pas, et ainsi, aidée par son mari, elle noie le bébé dans une rivière, «résolvant ainsi proprement» le problème »de Bambi.

Cette histoire est présentée à ACME sous la forme suivante:

ql: (neglectful-husband (Sluggo))
q2: (lonely-and-sex-starved-wife (Jane-Doe))
q3: (macho-ladykiller (Buck-Stag))
q4: (poor-innocent-little-fetus (Bambi))
q5: (takes-out-to-local-bar (Sluggo Jane-Doe Buck-Stag))
...
q11: (neatly-solves-the-problem-of (Jane-Doe Bambi))
q12: (cause (ql0 q11))

Supposons que l'on demande au programme si le comportement de Jane Doe est moral. Les concepts émotionnels complexes composés tels que «négligent», «solitaire» et «innocent» ne sont ici que des prédicats, non disponibles à l'IA pour un examen introspectif plus approfondi. Ils pourraient tout aussi bien être remplacés par des étiquettes telles que «bling-blang-blong15657».

Donc, dans un sens, l'absence de succès à un test d'égalisation avec une profondeur quelconque est révélatrice du problème général auquel l'IA est actuellement confrontée: l'incapacité de définir (ou autrement apprendre) des représentations significatives des complexités subtiles du monde humain, ce qui est beaucoup plus plus complexe que de pouvoir reconnaître des vidéos de chats.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.