Dois-je utiliser un langage anthropomorphe pour discuter de l'IA?


9

La langue anglaise n'est pas bien adaptée pour parler d'intelligence artificielle, ce qui rend difficile pour les humains de communiquer entre eux ce que fait réellement une IA. Ainsi, il peut être plus judicieux d'utiliser des termes "de type humain" pour décrire les actions des machines, même lorsque les propriétés internes des machines ne ressemblent pas aux propriétés internes de l'humanité.

Le langage anthropomorphe avait été beaucoup utilisé dans la technologie (voir la définition de l' anthropomorphisation par le Hacker's Dictionary , qui tente de justifier l'utilisation par les programmeurs informatiques de termes anthromporhic pour décrire la technologie), mais comme l'IA continue de progresser, il peut être utile de considérer les compromis de utiliser un langage anthropomorphe pour communiquer à la fois avec des publics techniques et des publics non techniques. Comment pouvons-nous maîtriser l'IA si nous ne pouvons même pas décrire ce que nous faisons?

Supposons que je veuille développer un algorithme qui affiche une liste d'articles connexes. Il y a deux façons par lesquelles je peux expliquer le fonctionnement de l'algorithme à un profane:

  1. Très anthropomorphe - L'algorithme lit tous les articles d'un site Web et affiche les articles très similaires à l'article que vous consultez.
  2. Très technique - L'algorithme convertit chaque article en un "sac de mots", puis compare le "sac de mots" de chaque article pour déterminer quels articles partagent les mots les plus courants. Les articles qui partagent le plus de mots dans les sacs sont ceux qui sont affichés à l'utilisateur.

De toute évidence, # 2 peut être plus "techniquement correct" que # 1. En détaillant l'implémentation de l'algorithme, il est plus facile pour quelqu'un de comprendre comment corriger l'algorithme s'il produit une sortie avec laquelle nous sommes fortement en désaccord.

Mais le n ° 1 est plus lisible, élégant et plus facile à comprendre. Il donne une idée générale de ce que fait l'algorithme, au lieu de la façon dont l'algorithme le fait. En résumant les détails de mise en œuvre de la façon dont un ordinateur «lit» l'article, nous pouvons ensuite nous concentrer sur l'utilisation de l'algorithme dans des scénarios du monde réel.

Dois-je donc préférer utiliser le langage anthropomorphe comme le souligne l'énoncé # 1? Sinon, pourquoi pas?

PS: Si la réponse dépend du public auquel je m'adresse (un public non technique peut préférer le n ° 1, tandis qu'un public technique peut préférer le n ° 2), alors faites-le-moi savoir également.

Réponses:


7

Si la clarté est votre objectif, vous devriez essayer d'éviter le langage anthropomorphe - cela risquerait même de vous induire en erreur sur les capacités du programme.

Il s'agit d'un piège pernicieux dans la recherche sur l'IA, avec de nombreux cas où même des chercheurs expérimentés ont attribué un degré de compréhension plus élevé à un programme que ce qui est réellement mérité.

Douglas Hofstadter décrit le problème en détail dans un chapitre intitulé "L'effet ineradicable d'Eliza et ses dangers" et il existe également un célèbre article de Drew McDermot, intitulé "L'intelligence artificielle rencontre la stupidité naturelle" .

Par conséquent, en général, il faut faire un effort particulier pour éviter l'anthropomorphisme dans l'IA. Cependant, lorsque vous vous adressez à un public non technique, les descriptions «d'extraits sonores» sont (comme dans toute discipline complexe) acceptables à condition que vous informiez le public qu'il obtient la version simplifiée .


3

Le problème auquel vous faites référence n'est pas seulement un problème d'IA, mais un problème pour les domaines hautement techniques en général. En cas de doute, je recommanderais toujours d'utiliser un langage simple .

Cependant, il existe une autre raison pour laquelle la communauté de l'IA évite souvent les connotations anthropomorphiques de l'IA. Certains sommités de l'IA aiment souvent nous avertir qu'une intelligence générale artificielle peut se comporter de manière étrangère qui défie nos attentes humaines, conduisant potentiellement à une apocalypse de robot.

Cette idée sur les AGI malignes de type extraterrestre, cependant, découle d'un malentendu généralisé dans la communauté de l'IA qui confond deux notions différentes de généralité:

  • Généralité de la machine de Turing, et
  • généralité du domaine humain

Ce que les gens ordinaires veulent dire quand ils disent la généralité est le dernier. Même la définition officielle de l'AGI découle de ce contexte contingent humain:

... effectuer n'importe quelle tâche intellectuelle qu'un être humain peut.

Mais selon cette définition, généraliser le comportement ne le rend pas plus étranger. Généraliser, c'est anthropomorphiser. Comme l'a dit Nietzche,

"Où vous voyez des choses idéales, je vois - des humains, hélas! Toutes des choses trop humaines."


1

Je pense que la bonne réponse est simple mais inutile: "Cela dépend".

Même lorsque je parle à d'autres personnes techniques, j'utilise souvent un langage et des métaphores anthropomorphes. Surtout au début de la conversation. "L'ordinateur doit comprendre .." "Comment pouvons-nous empêcher l'ordinateur de se tromper ..." etc. Bien sûr, nous pourrions le dire d'une manière plus correcte sur le plan technique. "Nous devons modifier l'algorithme pour réduire le nombre et la variété des cas de données inadéquates qui entraînent un réglage inexact de ..." ou certains autres. Mais parmi les techniciens, nous savons ce que nous voulons dire, et il est tout simplement plus facile d'utiliser un langage métaphorique.

Lorsque je tente de résoudre des problèmes informatiques techniques, je commence souvent par un concept anthropomorphe vague. "Nous devons dresser une liste de tous les mots du texte et attribuer un poids à chaque mot en fonction de sa fréquence. Oh, mais nous devons ignorer les mots courts et courants comme" le "et" le ". nombre de mots, peut-être une dizaine, qui ont le plus de poids ... "Tout cela est loin de la façon dont l'ordinateur manipule réellement les données. Mais il est souvent beaucoup plus facile d’y penser en termes «humains» d’abord, puis de trouver comment faire en sorte que l’ordinateur le fasse.

Lorsque je parle à un public non technique, je pense que le problème est que le langage anthropomorphe le rend plus facile à comprendre, mais donne également souvent l'impression que l'ordinateur est beaucoup plus humain qu'il ne l'est vraiment. Il suffit de regarder des films de science-fiction pour voir qu'apparemment beaucoup de gens pensent qu'un ordinateur ou un robot pense comme une personne, sauf qu'il est très précis et n'a aucune émotion.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.