Selon Wikipedia ...
L'effet de l'IA se produit lorsque les spectateurs ignorent le comportement d'un programme d'intelligence artificielle en arguant qu'il ne s'agit pas d'une véritable intelligence.
Pamela McCorduck écrit: "Cela fait partie de l'histoire du domaine de l'intelligence artificielle que chaque fois que quelqu'un trouve comment faire faire quelque chose à un ordinateur - jouer à de bons contrôleurs, résoudre des problèmes simples mais relativement informels - il y avait un chœur de critiques pour dire, ' cela ne fait pas penser '. "[1] Le chercheur en IA Rodney Brooks se plaint" Chaque fois que nous en trouvons un morceau, il cesse d'être magique; nous disons,' Oh, c'est juste un calcul. "" [2]
La page Wikipédia propose ensuite plusieurs raisons différentes qui pourraient expliquer pourquoi les spectateurs pourraient "réduire" les programmes d'IA. Cependant, ces raisons semblent impliquer que les humains font une erreur en "écartant" le comportement des programmes d'IA ... et que ces programmes d'IA pourraient en fait être intelligents. Je veux faire un argument alternatif, où les humains font une erreur, mais pas en "écartant" le comportement des programmes d'IA.
Considérez la situation suivante. Je veux construire une machine capable de faire X (où X est un trait, comme l'intelligence). Je suis capable d'évaluer intuitivement si une machine a ce critère X. Mais je n'ai pas une bonne définition de ce que X fait est . Tout ce que je peux faire, c'est identifier si quelque chose a X ou non.
Cependant, je pense que les gens qui ont X peuvent faire Y. Donc, si je construis une machine qui peut faire Y, alors sûrement, j'ai construit une machine qui a X.
Après avoir construit la machine qui peut faire Y, je l'examine pour voir si ma machine a X. Et ce n'est pas le cas. Donc ma machine n'a pas X. Et bien qu'une machine qui puisse faire Y soit cool, ce que je veux vraiment, c'est une machine qui a X. Je reviens à la planche à dessin et je pense à une nouvelle idée pour atteindre X.
Après avoir écrit sur le tableau blanc pendant quelques heures, je me rends compte que les gens qui ont X peuvent faire Z. Bien sûr! J'essaie de construire une nouvelle machine qui peut faire Z, oui, si elle peut faire Z, alors elle doit avoir X.
Après avoir construit la machine qui peut faire Z, je vérifie si elle a X. Ce n'est pas le cas. Et donc je reviens à la planche à dessin, et le cycle se répète et se répète ...
Essentiellement, les humains tentent de déterminer si une entité a de l'intelligence via des mesures proxy, mais ces mesures proxy sont potentiellement défectueuses (car il est possible de répondre à ces mesures proxy sans jamais avoir réellement d'intelligence). Tant que nous ne saurons pas définir l'intelligence et concevoir un test capable de le mesurer avec précision, il est très peu probable que nous construisions une machine dotée de l'intelligence. L'effet de l'IA se produit donc parce que les humains ne savent pas comment définir "l'intelligence", pas parce que les gens rejettent les programmes comme n'étant pas "intelligents".
Cet argument est-il valide ou correct? et si non, pourquoi pas?