IA puissantes
Pour une IA forte, la réponse courte est d'appeler à l'aide, alors qu'ils ne savent même pas ce que pourrait être l'aide supposée.
Cela dépend de ce que l'IA ferait. S'il est censé résoudre une tâche simple et parfaitement et professionnellement, des émotions sûres ne seraient pas très utiles. Mais s'il est censé apprendre de nouvelles choses au hasard, il y aurait un point qu'il rencontre quelque chose qu'il ne peut pas gérer.
Dans Lee Sedol vs AlphaGo match 4, un pro qui a dit que l'ordinateur n'avait pas d'émotions auparavant, a commenté qu'AlphaGo avait peut-être aussi des émotions, et plus fort que l'homme. Dans ce cas, nous savons que le comportement fou d'AlphaGo n'est pas causé par certaines choses délibérément ajoutées appelées «émotions», mais par une faille dans l'algorithme. Mais il se comporte exactement comme il a paniqué.
Si cela arrive souvent pour une IA. Il pourrait y avoir des avantages s'il pouvait le savoir lui-même et réfléchir à deux fois si cela se produit. Si AlphaGo pouvait détecter le problème et changer sa stratégie, il pourrait jouer mieux ou pire. Il n'est pas improbable de jouer pire s'il ne faisait aucun calcul pour d'autres approches. Au cas où cela jouerait pire, nous pourrions dire qu'il souffre d'avoir des «émotions», et cela pourrait être la raison pour laquelle certaines personnes pensent que les émotions peuvent être un défaut des êtres humains. Mais ce ne serait pas la véritable cause du problème. La vraie cause est qu'il ne connaît pas d'approches pour garantir la victoire, et le changement de stratégie n'est qu'un essai pour résoudre le problème. Les commentateurs pensent qu'il existe de meilleures façons (qui ne garantissent pas non plus la victoire mais ont plus de chance), mais son algorithme n'est pas '' t capable de découvrir dans cette situation. Même pour l'homme, la solution à tout ce qui touche à l'émotion est peu susceptible de supprimer les émotions, mais une certaine formation pour s'assurer que vous comprenez suffisamment la situation pour agir calmement.
Ensuite, quelqu'un doit se demander s'il s'agit d'une sorte d'émotion ou non. Nous ne disons généralement pas que les petits insectes ont des émotions semblables à celles des humains, car nous ne les comprenons pas et ne voulons pas les aider. Mais il est facile de savoir que certains d'entre eux pourraient paniquer dans des situations désespérées, tout comme AlphaGo l'a fait. Je dirais que ces réactions sont basées sur la même logique, et elles sont au moins la raison pour laquelle des émotions de type humain pourraient être potentiellement utiles. Ils ne sont tout simplement pas exprimés de manière compréhensible par l'homme, car ils n'avaient pas l'intention d'appeler un humain à l'aide.
S'ils essaient de comprendre leur propre comportement, ou appellent quelqu'un d'autre pour obtenir de l'aide, il pourrait être bon d'être exactement humain. Certains animaux peuvent ressentir les émotions humaines et exprimer des émotions compréhensibles par l'homme dans une certaine mesure. Le but est d'interagir avec les humains. Ils ont évolué pour avoir cette capacité parce qu'ils en avaient besoin à un moment donné. Il est probable qu'une IA pleinement puissante en aurait également besoin. Notez également que le contraire d'avoir des émotions pleines peut devenir fou.
Cependant, c'est probablement un moyen rapide de perdre toute confiance si quelqu'un met en œuvre des émotions imitant les humains avec peu de compréhension dès les premières générations.
IA faibles
Mais y a-t-il un but pour eux d'avoir des émotions avant que quelqu'un veuille une IA forte? Je dirais non, il n'y a aucune raison inhérente pour qu'ils aient des émotions. Mais inévitablement, quelqu'un voudra de toute façon mettre en œuvre des émotions imitées. Que "nous" en ayons besoin pour avoir des émotions est un non-sens.
Le fait est même que certains programmes sans intelligence contenaient des éléments "émotionnels" dans leurs interfaces utilisateur. Ils peuvent sembler non professionnels, mais toutes les tâches ne nécessitent pas de professionnalisme, elles peuvent donc être parfaitement acceptées. Ils sont comme les émotions des musiques et des arts. Quelqu'un concevra également son IA faible de cette manière. Mais ce ne sont pas vraiment les émotions des IA, mais celles de leurs créateurs. Si vous vous sentez mieux ou pire à cause de leurs émotions, vous ne traiterez pas les IA individuellement si différemment, mais ce modèle ou cette marque dans son ensemble.
Sinon, quelqu'un pourrait planter des personnalités comme dans un jeu de rôle là-bas. Encore une fois, il n'y a aucune raison pour laquelle ils doivent avoir cela, mais inévitablement quelqu'un le fera, car ils avaient évidemment un certain marché quand un jeu de rôle le fait.
Dans les deux cas, les émotions ne proviennent pas vraiment de l'IA elle-même. Et ce serait facile à mettre en œuvre, car un humain ne s'attend pas à ce qu'ils soient exactement comme un humain, mais essaie de comprendre ce qu'ils voulaient dire. Il pourrait être beaucoup plus facile d'accepter ces émotions en réalisant cela.
Aspects des émotions
Désolé de publier des recherches originales ici. J'ai fait une liste d'émotions en 2012 et à partir de laquelle je vois 4 aspects des émotions. S'ils sont tous mis en œuvre, je dirais que ce sont exactement les mêmes émotions que celles des humains. Ils ne semblent pas réels si seulement certains d'entre eux sont mis en œuvre, mais cela ne signifie pas qu'ils ont complètement tort.
- La raison ou le problème logique d'origine que l'IA ne peut pas résoudre. AlphaGo avait déjà la raison, mais rien d'autre. Si je dois faire une définition précise, je dirais que c'est l'état de plusieurs heuristiques tout aussi importantes en désaccord les unes avec les autres.
- Le contexte, ou quelle partie de l'approche actuelle est considérée comme ne fonctionnant pas bien et devrait probablement être remplacé. Cela distingue la tristesse, la préoccupation et la passion.
- L'état actuel, ou s'il se sent leader, ou si sa croyance ou le fait est censé devenir mauvais en premier (ou était mauvais tout le temps) si les choses tournent mal. Cela distingue la tristesse, l'amour et la fierté.
- Le plan ou la demande. Je suppose que certains animaux domestiques l'ont déjà fait. Et je suppose que ceux-ci avaient des modèles fixes qui ne sont pas trop difficiles à avoir. Même les arts peuvent les contenir facilement. Contrairement aux raisons, celles-ci ne sont probablement pas inhérentes à aucun algorithme, et plusieurs d'entre eux peuvent apparaître ensemble.
- Qui aurait la responsabilité si rien n'est changé par l'émotion. Cela distingue la curiosité, la rage et la tristesse.
- Quel est le plan supposé si rien n'est changé par l'émotion. Cela distingue la déception, la tristesse et la surprise.
- La source. Sans contexte, même un être humain ne peut pas dire de manière fiable que quelqu'un pleure d'être ému ou reconnaissant, ou de sourire pour une sorte d'embarras. Dans la plupart des autres cas, il n'y a même pas de mots les décrivant. Cela ne fait pas beaucoup de différence si une IA ne le distingue pas ou ne le montre pas spécialement. Il est probable qu'ils les apprendraient automatiquement (et de manière inexacte en tant qu'humain) au moment où ils pourraient apprendre à comprendre les langues humaines.
- Les mesures, telles que l'urgence ou l'importance du problème, ou même la probabilité que les émotions soient vraies. Je dirais que cela ne peut pas être implémenté dans l'IA. Les humains n'ont pas besoin de les respecter même s'ils sont exactement comme les humains. Mais les humains apprendront à comprendre une IA si cela compte vraiment, même s'ils ne sont pas du tout comme des humains. En fait, je pense que certaines des émotions extrêmement faibles (comme penser quelque chose est trop stupide et ennuyeux que vous ne savez pas commenter) existent presque exclusivement dans les émoticônes, où quelqu'un a l'intention de vous montrer exactement cette émotion, et à peine perceptible dans la vie réelle ou dans des scènes complexes. Je suppose que cela pourrait également être le cas au début pour les IA. Dans le pire des cas, ils sont tout d'abord conventionnellement appelés «émotions», car les émoticônes fonctionnent dans ces cas, donc c'est '
Ainsi, lorsque des IA solides deviennent possibles, aucune d'entre elles ne sera inaccessible, bien qu'il puisse y avoir beaucoup de travail pour établir les connexions. Je dirais donc que s'il y avait un besoin d'intelligence artificielle forte, ils auraient absolument des émotions.