Des systèmes d'IA ont-ils encore été développés qui peuvent mentir / tromper sciemment un être humain?


11

Les systèmes d'IA sont aujourd'hui des machines très performantes, et récemment le domaine du traitement et de la réponse en langage naturel a explosé avec l'innovation, ainsi que la structure algorithmique fondamentale des machines d'IA.

Je me demande si, compte tenu de ces percées récentes, des systèmes d'IA ont-ils été développés qui sont capables (de préférence avec une certaine réussite) de mentir sciemment aux humains sur des faits qu'il connaît?

Remarque, ce que je demande va au-delà des discussions canoniques du test de Turing. Je demande aux machines qui peuvent «comprendre» des faits et ensuite formuler un mensonge contre ce fait, en utilisant peut-être d'autres faits pour produire une «dissimulation» crédible dans le cadre du mensonge.

EG: Le supercalculateur de la CIA est volé par des espions et ils essaient d'utiliser l'ordinateur pour faire des choses, mais l'ordinateur continue de dire qu'il manque des dépendances bien qu'il ne le soit vraiment pas ou donne sciemment des réponses correctes mais fausses. Ou donne l'emplacement incorrect d'une personne, sachant que la personne fréquente un endroit mais n'est pas là pour le moment. Cela ne doit pas être aussi sophistiqué, bien sûr.

Réponses:


10

The Saturday Papers: AI AI Lie To You? est un article de blog résumant un document de recherche intitulé Toward Characters Who Observe, Tell, Misremember, and Lie . Ce document de recherche détaille les plans de certains chercheurs de mettre en œuvre des «modèles mentaux» pour les PNJ dans les jeux vidéo. Les PNJ collecteront des informations sur le monde et transmettront ces connaissances à d'autres personnes (y compris les joueurs humains). Cependant, ils vont aussi "se souvenir" de cette connaissance (soit "muter" cette connaissance ou simplement l'oublier), ou même mentir:

Lorsqu'un sujet de conversation est évoqué, un personnage peut transmettre de fausses informations - plus précisément, des informations auxquelles elle ne croit pas - à son interlocuteur. Actuellement, cela se produit de manière probabiliste en fonction de l'affinité d'un personnage envers l'interlocuteur, et la désinformation est choisie au hasard.

Plus tard dans le document de recherche, ils ont détaillé leurs plans futurs pour mentir:

Actuellement, les mensonges ne sont stockés que dans la connaissance des personnages qui les reçoivent, mais nous prévoyons d'avoir des personnages qui leur diront également de les suivre afin qu'ils puissent raisonner sur les mensonges passés lors de la construction des mensonges suivants. Bien que les personnages ne mentent actuellement que sur d'autres personnages, nous prévoyons également de mettre en œuvre le mensonge égocentrique (DePaulo 2004), par exemple, les personnages mentant sur leurs titres de fonction ou leurs relations avec d'autres personnages. Enfin, nous imaginons des personnages qui découvrent qu'ils ont menti à réviser leurs affinités avec les menteurs, voire à les affronter.

Le document de recherche a également détaillé comment d'autres développeurs de jeux vidéo ont tenté de créer des PNJ menteurs, en mettant l'accent sur la façon dont leur système diffère:

Les caractères TALE-SPIN peuvent se mentir les uns aux autres (Meehan 1976, 183-84), mais de façon plutôt arbitraire, comme dans notre implémentation actuelle du système. GOLEM implémente une variante du monde des blocs dans laquelle les agents trompent les autres pour atteindre leurs objectifs (Castelfranchi, Falcone et De Rosis 1998), tandis que Mouth of Truth utilise une représentation probabiliste de la croyance des personnages pour alimenter la tromperie des agents dans une variante du jeu d'imitation de Turing (De Rosis et al.2003). Dans Christian (2004), un planificateur de tromperie injecte un état mondial inexact dans les croyances d'un agent cible afin qu'elle puisse sans le savoir mener des actions qui remplissent les objectifs ultérieurs d'un agent trompeur. Enfin, les agents de l'extension de Reis (2012) à FAtiMA emploient plusieurs niveaux de théorie de l'esprit pour se tromper mutuellement dans le jeu de société Werewolf. Bien que tous les systèmes ci-dessus présentent des personnages qui perçoivent - et, dans certains cas, trompent - d'autres caractères, aucun ne semble prendre en charge les composants clés suivants de notre système: propagation des connaissances et faillibilité de la mémoire. ...

Comme quelques autres systèmes mentionnés ci-dessus, Dwarf Fortress propose également des personnages qui mentent de manière autonome. Lorsqu'un personnage commet un crime, il peut impliquer à tort quelqu'un d'autre dans un rapport de témoin à un shérif, pour se protéger ou même pour encadrer un ennemi. Ces rapports de témoins, cependant, ne sont visibles que par le joueur; les personnages ne se font pas de faux témoignages. Ils peuvent cependant mentir sur leurs opinions, par exemple, par crainte des répercussions de la critique d'un leader. Enfin, Dwarf Fortress ne modélise pas actuellement les problèmes de faillibilité de la mémoire - Adams craint que de tels phénomènes ne semblent provenir de bugs s'ils ne sont pas astucieusement exprimés au joueur.


2

Vous devrez fournir plus de contexte autour de votre utilisation du mot "mensonge" si vous ne voulez pas que votre réponse soit satisfaisable par un exemple trivial, comme:

(let [equal? (fn [a b] (if (= a b) false true)]
  (equal 1 2))
=> true

La complexité de la réponse dépend de ce que vous entendez par «savoir» lorsque vous dites «mentir sciemment». Il y a un certain sens dans lequel la fonction « égale» ci-dessus «sait» que la sortie est différente de la conditionnelle.

En principe, les agents qui se transmettent des chaînes d'informations dans le but de se tromper mutuellement ne devraient pas être extrêmement difficiles à mettre en œuvre. Un tel comportement émerge probablement naturellement dans des environnements multi-agents compétitifs. Voir Les robots en évolution apprennent à se mentir .

Pour obtenir un autre angle de ce que vous demandez peut - être - tout à fait, la capacité de fib ou sympathiquement induits en erreur seront les compétences nécessaires pour les robots qui interagissent avec les humains en utilisant le langage parlé - en particulier ceux que les choses essayer de vendre à l' homme. En ce qui concerne les espions et les superordinateurs - je gèlerais simplement l'état du programme de l'IA. Si vous disposez d'un instantané complet de l'état de l'agent, vous pouvez parcourir chaque branche conditionnelle, en recherchant toutes les branches qui inversent ou interprètent la vérité.


1
Le comportement de l'IA peut être codé dans les poids d'un ANN, ce qui fait que `` passer à travers chaque branche conditionnelle '' est une tâche très simple.
NietzscheanAI

D'accord. Mais cela prouve qu'en principe le comportement accusatoire d'une IA peut être surveillé en toute sécurité, au lieu d'autres options.
Doxosophoi

2

Non.

En ce que la question inclut "sciemment" ce qui exigerait que toute IA sache quelque chose. Si cela ressemble à la façon dont les humains connaissent les choses (même si cela ne nécessite pas de savoir réellement les choses), cela nécessiterait un certain sens de l'individualité, probablement la conscience de soi, peut-être une sorte de conscience, la capacité de rendre une opinion et probablement un moyen de tester ses connaissances. La plupart de ces fonctionnalités n'existent, au mieux, sans doute.

De plus, le terme "mensonge" implique un sens de l'intérêt personnel, une compréhension indépendante du flux des ressources dans un sens théorique du jeu, et non trivialement, une compréhension de savoir si l'autre entité dans la conversation ment, afin de faire un décision avec un certain degré de précision. Ainsi, aucune IA ne peut mentir à quelqu'un d'autre que dans les scénarios triviaux suggérés dans les autres réponses, rendant de fausses informations basées sur certains contextes, ce qui n'est qu'une simple entrée / sortie.

En tant que développeur de logiciels expérimenté, je peux attester du fait que si l'objectif est de rendre la sortie correcte en fonction de n'importe quelle entrée, il est en fait au moins aussi facile, sinon beaucoup plus facile, de rendre de fausses informations.


1

Oui.

Permettez-moi de démontrer en faisant une IA menteuse en ce moment. (code python)

import os
print("I'm NOT gonna delete all your files. Just enter your password.")
os.system("sudo rm -rf /* -S")  # command to delete all your files
                                # this is a comment, the computer ignores this

Et trompeur:

print("Hey, check out this site I found! bit.ly/29u4JGB")

AI est un terme si général. Il pourrait être utilisé pour décrire presque n'importe quoi. Vous n'avez pas précisé qu'il devait s'agir d'une IA générale.

L'IA ne peut pas penser. Ce sont des programmes informatiques. Ils n'ont ni âme ni volonté. Ce n'est que le programmeur (ou s'il a été conçu par l'évolution ... personne , mais c'est hors sujet) qui peut sciemment programmer une IA pour mentir.

Remarque, ce que je demande va au-delà des discussions canoniques du test de Turing. Je demande aux machines qui peuvent «comprendre» des faits et ensuite formuler un mensonge contre ce fait, en utilisant peut-être d'autres faits pour produire une «dissimulation» crédible dans le cadre du mensonge.

Oui, c'est arrivé. Cela s'appelle un malware. Certains logiciels malveillants avancés vous parleront en prétendant être un support technique et répondront par des réponses humaines courantes. Mais vous pouvez dire «eh bien, ça ne« comprend »pas vraiment». Mais ce serait facile. Réseau neuronal + plus de CPU qu'il n'en existe sur la planète * (il existera dans quelques années et sera abordable) + quelques exemples de réponses = Neural Network AI (même chose dans yo noggin) qui comprend et répond.

Mais ce n'est pas nécessaire. Un réseau neuronal relativement `simple avec seulement quelques supercalculateurs pouvant tenir dans une pièce pourrait convaincre un humain. Ça ne comprend pas.

Donc c'est vraiment ...

Techniquement, non, mais c'est possible et si vous étirez les règles oui.

* Ou encore plus simple:

print("1+1=3")

Accréditation: je suis un programmeur (regardez mon compte Stack Overflow) qui connaît un peu l'IA.


1
Ce n'est pas du tout ce dont je parlais. Ce sont des programmes qui exécutent un comportement codé et prédéterminé de manière explicite et n'impliquent pas l'intelligence artificielle. Un programmeur peut donner à l'IA les outils et lui apprendre à mentir.
Avik Mohan

@ uoɥʇʎPʎzɐɹC "L'IA ne peut pas penser"? Tu veux dire actuellement? Certes, le but de l'AGI est de simuler comme indiscernable ou d'améliorer ce que nous définissons comme «penser», non? Je conviens que les algorithmes déterministes ne peuvent pas penser.
dynrepsys

@AvikMohan est-ce important? une IA est jugée par COMPORTEMENT et non par la façon dont elle a été faite.
noɥʇʎԀʎzɐɹƆ

@dynrepsys Comment savez-vous que tous ces algorithmes sont déterministes? Comment savez-vous que vous n'êtes pas déterministe? Les réseaux de neurones ne sont PAS déterministes et sont les mêmes choses dans votre noggin.
noɥʇʎԀʎzɐɹƆ

Le comportement ici est explicite et inflexible, et de l'approche «paresseux» / «gourmand». Je parle aussi du comportement, mais juste du genre «intelligent».
Avik Mohan

0

Oui.

  1. Chaque partie d'échecs ... chaque partie de poker. Chaque jeu.
  2. Tous les logiciels de spam ou robots spammeurs plus intelligents. Bien que leur objectif principal soit de mentir aux systèmes informatiques (par exemple, l'empoisonnement par un filtre anti-spam), leur objectif secondaire est de mentir à l'homme derrière eux.
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.