The Saturday Papers: AI AI Lie To You? est un article de blog résumant un document de recherche intitulé Toward Characters Who Observe, Tell, Misremember, and Lie . Ce document de recherche détaille les plans de certains chercheurs de mettre en œuvre des «modèles mentaux» pour les PNJ dans les jeux vidéo. Les PNJ collecteront des informations sur le monde et transmettront ces connaissances à d'autres personnes (y compris les joueurs humains). Cependant, ils vont aussi "se souvenir" de cette connaissance (soit "muter" cette connaissance ou simplement l'oublier), ou même mentir:
Lorsqu'un sujet de conversation est évoqué, un personnage peut transmettre de fausses informations - plus précisément, des informations auxquelles elle ne croit pas - à son interlocuteur. Actuellement, cela se produit de manière probabiliste en fonction de l'affinité d'un personnage envers l'interlocuteur, et la désinformation est choisie au hasard.
Plus tard dans le document de recherche, ils ont détaillé leurs plans futurs pour mentir:
Actuellement, les mensonges ne sont stockés que dans la connaissance des personnages qui les reçoivent, mais nous prévoyons d'avoir des personnages qui leur diront également de les suivre afin qu'ils puissent raisonner sur les mensonges passés lors de la construction des mensonges suivants. Bien que les personnages ne mentent actuellement que sur d'autres personnages, nous prévoyons également de mettre en œuvre le mensonge égocentrique (DePaulo 2004), par exemple, les personnages mentant sur leurs titres de fonction ou leurs relations avec d'autres personnages. Enfin, nous imaginons des personnages qui découvrent qu'ils ont menti à réviser leurs affinités avec les menteurs, voire à les affronter.
Le document de recherche a également détaillé comment d'autres développeurs de jeux vidéo ont tenté de créer des PNJ menteurs, en mettant l'accent sur la façon dont leur système diffère:
Les caractères TALE-SPIN peuvent se mentir les uns aux autres (Meehan 1976, 183-84), mais de façon plutôt arbitraire, comme dans notre implémentation actuelle du système. GOLEM implémente une variante du monde des blocs dans laquelle les agents trompent les autres pour atteindre leurs objectifs (Castelfranchi, Falcone et De Rosis 1998), tandis que Mouth of Truth utilise une représentation probabiliste de la croyance des personnages pour alimenter la tromperie des agents dans une variante du jeu d'imitation de Turing (De Rosis et al.2003). Dans Christian (2004), un planificateur de tromperie injecte un état mondial inexact dans les croyances d'un agent cible afin qu'elle puisse sans le savoir mener des actions qui remplissent les objectifs ultérieurs d'un agent trompeur. Enfin, les agents de l'extension de Reis (2012) à FAtiMA emploient plusieurs niveaux de théorie de l'esprit pour se tromper mutuellement dans le jeu de société Werewolf. Bien que tous les systèmes ci-dessus présentent des personnages qui perçoivent - et, dans certains cas, trompent - d'autres caractères, aucun ne semble prendre en charge les composants clés suivants de notre système: propagation des connaissances et faillibilité de la mémoire. ...
Comme quelques autres systèmes mentionnés ci-dessus, Dwarf Fortress propose également des personnages qui mentent de manière autonome. Lorsqu'un personnage commet un crime, il peut impliquer à tort quelqu'un d'autre dans un rapport de témoin à un shérif, pour se protéger ou même pour encadrer un ennemi. Ces rapports de témoins, cependant, ne sont visibles que par le joueur; les personnages ne se font pas de faux témoignages. Ils peuvent cependant mentir sur leurs opinions, par exemple, par crainte des répercussions de la critique d'un leader. Enfin, Dwarf Fortress ne modélise pas actuellement les problèmes de faillibilité de la mémoire - Adams craint que de tels phénomènes ne semblent provenir de bugs s'ils ne sont pas astucieusement exprimés au joueur.