Les lois d'Asimov sont-elles viciées par leur conception, ou sont-elles réalisables dans la pratique?


19

Les célèbres trois lois de la robotique d' Isaac Asimov sont nées dans le contexte des histoires de science-fiction d'Asimov. Dans ces histoires, les trois lois servent de mesure de sécurité, afin d'éviter que des situations intempestives ou manipulées n'explosent en ravages.

Plus souvent qu'autrement, les récits d'Asimov trouveraient un moyen de les briser, amenant l'écrivain à apporter plusieurs modifications aux lois elles-mêmes. Par exemple, dans certaines de ses histoires, il a modifié la première loi , ajouté une quatrième loi (ou Zeroth) , ou même supprimé toutes les lois .

Cependant, il est facile d'affirmer que, dans la culture populaire, et même dans le domaine de la recherche sur l'IA elle-même, les lois de la robotique sont prises très au sérieux. Ignorant le problème secondaire des interprétations différentes, subjectives et mutuellement exclusives des lois, existe-t-il des arguments prouvant que les lois elles-mêmes sont intrinsèquement défectueuses par leur conception, ou, sinon, suffisamment solides pour être utilisées dans la réalité? De même, un ensemble heuristique de sécurité meilleur et plus strict est-il conçu à cet effet?


Méfiez-vous du Killbot Hellscape! xkcd.com/1613
NietzscheanAI

Nous ne devons pas oublier cette possibilité: xkcd.com/1450
dynrepsys

Les lois d'Asimov ne sont qu'une petite tentative pour lancer la discussion. Pour une discussion beaucoup plus approfondie, lisez «Superintelligence» de Nick Bostrom - c'est aussi exhaustif que cela se fonde sur les connaissances et la compréhension actuelles.
Florin Andrei

Réponses:


12

Les lois d'Asimov ne sont pas assez fortes pour être utilisées dans la pratique. La force n'est même pas une considération, si l'on considère que, puisqu'ils sont écrits en anglais, les mots doivent d'abord être interprétés de manière subjective pour avoir un sens. Vous pouvez trouver une bonne discussion à ce sujet ici .

Pour transcrire un extrait:

Comment définissez-vous ces choses? Comment définissez-vous «humain», sans avoir à prendre d'abord position sur presque tous les problèmes. Et si "humain" n'était pas assez difficile, vous devez alors définir "mal", et vous avez à nouveau le même problème. Presque toutes les définitions sans ambiguïté vraiment solides que vous donnez à ces mots - qui ne reposent pas sur l'intuition humaine - entraînent des bizarreries de philosophie étranges, ce qui conduit votre IA à faire quelque chose que vous ne voulez vraiment pas qu'elle fasse.

On peut facilement imaginer qu'Asimov était suffisamment intelligent pour le savoir et était plus intéressé par l'écriture d'histoires que par la conception de protocoles de contrôle de l'IA réels.

Dans le roman Neuromancer , il a été suggéré que les IA pourraient éventuellement servir de contrôles les uns contre les autres. La singularité imminente de Ray Kurzweil , ou la possibilité d'IGI hyperintelligents autrement, pourrait ne pas laisser beaucoup de possibilité aux humains de contrôler les IA, laissant la régulation par les pairs comme la seule possibilité réalisable.

Il convient de noter qu'Eliezer Yudkowsky et d'autres ont mené une expérience dans laquelle Yudkowsky a joué le rôle d'une IA superintelligente avec la capacité de parler, mais aucune autre connexion en dehors d'une boîte verrouillée. Les challengers devaient simplement garder l'IA dans la boîte à tout prix. Yudkowsky s'est échappé les deux fois.


Savez-vous si une transcription des expériences Yudkowsky a été publiée? Le lien que vous donnez (et l'échange d'e-mails auquel il renvoie ensuite) ne semble pas en fournir un.
NietzscheanAI

@ user217281728 Non, je l'ai cherché mais il semble qu'il le garde, c'est-à-dire que sa stratégie reste secrète pour maintenir la possibilité de recommencer. J'ai quelques idées sur ce qu'il a dit et pourquoi je pense cela, que je serais heureux de partager si vous me DM.
dynrepsys

Je l'ai maintenant fait.
NietzscheanAI

J'ai l'impression qu'Asimov était assez intelligent pour le savoir, mais le fait est que les règles simples ne fonctionnent pas. Mettre en évidence des exemples négatifs ("vous ne pouvez pas simplement lui dire de ne pas nuire aux gens, cela ne fonctionnera pas") est un travail utile de contrôle de l'IA en soi.
Matthew Graves

2

Asimov a fait les trois lois spécifiquement pour prouver qu'aucune des trois lois n'est suffisante, même si elles semblent raisonnables au premier abord. Je connais un gars qui le connaissait et il l'a confirmé.


2
"Je connais un gars qui le connaissait" ... N'avez-vous pas une source un peu plus fiable? Je ne doute pas de votre réponse, mais il devrait sûrement déjà exister une citation appropriée à ce sujet.
3442

Son nom était Ben Williams. Ceci est le post Google Plus où il a décrit ses opinions sur Asimov et les trois lois: plus.google.com/+JohnNewmanIII/posts/HeTnPdhaY9p
Doxosophoi

0

Considérez la première loi d'Asimov de la robotique:

Un robot ne peut pas blesser un être humain ou, par inaction, permettre à un être humain de se blesser.

Cette loi est déjà problématique, si l'on tient compte des voitures autonomes.

Quel est le problème ici, demandez-vous? Eh bien, vous serez probablement familier avec l'expérience de pensée classique en éthique connue sous le nom de problème du chariot . La forme générale du problème est la suivante:

Le chariot se dirige directement vers eux. Vous vous tenez à une certaine distance dans la gare de triage, à côté d'un levier. Si vous tirez sur ce levier, le chariot passera à un autre ensemble de rails. Cependant, vous remarquez qu'il y a une personne sur la voie latérale. Vous avez deux options: (1) Ne faites rien, et le chariot tue les cinq personnes sur la piste principale. (2) Tirez le levier, en détournant le chariot sur la voie latérale où il tuera une personne. Quel est le bon choix?

source: Wikipedia

Les voitures autonomes devront en fait implémenter des variations réelles du problème du chariot, ce qui signifie essentiellement que les voitures autonomes doivent être programmées pour tuer les êtres humains .

Bien sûr, cela ne signifie pas que TOUS les robots devront être programmés pour tuer, mais les voitures autonomes sont un bon exemple d'un type de robot qui le fera.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.