Une IA pourrait-elle penser latéralement tout en évitant les choix «éthiquement sous-optimaux»?


13

Dans le récent jeu PC The Turing Test , l'IA ("TOM") a besoin de l'aide d'Ava pour traverser certaines salles de puzzle. TOM dit qu'il n'est pas en mesure de résoudre les énigmes parce qu'il n'est pas autorisé à « penser latéralement ». Plus précisément, il dit qu'il n'aurait pas pensé jeter une boîte à travers une fenêtre pour résoudre la première pièce. Ses créateurs, raconte l'histoire, ont désactivé cette capacité car une telle réflexion pourrait produire des solutions "éthiquement sous-optimales", comme couper un bras pour le laisser sur une plaque de pression.

Est-ce que toutes les capacités créatives de résolution de casse-tête devraient être supprimées d'une IA pour garder ses résultats raisonnables, ou pourrions-nous obtenir certains avantages de la pensée latérale sans perdre un bras?

Réponses:


17

Non , avec un mais . Nous pouvons avoir une résolution créative mais éthique des problèmes si le système a un système d'éthique complet, mais sinon la créativité sera dangereuse par défaut.

On peut classer les approches décisionnelles en matière d'IA en deux types: les penseurs interpolatifs et les penseurs extrapolatifs.

Les penseurs interpolatifs apprennent à classer et à imiter tout ce qu'ils apprennent, et n'essaient pas de donner des résultats raisonnables en dehors de leur domaine de formation. Vous pouvez les considérer comme une interpolation entre des exemples de formation, et bénéficiant de toutes les garanties et conditions mathématiques comme d'autres techniques statistiques.

Les penseurs extrapolatifs apprennent à manipuler les principes sous-jacents, ce qui leur permet de combiner ces principes de manière jusque-là non envisagée. Le champ d'intuition pertinent ici est l'optimisation numérique , dont l'exemple le plus simple et le plus célèbre est la programmation linéaire , plutôt que les domaines statistiques qui ont donné naissance à l'apprentissage automatique. Vous pouvez les considérer comme extrapolant au-delà des exemples de formation (en effet, beaucoup d'entre eux ne nécessitent même pas d'exemples de formation, ou utilisent ces exemples pour déduire des principes sous-jacents).

La promesse des penseurs extrapolatifs est qu'ils peuvent proposer ces solutions «latérales» beaucoup plus rapidement que les gens ne le pourraient. Le problème avec ces penseurs extrapolatifs est qu'ils n'utilisent que les principes parlés, pas des principes tacites qui pourraient sembler trop évidents pour être mentionnés.

Un attribut des solutions aux problèmes d'optimisation est que le vecteur de caractéristiques est souvent «extrême» d'une certaine manière. En programmation linéaire, au moins un sommet de l'espace de solution réalisable sera optimal, et les méthodes de résolution simples trouvent donc un sommet optimal (ce qui est presque impossible par nature d'être un sommet).

Comme autre exemple, la solution de carburant minimum pour déplacer un vaisseau spatial d'une position à une autre est appelée `` bang-bang '', où vous accélérez le vaisseau aussi rapidement que possible au début et à la fin de la trajectoire, en roue libre à vitesse maximale entre les deux. .

Bien qu'une vertu lorsque le système est correctement compris (bang-bang est optimal dans de nombreux cas), cela est catastrophique lorsque le système est mal compris. Mon exemple préféré ici est le problème de régime de Dantzig (la discussion commence à la page 5 du pdf), où il essaie d'optimiser son régime en utilisant les mathématiques. Sous sa première série de contraintes, il est censé boire 500 gallons de vinaigre par jour. Sous son second, 200 cubes de bouillon. Sous son troisième, deux livres de son. Les considérations qui font que ces idées manifestement mauvaises ne sont pas intégrées dans le système, et le système les suggère donc innocemment.

Si vous pouvez encoder complètement les connaissances et les valeurs qu'une personne utilise pour juger ces plans dans l'IA, alors les systèmes extrapolatifs sont aussi sûrs que cette personne. Ils pourront envisager et rejeter le mauvais type de plans extrêmes et vous laisser avec le bon type de plans extrêmes.

Mais si vous ne le pouvez pas, alors il est logique de ne pas créer un décideur extrapolatif, et de créer un interpolateur à la place. Autrement dit, au lieu de se demander "comment puis-je atteindre au mieux l'objectif X?" il se demande "que ferait une personne dans cette situation?". Ce dernier pourrait être bien pire pour atteindre l'objectif X, mais il a beaucoup moins de risque de sacrifier d'autres objectifs pour accomplir X.


2

L'éthique implique les relations de besoins entre deux ou plusieurs parties. Comme l'a dit Matthew Graves, si l'IA n'a pas le contexte humain suffisant (compréhension des besoins), elle produira un comportement éthique apparemment pervers.

Et soyons honnêtes, certaines personnes coupaient les bras des autres et les mettaient sur des plaques de pression. Même les meilleurs d'entre nous ne seront pas en mesure de comprendre les besoins des autres avec une précision de 100% - au mieux, nous devinons. Et puis il y a ces rares situations où je veux vraiment que vous me coupiez le bras et le posiez sur une plaque de pression, peut-être pour sauver un être cher.

Si nous pouvions faire quelque chose qui pourrait comprendre ce dont un humain pourrait avoir besoin dans une situation arbitraire donnée, alors nous aurions créé soit A) une intelligence humaine artificielle (AHI) (qui pourrait être plus ou moins faillible, comme un humain), ou B) un oracle qui peut raisonner sur tous les besoins humains possibles à une échelle beaucoup plus rapide que les échelles de temps humaines - auquel cas vous n'auriez pas besoin d' une IA consciente, car tous les besoins et solutions humains pourraient être précalculés via des spécifications formelles, qui est probablement absurde à considérer.


0

Vous pouvez également considérer la programmation comme une partie éthique de la conception. L'IA agira en fonction de ce qui lui a été demandé comme étant éthiquement important ou non. Il peut / devrait même faire partie des paramètres qui forgent le processus de recherche de solutions, ce qui pourrait permettre une solution plus raffinée et créative.

Nous comprenons les bases de l'éthique dans des circonstances normales, mais si nous ne pouvons pas prédire comment un humain se comportera dans une énigme éthique, nous pourrons imposer ce qu'une IA ne ferait pas.

Tant que nous contrôlons le mécanisme qui conduit une IA, nous avons la responsabilité d'injecter des pannes éthiques. Le problème réside dans l'IA autodidacte avec une capacité à remplacer les directives. (Lois CF Asimov.)

La façon dont l'IA est créative semble hors de propos dans ce cas.


-1

Cela dépend en grande partie de l'ampleur de la réflexion. Par exemple, quels seraient les effets à moyen et long terme de la pensée latérale? Le robot pourrait couper un bras pour une plaque de pression, mais cela signifierait que la personne n'avait plus de bras, une limitation fonctionnelle au mieux, que la personne pourrait saigner et mourir / être gravement contrainte, et que la personne (et les personnes dans général) ne coopéreraient plus et chercheraient probablement à éliminer le robot. Les gens peuvent penser de façon latérale parce qu'ils tiennent compte de ces choses - l'éthique n'est rien de plus qu'un ensemble de lignes directrices qui englobent ces considérations. Le robot pourrait également, s'il était conçu pour tenir compte de ces externalités.

Si tout le reste échoue,

Les lois de la robotique d'Asimov: (0. Un robot ne peut pas nuire à l'humanité ou, par l'inaction, permettre à l'humanité de nuire.) 1. Un robot ne peut pas blesser un être humain ou, par l'inaction, permettre à un être humain de venir à nuire. 2. Un robot doit obéir aux ordres qui lui sont donnés par les êtres humains, sauf lorsque de tels ordres seraient en conflit avec la première loi. 3. Un robot doit protéger sa propre existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.