Comment des voitures autonomes pourraient-elles prendre des décisions éthiques concernant qui tuer?


75

Évidemment, les voitures autonomes ne sont pas parfaites, alors imaginez que la voiture de Google (à titre d'exemple) se soit trouvée dans une situation difficile.

Voici quelques exemples de situations malheureuses causées par un ensemble d'événements:

  • La voiture se dirige vers une foule de 10 personnes traversant la route, elle ne peut donc pas s’arrêter à temps, mais elle peut éviter de tuer 10 personnes en heurtant le mur (tuant les passagers),
  • Eviter de tuer le coureur de la moto en considérant que la probabilité de survie est plus grande pour le passager de la voiture,
  • Tuer un animal dans la rue en faveur d'un être humain,
  • Changer de voie pour percuter une autre voiture et éviter de tuer un chien,

Et voici quelques dilemmes:

  • L'algorithme reconnaît-il la différence entre un être humain et un animal?
  • La taille de l'être humain ou de l'animal est-elle importante?
  • Est-ce que ça compte combien de passagers il a par rapport aux gens à l'avant?
  • Sait-il "savoir" quand les bébés / enfants sont à bord?
  • Tient-il compte de l’âge (par exemple, tuer le plus âgé en premier)?

Comment un algorithme déciderait-il de ce qu'il devrait faire du point de vue technique? Sait-il au-dessus (compter la probabilité de tuer), ou pas (tuer des personnes simplement pour éviter sa propre destruction)?

Articles Liés:


3
Je ne monterai dans aucun véhicule programmé pour ne pas faire de ME passager sa priorité absolue en matière de sécurité. Je ne suis pas seul dans cette pensée. Si quelqu'un envisage de forcer les constructeurs de véhicules autonomes à programmer leur véhicule pour qu'il fasse autre chose que de donner la priorité à la sécurité de ses passagers, le secteur tout entier pourrait tout aussi bien fermer ses portes maintenant. Les deux premières fois qu'un passager décède à cause d'une décision éthique odieuse sera la dernière fois que la grande majorité des gens achètera un autre véhicule autonome. Qui veut monter dans un piège mortel?
Dunk

Le soi-disant "problème de chariot" est un problème de troll-y. Il y a une raison pour laquelle on appelle cela une expérience de pensée plutôt qu'une étude de cas: ce n'est pas quelque chose qui s'est passé. Ce n'est même pas près d'être réel, en grande partie parce que les voitures ne sont fondamentalement pas des chariots. La bonne réponse dans tous les cas d’application à distance est pratiquement toujours "cogner", et s’il y a une exception, elle ne peut être résolue que dans un sens: en protégeant les occupants de la voiture à tout prix et en ne considérant jamais rien d’autre. pour deux raisons.
Mason Wheeler le

2
Le premier, @Dunk, a très bien couvert: le pragmatisme. S'il est possible pour la voiture de faire un choix différent, personne de sensé ne voudra en acheter un. La seconde est que s’il existe une fonction «tuer tout le monde» intégrée à l’ordinateur de la voiture, cela signifie qu’elle est déjà disponible pour les pirates informatiques malintentionnés à trouver et à abuser. Évaluez la chance réelle pour quelqu'un de trouver un moyen de déclencher cela avec des arguments contradictoires contre l'idée purement fictive d'une situation de problème de tramway légitime, et il n'y a qu'une seule réponse possible qui ne soit pas moralement absurde et odieuse.
Mason Wheeler le

Réponses:


55

Comment des voitures autonomes pourraient-elles prendre des décisions éthiques concernant qui tuer?

Cela ne devrait pas. Les voitures autonomes ne sont pas des agents moraux. Les voitures échouent de manière prévisible. Les chevaux échouent de manière prévisible.

la voiture se dirige vers une foule de 10 personnes traversant la route; elle ne peut donc pas s’arrêter à temps, mais elle peut éviter de tuer 10 personnes en heurtant le mur (tuant les passagers),

Dans ce cas, la voiture devrait freiner. Si les 10 personnes meurent, c'est malheureux. Nous ne pouvons tout simplement pas faire confiance à toutes nos croyances sur ce qui se passe en dehors de la voiture. Et si ces 10 personnes sont vraiment des robots conçus pour ressembler à des personnes? Et s'ils essayaient de te tuer?

en évitant de tuer le coureur de la moto en considérant que la probabilité de survie est plus grande pour le passager de la voiture,

Encore une fois, la codification en dur de ce type de sentiments dans un véhicule ouvre le conducteur du véhicule à toutes sortes d'attaques, y compris de "faux" motocyclistes. Les humains sont à peine équipés pour prendre ces décisions seuls, voire pas du tout. En cas de doute, il suffit de freiner.

tuer un animal dans la rue en faveur de l'être humain,

Encore une fois, appuyez simplement sur les freins. Et si c'était un bébé? Et si c'était une bombe?

changer de voie pour percuter une autre voiture et éviter de tuer un chien,

Nan. Le chien était au mauvais endroit au mauvais moment. L'autre voiture ne l'était pas. Il suffit de freiner le plus sûrement possible.

L'algorithme reconnaît-il la différence entre un être humain et un animal?

Est-ce qu'un humain? Pas toujours. Et si l'homme a un pistolet? Et si l'animal a de grandes dents? N'y a-t-il pas de contexte?

  • La taille de l'être humain ou de l'animal est-elle importante?
  • Est-ce que ça compte combien de passagers il a par rapport aux gens à l'avant?
  • Sait-il "savoir" quand les bébés / enfants sont à bord?
  • Tient-il compte de l’âge (par exemple, tuer le plus âgé en premier)?

Les humains ne peuvent pas s'entendre sur ces choses. Si vous demandez à un flic quoi faire dans ces situations, la réponse ne sera pas: "Vous auriez dû dévier à gauche, peser toutes les parties concernées dans votre tête, évaluer les âges pertinents entre toutes les parties, puis virer légèrement à droite, et vous auriez sauvé 8% de vies supplémentaires. " Non, le policier dira simplement: "Vous devriez avoir immobilisé le véhicule aussi rapidement et en toute sécurité que possible." Pourquoi? Parce que les flics savent que les gens ne sont normalement pas équipés pour faire face aux scénarios d'accident à grande vitesse.

Notre objectif en matière de "voiture autonome" ne devrait pas être "un agent moral au même titre qu'un humain". Ce devrait être un agent avec la complexité réactive de la blatte, qui échoue de manière prévisible.


Dans la plupart des cas, les personnes potentiellement tuées sont plus responsables des dommages que la voiture ou l'occupant de la voiture. Serrer les freins semble être la seule réponse raisonnable, puisque l'occupant n'aurait pas pu éviter l'accident. Comme vous l'avez fait remarquer, il est très possible d'utiliser un algorithme qui tue (potentiellement) l'occupant au lieu d'un piéton comme un moyen d'assassinat de l'occupant, voire de blâmer l'occupant, la voiture ou le fabricant.
Clearer

49

La réponse à beaucoup de ces questions dépend de la programmation de l'appareil. Un ordinateur capable de se déplacer et de savoir où va la route aura probablement la capacité de distinguer visuellement un humain d'un animal, qu'il soit basé sur les contours, l'image ou la taille. Avec une reconnaissance d’image suffisamment nette, il pourra peut-être compter le nombre et le type de personnes dans un autre véhicule. Il pourrait même utiliser les données existantes sur le risque de blessure des personnes dans différents types de véhicules.

En fin de compte, les gens ne sont pas d’accord sur les choix éthiques impliqués. Peut-être pourrait-il y avoir des "paramètres d'éthique" à configurer par l'utilisateur / propriétaire, comme "considérer le nombre de vies seulement" et "les vies plus jeunes sont plus précieuses". Personnellement, je pense qu’il n’est pas très controversé de penser qu’une machine devrait s’endommager avant de nuire à un humain, mais les gens ne sont pas d’accord sur l’importance de la vie des animaux domestiques. Si les paramètres explicites de kill-this-first mettent les gens mal à l'aise, les réponses pourraient être déterminées à partir d'un questionnaire remis à l'utilisateur.


2
Quelque chose au plus profond de mon esprit pense qu'un réglage de l'éthique d'édition serait une mauvaise idée. Je ne suis pas vraiment sûr de ce que c'est autre chose que le fait qu'il s'agisse d'une machine plutôt que d'une personne, mais je parviens toujours à la conclusion que nous avons déjà ce contrat non écrit d'abonnement aux décisions éthiques d'une personne lorsque nous montons dans une voiture avec quelqu'un d'autre.
Ian

6
«paramètres d'éthique»? Vraiment? Vous aurez des gens qui le fixent en fonction de tout préjugé possible 'Tuez la personne qui ressemble le plus à ____' homosexuel? Course la moins préférée? Ou que se passe-t-il si deux véhicules des conducteurs d'une collision ont une éthique opposée? Ensuite, les deux sont exécutés et il y a des dégâts supplémentaires? Ces lois doivent être universelles (au moins dans un pays), tout comme les lois sur la circulation routière.
navigator_

3
@navigator_ J'espère que les options fournies par le fabricant seront raisonnables.
Ben N

1
La raison telle que définie par qui? C'est gentil de mon point.
navigator_

3
Je pense en fait que le "paramètre éthique" est la seule option viable / équitable, car elle imite le plus précisément possible le moteur spécifique. Le conducteur de la voiture devrait alors être responsable de tout ce qui se passe en conséquence, comme s'il conduisait. Je ne vois pas en quoi programmer une voiture pour (par exemple) mettre la vie du conducteur avant toute autre chose est différent de celui du conducteur qui met sa vie avant toute autre chose.
Pandora

27

Personnellement, je pense que cela pourrait être un problème trop médiatisé. Les problèmes de chariot ne surviennent que lorsque la situation est optimisée pour éviter les "3ème options".

Une voiture a des freins, n'est-ce pas? "Mais si les freins ne fonctionnent pas?" Eh bien, la voiture n’est pas autorisée à conduire du tout. Même dans le trafic normal, les opérateurs humains apprennent que votre vitesse doit être limitée de sorte que vous puissiez vous arrêter dans la zone visible. Des solutions comme celles-ci réduiront la possibilité d'un problème de chariot.

En ce qui concerne les animaux ... s'il n'y a pas d'effort explicite pour s'occuper des humains sur la route, je pense que les animaux seront traités de la même manière. Cela semble invraisemblable - la mort sur la route arrive souvent et la «mort sur la route» humaine est indésirable, mais les animaux sont beaucoup plus petits et plus difficiles à voir que les humains. Je pense donc que détecter les humains sera plus facile et évitera bien des accidents.

Dans d’autres cas (bugs, fautes au volant, pannes multiples superposées), des accidents risquent de se produire, ils seront analysés et les véhicules seront mis à jour pour éviter de provoquer des situations similaires.


Il est faux de dire que l'IA ne conduira que si vite qu'elle peut s'arrêter à ce qu'elle voit, car il en va de même pour la conduite défensive même des humains. La raison en est que des hypothèses doivent être faites. Lors du franchissement d'une colline, on suppose qu'un grand obstacle n'est pas parfaitement invisible [Source DARPA Grand Challenge]. Ces hypothèses sont basées sur des règles de la route pour déterminer quelles actions sont correctes. Ainsi, si un accident survient, tant que vous respectez les règles de la route, vous pouvez réduire votre responsabilité. Donc, une voiture doit pouvoir prendre cette décision, mais peut-être de manière limitée (protéger le consommateur).
Harrichael

13

C'est le problème bien connu de Trolley . Comme Ben N l’a dit, les gens ne sont pas d’accord sur la bonne marche à suivre pour les scénarios de problèmes de tramway, mais il convient de noter qu’avec les voitures autonomes, la fiabilité est si élevée que ces scénarios sont vraiment improbables. Donc, peu d’efforts seront consacrés aux problèmes que vous décrivez, du moins à court terme.


Je me demande quelle est la qualité du problème de Trolley? Le problème du tramway est essentiellement discret, décrivant un choix "une fois pour toutes", alors que dans la pratique, l'algorithme doit effectuer une série de choix à des incréments de temps (potentiellement très faibles), éventuellement avec de nouvelles informations. Un algorithme utile est probablement un problème de «contrôle continu» intégré dans un espace 3D réel, traitant de vitesses et de probabilités, et non une décision morale abstraite et discrète. Si rien d'autre, cela signifierait que la mise en œuvre ne devrait pas être définie en termes moraux aussi stricts.
NietzscheanAI

1
@NietzscheanAI L'idée du problème du tramway ne consiste pas à savoir quelle décision prendre, mais plutôt à quoi prendre vos décisions. Si vous tenez compte des paramètres burgulaires, du nombre de personnes, du nombre d'animaux, de la faute du conducteur, de la sécurité du conducteur, de l'amélioration des avantages, de la moindre modification, etc. Vous pouvez toujours appliquer des probabilités aux problèmes de trolley, par exemple. La route A a 30% de chance de tuer 10 personnes. Les problèmes de chariot impliquent généralement deux itinéraires afin que vous puissiez considérer les facteurs sur lesquels vous basez plus précisément la décision éthique.
Harrichael

12

Dans le monde réel, les décisions seront prises en fonction de la loi et, comme indiqué dans Law.SE , la loi favorise généralement l'inaction par rapport à l'action.


Ah, cela fait beaucoup de sens pour les victimes humaines. Le choix de la loi serait-il différent si la voiture pouvait frapper un chien au lieu d'un piéton?
Ben N

7

Pour une voiture sans conducteur conçue par une seule entité, le meilleur moyen de décider qui tuer est en évaluant et en minimisant le passif probable.

Il n'est pas nécessaire d'identifier absolument correctement toutes les victimes potentielles de la région pour que sa décision soit défendue, il suffit de l'identifier ainsi qu'un humain.

Il n'a même pas besoin de connaître l'âge et l'état physique de chaque personne dans la voiture, car il peut demander cette information et, en cas de refus, a la défense que les passagers ont choisi de ne pas la lui fournir, et a donc pris la responsabilité de la priver de la capacité de prendre une meilleure décision.

Il lui suffit de disposer d'un modèle viable pour minimiser l'exposition de l'entité aux poursuites judiciaires, qui peut ensuite être améliorée au fil du temps pour la rendre plus rentable.


7

"Cette question morale de savoir qui économiser: 99% de nos travaux d'ingénierie est d'empêcher que de telles situations se produisent." - Christophe von Hugo, Mercedes-Benz

Cette citation est tirée d'un article intitulé " L'auto-conduite Mercedes-Benz donnera la priorité à la sécurité des occupants par rapport aux piétons" publié le 7 octobre 2016 par MICHAEL TAYLOR , consulté le 8 novembre 2016.

Voici un extrait qui décrit la solution technologique et pratique au problème.

Le plus vieux constructeur automobile du monde ne voit plus le problème, comme celui de 1967, connu sous le nom de «problème du chariot», comme étant sans réponse. Plutôt que de se lancer dans des nœuds moraux et éthiques en cas de crise, Mercedes-Benz entend simplement programmer ses voitures autonomes pour sauver les personnes à l'intérieur de la voiture. À chaque fois.

Selon Christoph von Hugo, responsable des systèmes d'assistance à la conduite et de la sécurité active du constructeur automobile, tous les futurs véhicules autonomes de niveaux 4 et 5 de Mercedes-Benz donneront la priorité à la sauvegarde de leurs passagers.

Cet article contient également le paragraphe fascinant suivant.

Une étude publiée à la mi-année par le magazine Science n'a pas non plus clarifié les choses . La majorité des 1928 personnes interrogées pensaient qu'il serait préférable, sur le plan éthique, que les voitures autonomes sacrifient leurs occupants plutôt que de heurter des piétons. Cependant, la majorité d'entre eux ont également déclaré qu'ils n'achèteraient pas de voitures autonomes si la priorité accordée à la sécurité des piétons était supérieure à la leur.


4

Franchement, je pense que ce problème (le problème des trolley) est intrinsèquement trop compliqué, car la solution du monde réel sera probablement assez simple. A l'instar d'un conducteur humain, un pilote d'IA sera programmé pour agir à tout moment de manière générique en termes d'éthique, en choisissant toujours le plan d'action qui ne nuit pas, ou le moins possible.

Si un pilote IA se heurte à un danger tel qu'un dommage imminent à la propriété, il va évidemment freiner très fort et éloigner la voiture des objets fragiles afin d'éviter ou de minimiser l'impact. Si le danger est de frapper un piéton, une voiture ou un bâtiment, il choisira de se heurter à l’objet le moins précieux ou le plus cher possible, de faire le moins de mal possible, en accordant plus de valeur à l’être humain qu’à un bâtiment ou à un chien.

Enfin, si le choix de l’intelligence artificielle de votre voiture est de renverser un enfant ou de cogner contre un mur ... cela dirigera la voiture et vous -même vers le mur. C'est ce que tout bon humain ferait. Pourquoi une bonne IA agirait-elle différemment?


1
'L'IA va freiner fort', 'elle choisira d'entrer en collision avec ...', si ce sont des déclarations, pourriez-vous poster les quelques références? Ou sont-ils basés sur l'opinion?
Kenorb

1
Le PO posait la question suivante: "Quels dommages l'IA choisira-t-elle d'infliger?". Je pense que ce n'est pas le bon objectif. Les humains ne font pas ça. Au lieu de cela, l'IA suivra une stratégie plus générale consistant à éviter les dégâts et à faire le moins de dégâts possible. Cet objectif d'optimisation est plus intuitif et plus difficile à argumenter en cas de problème de responsabilité.
Randy

4

Ils ne devraient pas. Les gens devraient.

Les gens ne peuvent pas confier la responsabilité des décisions éthiques aux ordinateurs. En tant qu’informaticiens / experts en intelligence artificielle, il est de notre responsabilité de programmer les décisions des ordinateurs. Y aura-t-il encore des victimes humaines? Bien sûr, ils le feront - les gens ne sont pas parfaits et les programmes non plus.

Il existe un excellent débat en profondeur sur ce sujet ici . J'aime particulièrement l'argument de Yann LeCun concernant le dilemme moral parallèle consistant à tester des médicaments potentiellement mortels sur des patients. Semblables aux voitures autonomes, les deux peuvent être mortels tout en ayant la bonne intention de sauver plus de personnes à long terme.


4

Comment des voitures autonomes pourraient-elles prendre des décisions éthiques concernant qui tuer?

En gérant la responsabilité juridique et la sécurité des consommateurs.

Une voiture qui offre la sécurité des consommateurs va être une voiture qui est achetée par lesdits consommateurs. Les entreprises ne veulent pas être tenues pour responsables de la mort de leurs clients, pas plus qu'elles ne veulent vendre un produit qui expose l'utilisateur à des problèmes juridiques. La responsabilité juridique et la sécurité du consommateur sont le même problème quand on considère le "coût pour le consommateur".

Et voici quelques dilemmes:

  • L'algorithme reconnaît-il la différence entre un être humain et un animal?

Si un animal / homme ne peut pas être évité légalement (et que la voiture a légalement le droit - si ce n'est pas le cas, il y a autre chose qui cloche dans la prise de décision de l'IA), ce n'est probablement pas le cas. Si la voiture peut éviter l'obstacle en toute sécurité, l'IA pourrait raisonnablement être considérée comme prenant cette décision, c'est-à-dire. déviez vers une autre voie sur une route dégagée. Remarquez que l'accent est mis sur la responsabilité et la sécurité du conducteur.

  • La taille de l'être humain ou de l'animal est-elle importante?

Seul le facteur de risque de frapper l'obstacle. Frapper un hippo pourrait être moins souhaitable que de frapper le fossé. Frapper un chien est probablement plus souhaitable que de détruire l’automobile du client.

  • Est-ce que ça compte combien de passagers il a par rapport aux gens à l'avant?

Il compte les passagers comme des passagers pour voir si la voie de covoiturage peut être empruntée. Il considère les personnes qui se trouvent devant comme facteur de risque en cas de collision.

  • Sait-il "savoir" quand les bébés / enfants sont à bord?

Non.

  • Tient-il compte de l’âge (par exemple, tuer le plus âgé en premier)?

Non, il s’agit simplement d’une mauvaise abstraction pour prendre une décision. Comment pourrait-on en arriver à choisir le bon plan d’action pour réduire les facteurs de risque? Si l'option 1 concerne un jeune homme qui a 20% de chances de causer des dommages importants à l'occupant sans responsabilité légale et l'option 2 s'adresse à un vieil homme avec 21% de chances de causer des dommages importants aux occupants et sans responsabilité légale, alors quel philosophe peut convaincre même une seule personne de les poids justes et équitables pour prendre une décision?

Heureusement, la meilleure décision est souvent de prendre des pauses pour réduire la vitesse (surtout si vous considérez qu’il est souvent utile d’agir de manière prévisible pour que les piétons et les automobilistes puissent réagir en conséquence). Entre-temps, de meilleures améliorations peuvent être apportées en termes de prévision du moment où les conducteurs vont prendre de mauvaises décisions et du moment où d'autres actions (telles que frapper à l'inverse) sont plus bénéfiques que frapper les pauses. À ce stade, il ne vaut même pas la peine de commencer à recueillir des informations pour prendre les décisions éthiques proposées par les philosophes. Ainsi, cette question est surexcitée par les journalistes et les philosophes sensationnels.


3

Je pense que dans la plupart des cas, la voiture serait par défaut de réduire la vitesse en tant qu'option principale, plutôt que de se diriger vers ou de s'éloigner d'un choix spécifique. Comme d'autres l'ont mentionné, les paramètres liés à l'éthique ne sont qu'une mauvaise idée. Que se passe-t-il si deux voitures programmées avec des paramètres éthiques opposés sont sur le point d'entrer en collision? Les voitures pourraient potentiellement avoir un système pour remplacer les paramètres utilisateur et choisir la solution la plus bénéfique pour les deux parties. C'est en effet un concept intéressant qui doit absolument être discuté et normalisé avant d'être généralisé. Mettre les décisions éthiques entre les mains d'une machine rend la responsabilité qui en découle parfois difficile à imaginer.


Oui, freiner pour éviter une collision serait absolument la meilleure solution. Malheureusement, dans certains cas (les cas évoqués dans la question), frapper quelque chose est inévitable. Vous semblez être d'accord avec certaines réponses existantes. Veuillez noter que nous aimerions que chaque réponse puisse être autonome. Une fois que votre réputation est suffisante, vous pourrez passer aux réponses que vous jugez utiles. Le problème de deux voitures à configuration opposée est effectivement intéressant; ce serait bien si vous pouviez modifier votre réponse pour développer cela. Merci!
Ben N

Merci beaucoup pour votre réponse, je l’apprécie vraiment beaucoup et je l’utiliserai plus tard sur le site. Je n'étais pas au courant des directives pour les réponses.
Imhotraore

2

Je pense qu'il n'y aurait pas moyen de modifier de tels paramètres d'éthique dans une voiture. Mais bon, si les téléphones portables peuvent être enracinés, pourquoi pas les voitures? J'imagine qu'il y aura des versions ultérieures de Linux pour des modèles spécifiques qui vous permettront de faire ce que vous voulez.

Quant à savoir qui prendra de telles décisions, ce sera un peu comme les questions de protection de la vie privée d’aujourd’hui. Les fournisseurs de systèmes d’exploitation (qui essaieront de limiter le nombre de personnes blessées, chacun avec ses propres méthodes) et les compagnies d’assurance (qui essaieront de vous faire payer plus pour les OS qui seront statistiquement montrés pour endommager votre voiture plus facilement), et les constructeurs automobiles (qui voudront que vous détruisiez votre voiture dès que vous le pourrez, vous en achèterez donc un neuf, ou fabriquerez des voitures qui exigent un ridicule montant du service $$$).

Ensuite, un dénonciateur dévoilera un code qui choisit de tuer les jeunes enfants plutôt que les adultes, car il aura plus de mal à les distinguer des animaux et prendra le risque de sauver ceux qu'il reconnaîtra plus sûrement en tant qu'êtres humains. Le fabricant de système d’exploitation recevra une claque de la part du public et un nouveau consensus sera trouvé. Les lanceurs d'alerte proviendront également des compagnies d'assurance et des constructeurs automobiles.

L'humanité prendra une poêle chaude et se brûlera elle-même, puis apprendra à mettre des gants à l'avance. Mon conseil serait juste de vous assurer que vous ne seriez pas cette main - restez loin d'eux pendant quelques années jusqu'à ce que toutes les erreurs soient commises.


2

Le seul choix judicieux est d'utiliser un comportement prévisible. Scénario pour les personnes qui se trouvent devant la voiture: d’abord, la voiture appuie sur les freins, en même temps, elle klaxonne et maintient le cap. Les gens ont alors une chance de s'écarter, ce qui entraîne zéro assassinat. De plus, avec des freins complets (passer de 50 km à l'heure à zéro, c'est moins de 3 longueurs de voiture), une situation d'impact est presque impensable. Même si un arrêt complet ne peut être atteint, il est peu probable que les piétons subissent de graves dommages.

L'autre scénario est juste fou. Donc, la distance doit être inférieure à 3 longueurs de voiture, au moins 1 longueur de voiture est nécessaire pour la direction, puis un accident de voiture est une situation incontrôlable, pourrait conduire à tourner et tuer tous les 11 personnes.

En plus de dire que je ne crois pas qu'il existe un exemple concret de dilemme; la solution dans ces cas peu probables consiste à se conformer aux attentes de la partie adverse afin de permettre à l'autre partie d'atténuer également la situation.


Pouvez-vous s'il vous plaît essayer de passer par la première réponse postée par Ben.Et puis essayez d'éditer la vôtre conformément à ce qu'est l'IA!
Quintumnia

pouvez-vous être plus précis? J'ai lu la première réponse de bens, mais je ne vois pas comment cela est lié. Pouvez-vous expliquer «de quoi parle l'IA»?
lalala

Ce que je voulais dire par là, c’est être bien informé sur AI.Alors votre réponse sera peut-être rejetée ou rien à voir: votre majesté!
Quintumnia

@quintumnia Cette réponse me semble correcte (+1) - poursuivre sans tenter de dévier ou de prendre des décisions est un choix valable.
Ben N
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.