Comment des voitures autonomes pourraient-elles prendre des décisions éthiques concernant qui tuer?
Cela ne devrait pas. Les voitures autonomes ne sont pas des agents moraux. Les voitures échouent de manière prévisible. Les chevaux échouent de manière prévisible.
la voiture se dirige vers une foule de 10 personnes traversant la route; elle ne peut donc pas s’arrêter à temps, mais elle peut éviter de tuer 10 personnes en heurtant le mur (tuant les passagers),
Dans ce cas, la voiture devrait freiner. Si les 10 personnes meurent, c'est malheureux. Nous ne pouvons tout simplement pas faire confiance à toutes nos croyances sur ce qui se passe en dehors de la voiture. Et si ces 10 personnes sont vraiment des robots conçus pour ressembler à des personnes? Et s'ils essayaient de te tuer?
en évitant de tuer le coureur de la moto en considérant que la probabilité de survie est plus grande pour le passager de la voiture,
Encore une fois, la codification en dur de ce type de sentiments dans un véhicule ouvre le conducteur du véhicule à toutes sortes d'attaques, y compris de "faux" motocyclistes. Les humains sont à peine équipés pour prendre ces décisions seuls, voire pas du tout. En cas de doute, il suffit de freiner.
tuer un animal dans la rue en faveur de l'être humain,
Encore une fois, appuyez simplement sur les freins. Et si c'était un bébé? Et si c'était une bombe?
changer de voie pour percuter une autre voiture et éviter de tuer un chien,
Nan. Le chien était au mauvais endroit au mauvais moment. L'autre voiture ne l'était pas. Il suffit de freiner le plus sûrement possible.
L'algorithme reconnaît-il la différence entre un être humain et un animal?
Est-ce qu'un humain? Pas toujours. Et si l'homme a un pistolet? Et si l'animal a de grandes dents? N'y a-t-il pas de contexte?
- La taille de l'être humain ou de l'animal est-elle importante?
- Est-ce que ça compte combien de passagers il a par rapport aux gens à l'avant?
- Sait-il "savoir" quand les bébés / enfants sont à bord?
- Tient-il compte de l’âge (par exemple, tuer le plus âgé en premier)?
Les humains ne peuvent pas s'entendre sur ces choses. Si vous demandez à un flic quoi faire dans ces situations, la réponse ne sera pas: "Vous auriez dû dévier à gauche, peser toutes les parties concernées dans votre tête, évaluer les âges pertinents entre toutes les parties, puis virer légèrement à droite, et vous auriez sauvé 8% de vies supplémentaires. " Non, le policier dira simplement: "Vous devriez avoir immobilisé le véhicule aussi rapidement et en toute sécurité que possible." Pourquoi? Parce que les flics savent que les gens ne sont normalement pas équipés pour faire face aux scénarios d'accident à grande vitesse.
Notre objectif en matière de "voiture autonome" ne devrait pas être "un agent moral au même titre qu'un humain". Ce devrait être un agent avec la complexité réactive de la blatte, qui échoue de manière prévisible.