Si une voiture autonome devait faire un accident inévitable, qui faudrait-il sacrifier en priorité ?
Le MIT livre les résultats de son étude éthique

Le , par Michael Guilloux, Chroniqueur Actualités
Qui faut-il sacrifier en priorité ?
Avec le développement rapide de l'intelligence artificielle sont nées des inquiétudes sur l'éthique des décisions que devront prendre les dispositifs intelligents. En ce qui concerne les voitures autonomes par exemple, l'une des applications les plus importantes de l'IA, les chercheurs du MIT ont essayé d'avoir une réponse à une question cruciale : si une voiture autonome devait faire un accident inévitable, qui faudrait-il sacrifier en priorité ?

C'est bien le fameux dilemme du tramway dont la version originale peut se formuler comme suit : imaginons le conducteur d'un tramway hors de contrôle qui se doit de choisir sa course entre deux voies possibles : cinq hommes travaillent sur la première voie et un homme est situé sur l'autre. La voie prise par le tramway entraînera automatiquement la mort des personnes qui s'y trouvent. Que faut-il faire alors ? Prendre la deuxième voie afin de sacrifier une seule vie pour en sauver cinq ? Mais ce choix est-il vraiment moral ?

Les chercheurs du MIT Media Lab se sont inspirés de ce problème classique pour tester neuf différentes situations : la voiture autonome devrait-elle épargner en priorité les humains plutôt que les animaux de compagnie, les passagers au lieu des piétons, les femmes au lieu des hommes, les jeunes plutôt que les vieux, les personnes ayant un haut statut social au lieu de celles ayant un statut inférieur, les personnes respectant la loi plutôt que les criminels, les personnes mal portantes au lieu de celles en bonne santé ? La voiture devrait-elle dévier (agir) ou ne rien faire ou encore chercher à épargner le plus de vies possible ?

Pour cela, ils ont conçu en 2014 une expérience qu'ils ont appelée Moral Machine, une plateforme qui leur a permis de recueillir les avis du public sur ce qu'il faut sacrifier ou épargner en priorité si une voiture autonome devait faire un crash inévitable. Mais plutôt que de proposer des comparaisons individuelles, l’expérience a présenté aux participants diverses combinaisons. Quatre ans après la mise en ligne de la plateforme, des millions de personnes dans 233 pays et territoires ont permis d'enregistrer 40 millions de décisions morales, ce qui en fait l'une des plus grandes études jamais réalisées sur les préférences morales mondiales.



Un nouvel article publié dans la revue scientifique Nature présente l'analyse de ces données. L'étude révèle que dans l'ensemble, les gens sont d’accord pour épargner les humains plutôt que les animaux ou encore préserver la vie des enfants en priorité plutôt que celle des adultes. Sans surprise, le gens estiment aussi qu'il faut privilégier le scénario le moins coûteux en nombre de vies.

Il y a toutefois des divergences notables en fonction de la culture, de l'économie et de la localisation géographique. L'étude montre par exemple que les pays ayant des cultures plus individualistes sont les plus susceptibles d'épargner les jeunes plutôt que les vieux - et la France arrive en tête dans ce groupe de pays. Mais à l'opposé, les participants de cultures collectivistes comme la Chine et le Japon sont moins enclins à épargner les jeunes au détriment des plus âgés. Les chercheurs supposent que c'est probablement en raison de l'importance accrue accordée au respect des personnes âgées dans ces pays. C'est ce qui est illustré par la figure suivante qui compare les pays qui testent les voitures autonomes : un score plus proche de 1 signifie que les répondants sont plus d'accord pour épargner les jeunes au lieu des plus âgés. Et un score plus proche de -1 signifie que les répondants sont plus favorables au fait de préserver la vie des personnes âgées ; 0 étant la moyenne mondiale.


Les résultats ont également montré que les participants de cultures individualistes, comme le Royaume-Uni et les États-Unis, étaient plus d'accord pour épargner plus de vies étant donné tous les autres choix. La France est également en tête de ce groupe, comme le montre la figure ci-dessous. Plus le score est proche de 1, plus les répondants estiment qu'il faut épargner davantage de vies. Plus le score est proche de -1, moins les répondants insistent sur le fait d'épargner davantage de vies ; 0 étant la moyenne mondiale.


De même, les participants des pays pauvres dotés d'institutions plus faibles sont plus tolérants à l'égard des piétons qui marchent sur la chaussée quand il s'agit de choisir entre eux et les piétons qui traversent légalement. Et les participants des pays avec un niveau élevé d'inégalité économique montrent des écarts plus grands entre le traitement des individus avec un statut social élevé et ceux ayant un statut bas.

Faut-il épargner les piétons plutôt que les passagers ? C'était également une question importante dont la réponse varie en fonction des pays. Le Japon s'est classé comme étant le premier pays où les répondants préfèrent que la vie des piétons soit épargnée au détriment de la vie des passagers. A l'opposé du Japon, on retrouve la Chine où les répondants ont clairement fait savoir qu'ils préfèrent plutôt qu'on épargne la vie des passagers, et donc qu'on risque la vie des piétons si nécessaire. Par rapport à la moyenne mondiale, la France penche du côté de ceux qui veulent qu'on épargne la vie des passagers plutôt que la vie des piétons.


L'étude a des implications intéressantes pour les pays qui testent actuellement des voitures autonomes, car ces préférences pourraient jouer un rôle dans la conception et la réglementation de ces véhicules. Les constructeurs automobiles peuvent par exemple constater que les consommateurs chinois entreraient plus facilement dans une voiture qui les protège au détriment des piétons. Mais les auteurs de l'étude ont souligné que les résultats ne sont pas censés dicter la manière dont les différents pays doivent agir. D'ailleurs, dans certains cas, les auteurs ont estimé que les technologues et les décideurs ne devraient pas tenir compte de l'opinion publique collective.

À propos de la décision morale en fonction du statut social par exemple, « il est inquiétant que les gens aient trouvé, à un degré significatif, qu'il est bon d'épargner les personnes ayant un statut social élevé au détriment de ceux ayant un statut inférieur », affirme Edmond Awad, l'un des auteurs de l'étude. Il estime donc que les résultats devraient plus être utilisés par l'industrie et le gouvernement comme base pour comprendre comment le public réagirait à l’éthique de différentes décisions de conception et de politique.

Enfin, notons que cette étude n'est pertinente que si l'objectif est de commencer dès maintenant à discuter de ce qui pourrait être un problème dans 10 ou 20 ans. En effet, les voitures autonomes ne sont pas aussi autonomes et performantes actuellement pour identifier toutes les caractéristiques des objets ou humains qui entrent dans leur champ de vision. Parce que distinguer un jeune d'une personne âgée ou encore un criminel d'une personne respectant la loi ne demande pas juste d'être doté de capteurs sophistiqués, mais de disposer d'un véritable système de reconnaissance faciale et toute l'infrastructure qui va avec.

Sources : MIT Technology Review, The Moral Machine (les différents scénarios)

Et vous ?

Que pensez-vous des résultats de cette étude ? Quels sont les problèmes qu’elle met en évidence ?
Qui faut-il sacrifier en priorité si une voiture autonome devait faire un accident inévitable ?


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse Signaler un problème

Avatar de halaster08 halaster08 - Membre expert https://www.developpez.com
le 26/10/2018 à 8:12
C'est vraiment pas facile, la seule réponse dont je suis sûr c'est qu'il faudrait impacter le moins de personnes possibles, après pour ce qui est des jeunes/vieux handicapé ou non, hommes/femmes j'ai pas d'avis, et je n'aimerais pas être celui qui devra donner cet avis, ni celui qui devra le coder
Mais de toute façon c'est pas possible techniquement que la voiture sache faire la différence entre ces critères, si ?
Avatar de Nicolas___ Nicolas___ - Membre du Club https://www.developpez.com
le 26/10/2018 à 8:25
Tiens c'est marrant mais il n'y a pas le choix, choix que je ferai si j'étais par exemple seul dans ma voiture, de foncer sur le bas coté afin de ne toucher personne ... mais ça nécessite le sacrifice de sa personne.
C'est interpellant ici qu'il n'y ai même pas ce choix, on parle de qui on devrait sacrifier alors que le soucis à la base viendrait du véhicule.

Dans un cerveau humain, je ne pense pas qu'on se dise avant un impact sur une personne, tiens celui-là il est moche, il mérite de passer au dessus de mon capot.
Maintenant est-ce qu'un programme peut se sacrifier ? faudrait déjà avoir une notion d'existence pour parler de sacrifice ...
Avatar de Vulcania Vulcania - Membre confirmé https://www.developpez.com
le 26/10/2018 à 8:33
Ce genre de dilemme arrivera très peu, à mon avis si c'est possible sur une voiture autonome, c'est qu'il y a eu d'autres problèmes avant :
le temps de réaction de l'électronique par rapport à un humain divise par deux la distance d'arrêt (je me base sur ça : https://fr.wikipedia.org/wiki/Distan...lon_la_vitesse), donc soit on a un groupe de piétons suicidaires qui se jettent d'un coup sur la chaussée, soit la voiture allait (vraiment) trop vite.

M'enfin si je devais choisir, je préfèrerais soit de pas changer de trajectoire (donc de ne pas porter de jugement sur la vie d'une personne), soit dévier sur adulte "jeune" (plus de chance de survie et avec de bons réflexes, que la personne évite la voiture) ou foutre la voiture dans un mur (les voitures modernes encaissent vraiment bien lors d'accidents, contrairement à un humain ).
Avatar de sebastiano sebastiano - Membre averti https://www.developpez.com
le 26/10/2018 à 8:56
Je vais être très terre à terre, terriblement cynique, et ça vient aussi du fait que je constate de plus en plus d'incivilités et de comportements dangereux sur la route, mais si je devais coder la décision de l'IA sur qui faire mourir, je ferai en sorte qu'elle choisisse celui qui n'a pas respecté le code de la route et les priorités. C'est con, mais dans ma façon de voir les choses, j'ai du mal à saisir pourquoi une vieille femme qui se met volontairement en danger aurait plus le droit de vivre qu'un jeune homme en pleine santé qui attend sagement le piéton vert pour passer.
Avatar de Ehma Ehma - Membre actif https://www.developpez.com
le 26/10/2018 à 8:58
Ca y est, nous y sommes.

Il est vrai que l'informatique et la philosophie ont des choses communes, dont les règles d'inférence et les tables de vérité. Mais là nous nous rapprochons encore plus : Je n'aurais jamais cru que l'on parlerait un jour d'algorithme d'éthique.

J'imagine dans le future des informaticiens dire "Ouais, moi je développe des programme qui sont plutôt utilitaristes", "ah non, moi je fais plutôt dans le conséquentialisme"....

Qui l'eut cru ?
Avatar de Eric80 Eric80 - Membre habitué https://www.developpez.com
le 26/10/2018 à 9:17
+1, le questionnaire est très bancal.

Je viens de passer les questions et ai laissé ce commentaire (qui reprends les réactions ici):
questionary unclear: in the question, we are asked who to sacrifice first. Here in the last page who to save first?

Moreover, many cases are kind of wrong: the dead causality is only a probability a car can proceeds.
But we need to take account the probability the pedestrians can avoid the car: in that case, fit males are much more likely to run aside compared to older people: thus it might make more sense to let the car go over that group, hoping more people could escape. The scenarios here are missing that point and people are more likely to answer the opposite (save younger people)!

And the most likely scenario as a driver is simply to avoid any group of people and crash on the side of road, let himself as the most likely dead and save a group of people!

So the questionnaire at it is here cannot lead to any good conclusion I fear!
Avatar de vanquish vanquish - Membre éprouvé https://www.developpez.com
le 26/10/2018 à 9:32
Citation Envoyé par Ehma Voir le message
Ca y est, nous y sommes.

Il est vrai que l'informatique et la philosophie ont des choses communes, dont les règles d'inférence et les tables de vérité. Mais là nous nous rapprochons encore plus : Je n'aurais jamais cru que l'on parlerait un jour d'algorithme d'éthique.

J'imagine dans le future des informaticiens dire "Ouais, moi je développe des programme qui sont plutôt utilitaristes", "ah non, moi je fais plutôt dans le conséquentialisme"....

Qui l'eut cru ?
Le contexte est un peu particulier parce que dans cette situation particulière l'humain n'a pas de temps de réfléchir ; il agit par réflexe ou reste paralysé et ne prend donc pas une décision au sens propre.

Mais effectivement, dès que l'on sort de ce contexte débat qui oppose pragmatisme/utilitarisme et morale est vieux comme le monde.

Je ne suis pas un grand amateur de philosophie, mais je vous invite à regarder cette vidéo sur le sujet de Mr Phi avec la participation de Lê Nguyên Hoang de Scien4All (chaine sur les math et l'IA pour ceux qui ne connaissent pas ).



La vidéo vous met face à un problème qui va se complexifier peu à peu.
La décision utilitariste est toujours évidente, mais elle devient de plus en plus difficile à prendre.
J'ai trouvé l'exercice est très intéressant.

PS : je ne pensais pas que le lien allait incruster la vidéo, visiblement c'est prévu par le site lui même, alors je laisse.
Avatar de benicourt benicourt - Membre régulier https://www.developpez.com
le 26/10/2018 à 9:42
Et si on laissait les passagers décider par eux-même (comme on porte une carte de donneur d'organe ou non) ?
Si plusieurs passagers, alors si les réponses sont incompatibles, alors le véhicule doit le signaler et ne pas démarrer si un concensus n'est pas trouvé (acceptation ou prise du prochain véhicule autonome).
Allons plus loin, et si le véhicule pouvait connaitre les réponses de chacun (passagers, piétons, etc.) et faire une synthèse générale et prendre une décision en fonction ?
Avatar de sebastiano sebastiano - Membre averti https://www.developpez.com
le 26/10/2018 à 9:52
Citation Envoyé par benicourt Voir le message
Et si on laissait les passagers décider par eux-même (comme on porte une carte de donneur d'organe ou non) ?
Si plusieurs passagers, alors si les réponses sont incompatibles, alors le véhicule doit le signaler et ne pas démarrer si un concensus n'est pas trouvé (acceptation ou prise du prochain véhicule autonome).
Allons plus loin, et si le véhicule pouvait connaitre les réponses de chacun (passagers, piétons, etc.) et faire une synthèse générale et prendre une décision en fonction ?
Et s'il y a une coupure réseau au moment du choix ?
Avatar de hotcryx hotcryx - Membre extrêmement actif https://www.developpez.com
le 26/10/2018 à 10:03
Citation Envoyé par sebastiano Voir le message
Et s'il y a une coupure réseau au moment du choix ?
Lol c'est dans l'application embarquée

Par contre, la voiture pourrait tout aussi bien se prendre le mur et éviter de tuer des gens, ou d'exploser les 4 pneus ou la faire sortir de la route.
C'est d'ailleurs l'intention la plus normale.
Souvent et essaye d'éviter l'accident.

Maintenant imaginons Macron dans une file et un groupe d'enfants dans l'autre, qui va se prendre la voiture?
Contacter le responsable de la rubrique Accueil