La responsabilité pénale d'Uber n'est pas engagée dans la mort de la femme fauchée par l'un de ses véhicules autonomes
Selon une décision de justice

Le , par Bill Fassinou

212PARTAGES

14  0 
Les faits remontent à mars 2018 où une voiture autonome de la firme Uber a heurté mortellement une femme dans la ville de Tempe dans l'Arizona alors qu’elle traversait en dehors d’un passage piéton. Bien qu’il y avait un conducteur humain au volant de la voiture, elle était sur contrôle informatique au moment de l’impact. L’enquête a continué jusqu’à cette semaine où dans une lettre adressée au comté de Maricopa, son homologue du comté de Yavapai a souligné qu’après toute investigation, La responsabilité pénale d'Uber n'est pas engagée dans la mort de la femme impliquée dans l’accident. Uber fait partie des nombreuses entreprises technologiques et équipementiers automobiles qui imaginent la mobilité du futur autrement. Pour elles, les voitures autonomes auront un grand rôle à jouer dans les transports de demain.

Les promoteurs de VTC et de voitures autonomes tels que Uber, Tesla et Lyft ou encore General Motors investissent des milliards de dollars dans ce domaine et nombreux de ces véhicules circulent déjà en Europe et aux États-Unis. Selon un rapport préliminaire à l’enquête du NTSB (National Transportation Safety Board), pendant les six secondes qui ont précédé l'impact, le système de conduite autonome a classé le piéton en tant qu'objet inconnu, puis en tant que véhicule, puis en tant que bicyclette. Bien que le système ait identifié la nécessité d'une manœuvre de freinage d'urgence pour atténuer une collision, le système a été configuré pour ne pas activer le freinage d'urgence lorsqu'il est piloté par l'ordinateur. En fait, le système de la voiture est conçu de manière à ce que les manœuvres d’urgence soient à la charge de l'opérateur humain. De ce fait, pourquoi dire d’une voiture incapable de prendre des décisions immédiates qu’elle est autonome ?

Ces entreprises misent énormément sur cette technologie de pilote autonome. Seulement, elle ne semble pas encore du tout indépendante de l’intervention humaine. Le NTSB écrivait que le système était en partie responsable de l'accident et n'aurait pas dû être utilisé sur la route où était survenu l'accident parce que celle-ci n'était pas adaptée à cette technologie. « La trop grande dépendance du conducteur à Autopilot a entraîné un désengagement prolongé ayant conduit à la collision », concluait l’organisme. Dans la foulée, Tesla avait fait savoir qu' « Autopilot n'est pas une technologie de conduite autonome et les conducteurs doivent bien entendu rester attentifs à tout moment pendant la conduite ». Néanmoins, pour l’affaire qui le concerne, Uber vient d’être acquitté de toute poursuite.


« Après un examen très approfondi de toutes les preuves présentées, notre bureau a déterminé qu'il n'y avait aucune raison pour engager la responsabilité pénale de la société Uber dans cette affaire », a écrit le bureau du procureur du comté de Yavapai dans une lettre au procureur du comté de Maricopa dans le lequel se trouve la ville de Tempe. Cependant, même si une grande partie de la responsabilité pourrait revenir à la conductrice de la voiture d’Uber, ce dernier ne semble pas être sortir de l’affaire pour autant, a indiqué le NPR (National Police Radio). La conductrice peut, dans les mois à venir faire face à des accusations d’homicide involontaire, mais Uber également pourrait toujours être poursuivi devant un tribunal civil et contraint de payer des dommages et intérêts. Le gouvernement pourrait éventuellement engager des poursuites pénales contre des dirigeants ou des employés d’Uber, indique le NPR.

Le NPR n’est pas le seul à émettre des réserves par rapport à la décision qui vient d’être rendue par le procureur de Yavapai. En effet, Bryant Walker Smith, professeur de droit à l'Université de Caroline du Sud, dont les recherches portent sur les systèmes de conduite automatisés, pense que la lettre du procureur ne résoudra pas l’affaire aussi facilement. « Cela n'exonère pas Uber et ne met pas la conduite de l'entreprise au-delà de toute critique. Je ne suis pas sûr que cela nous en dise beaucoup sur la responsabilité pénale, et encore moins civile, des développeurs de conduite automatisée lors d'incidents futurs », a-t-il indiqué au NPR dans un courrier électronique. Notons que quelque temps après l’accident, l'administration Trump avait autorisé plus de tests de voitures autonomes sur les routes. Le gouvernement américain avait émis comme argument que cette technologie pouvait, outre le fait de réduire les accidents, aussi améliorer la mobilité des personnes âgées, handicapées et autres personnes isolées.

Par contre, pour l’association des consommateurs, Consumer Watchdog, cette décision relève d’un mépris des éventuels risques auxquels le gouvernement expose les citoyens. « C'est une feuille de route autorisant les constructeurs à faire ce qu'ils veulent, quand ils veulent et où ils veulent, faisant de nos routes des laboratoires privés pour des voitures robots sans aucune considération pour notre sécurité », avait lancé l’association en mécontentement à la décision de l’administration dirigée par le président Trump. Pour l’heure, écrire le NPR, Smith espère bien que le rapport final du NTSB sur l'accident éclairera davantage. Aussi, aimerait-il quand même voir Uber s'excuser publiquement et expliquer ce qui s'est spécifiquement passé. « Les entreprises devraient mériter notre confiance en partie en étant franches sur leurs échecs et leurs succès », a-t-il expliqué.

Dans le rang des internautes, beaucoup désignent Uber comme le principal responsable dans cette affaire. Dire à une personne qu’une voiture est autonome joue sur sa psychologie. Cette dernière se met à l’esprit que la voiture peut tout faire, toute seule. « Alors, pourquoi lui demander encore de rester attentif ? Si une technologie n’existe pas, on ne la vend pas », s’insurgent-ils. Les procureurs ne devraient pas prendre en compte la force des entreprises pour juger des erreurs qu’elles commettent, ont-ils souligné par la suite. Pour un autre, le procureur a fait un mauvais appel. « Cette partie est une négligence absolument criminelle. Mettre en place une voiture autonome sur laquelle le freinage d'urgence n'est pas activé (apparemment parce que cela crée trop de faux positifs) est un risque injustifiable. Le freinage d’urgence devrait être la première chose à faire avant que l’ordinateur ne puisse contrôler la voiture », ajoute-t-il pour jeter la responsabilité des faits à Uber.

Rappelons qu'en janvier dernier, malgré toutes les prouesses déjà réalisées dans le domaine de l'intelligence artificielle, Luc Julia, l’un des inventeurs de l’assistant vocal Siri d’Apple, actuel vice-président innovation de Samsung Monde, et directeur du laboratoire de recherche en IA de Samsung, signe un livre décalé sur l’intelligence artificielle dans lequel il partage son opinion qui est diamétralement opposée au discours marketing ambiant sur l’IA. Il dit carrément que l'intelligence artificielle n'existe pas. Pour justifier ses propos, il dit ceci : « je suis un peu fatigué par toutes les bêtises que l’on entend depuis quelques années sur l’intelligence artificielle et j’ai voulu rétablir la vérité. On ne sait pas ce que c’est que l’intelligence donc on ne peut pas construire de l’intelligence artificielle. Ce que l’on appelle "intelligence artificielle" depuis 1956 ce sont des techniques mathématiques qui n’ont rien à voir avec l’intelligence. Il n’en reste pas moins que ces techniques (deep learning, machine learning, etc.) sont très intéressantes. Mais la machine ne crée pas, ne réfléchit pas, et les humains conservent pleinement la main sur ces techniques ».

Sources : Décision de justice, NPR

Et vous ?

Pensez-vous que les constructeurs de véhicules autonomes doivent être tenus responsables en cas d'accidents ? Pourquoi ?
Selon vous, peut-on qualifier un véhicule d'autonome s'il ne peut prendre la décision de freiner en cas de situation d'urgence ? Pourquoi ?

Voir aussi

« L'intelligence artificielle n'existe pas et la voiture autonome n'existera jamais », selon un expert en IA

Uber arrête définitivement son activité de voiture autonome en Arizona après l'accident mortel de mars et amorce une procédure de licenciements

La police a diffusé la vidéo de la collision du véhicule autonome d'Uber qui a causé la mort d'une piétonne dans la nuit de dimanche

Accident Uber : les capteurs du véhicule étaient fonctionnels, mais il y avait un problème logiciel d'après l'enquête préliminaire du NTSB

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de luigifab
Membre du Club https://www.developpez.com
Le 08/03/2019 à 17:16
De toute façon, dès qu'il s'agit de porter ses responsabilités, il y a plus personne.
Avatar de Uther
Expert éminent sénior https://www.developpez.com
Le 09/03/2019 à 7:10
Alors que pour s'exprimer sur une affaire dont on ignore les tenants et aboutissants, y'a toujours du monde.
Avatar de ddoumeche
Membre extrêmement actif https://www.developpez.com
Le 11/03/2019 à 9:16
Il me semble que le NPR fasse une analyse biaisée de la décision du bureau du procureur puisque celui-ci demande simplement des expertises supplémentaires :

Based on the entire investigation, this Office has concluded that the collision video, as it displays, likely does not accurately depict the events that occurred. We therefore recommend that the matter be furthered to the Tempe Police Department to obtain additional evidence. Specifically, we believe that an expert analysis of the video is needed. The purpose of the expert analysis is to closely match what (and when) the person sitting in the driver’s seat of the vehicle would or should have seen that night given the vehicle’s speed, lighting conditions, and other relevant factors.
Avatar de Jedai
Expert éminent https://www.developpez.com
Le 17/03/2019 à 12:12
Votre article mélange plusieurs choses...

Autopilot de Tesla n'est clairement pas un système autonome (même si leur marketing a pu être ambigu sur le sujet) et donc la responsabilité de l'utilisateur, qui possède sa voiture, reste assez clairement engagée (même si celle de Tesla ne devrait probablement pas être totalement nulle, surtout lorsqu'ils n'ont pas été très clairs dans leur présentation).

Ici on a affaire à un essai sur route d'une voiture autonome d'Uber, la conductrice "de sécurité" était une employée Uber, la voiture appartenait à Uber. La voiture était censée être réellement autonome et la conductrice n'était là que pour gérer les cas de blocage et théoriquement les urgences (sauf que lorsque ça fait plusieurs heures qu'on n'a rien eu à faire parce que la voiture s'est conduite toute seule, reconnaître une urgence et y réagir à temps est forcément une gageure...).

Parler dans un même paragraphe des deux cas est trompeur et je suis extrêmement surpris qu'Uber s'en sorte aussi bien vu les informations qu'on a eu sur son programme : diminution prématurée des passagers d'un conducteur de sécurité et d'un observateur sensé suivre le rendu des senseurs sur un écran (sur le tableau de bord...) à seulement un conducteur chargé également de la seconde tache, avertissement interne par plusieurs des experts issus d'autres programmes similaires engagés par Uber que la firme allait trop vite et trop imprudemment, désactivation du système de freinage automatique et claire défaillance et imprudence dans le logiciel Uber...

 
Contacter le responsable de la rubrique Accueil

Partenaire : Hébergement Web