IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tesla remporte une affaire judiciaire sur Autopilot liée à un décès tragique,
C'est la deuxième grande victoire d'Autopilot devant un jury en Californie cette année

Le , par Bruno

346PARTAGES

4  0 
Tesla a gagné un procès aux États-Unis contre la famille d’un conducteur tué dans un accident impliquant son système Autopilot. C’est la deuxième fois cette année que Tesla est acquitté de toute faute dans l’utilisation de sa technologie de conduite assistée. Dans cette nouvelle affaire, le jury a estimé que le conducteur était responsable de sa conduite et que le véhicule n’avait pas de défaut. Le procès a été marqué par des détails choquants sur les blessures des victimes.

Selon certains experts, l’Autopilot de Tesla, une fonction d’assistance à la conduite contestée, a obtenu un nouveau sursis. Un jury de Californie a jugé que l’Autopilot n’avait pas causé l’accident qui a eu lieu en 2019 dans le comté de Riverside et qui a coûté la vie au conducteur et blessé grièvement sa femme et son fils. Les deux rescapés de l’accident de Riverside avaient porté plainte contre Tesla en accusant l’Autopilot d’avoir fait sortir la Tesla Model 3 de Micah Lee de l’autoroute à 105 km/h avant qu’elle ne heurte un arbre et ne prenne feu.


Lee a succombé à ses blessures, et sa femme et son fils, âgé de 8 ans à l’époque, ont été sérieusement blessés ; les plaignants réclamaient donc 400 millions de dollars et des dommages-intérêts exemplaires. Mais Tesla a nié que le système Autopilot était défectueux et a affirmé que Lee avait bu de l'alcool avant l'accident. Neuf membres du jury ont donné raison à Tesla après quatre jours de délibération.

En avril, un jury de Los Angeles a estimé que l'Autopilot n'était pas responsable de la sortie de route à grande vitesse de la Model S de Justine Hsu en 2019, avant qu'elle ne percute le terre-plein central et ne la blesse au visage dans la foulée. Jonathan Michaels, l'un des avocats des plaignants, s'est dit déçu par le verdict, mais a déclaré dans un communiqué que Tesla avait été « poussée dans ses derniers retranchements » pendant le procès. « Les délibérations prolongées du jury suggèrent que le verdict laisse encore planer une ombre d'incertitude », a-t-il déclaré.

Tesla se dit juste et sécuritaire malgré les accidents mortels

Tesla a réaffirmé la qualité de ses voitures et leur contribution à la sécurité routière. « Le verdict du jury était juste », a annoncé l’entreprise dans un communiqué. D’après un rapport de 2019 de Teslarati, un média de Californie qui couvre Tesla, SpaceX et les autres initiatives d’Elon Musk, les voitures Tesla se distinguent par leur sécurité, due à leur batterie de dispositifs de sécurité actifs et passifs. Selon la société de médias, des capacités du pilote automatique aux caractéristiques de base comme le freinage d'urgence automatique, les voitures électriques Tesla sont conçues pour éviter les accidents ou protéger leurs occupants en cas d'accident inévitable.

D’après le constructeur, c’est un fait indéniable. En 2018, la Tesla Model 3 a passé les tests de collision de la National Highway Traffic Safety Administration (NHTSA) avec brio. L’entreprise a affirmé que sa voiture était « la plus sécurisée de l’histoire, avec le risque de blessure le plus bas parmi tous les véhicules évalués par la NHTSA ». Tesla a remporté un précédent procès à Los Angeles en avril, avec une stratégie consistant à dire qu'elle informe les conducteurs que sa technologie nécessite une surveillance humaine, malgré les appellations Autopilot et Full Self-Driving.

Un ingénieur de Tesla a réfuté les allégations selon lesquelles les noms Autopilot et Full Self-Driving pouvaient induire les conducteurs en erreur. Il a ajouté que la décision de baptiser ainsi le système n'était pas une tentative d'exagérer ses capacités. Ses déclarations interviennent dans le cadre d'un procès visant à déterminer si l'Autopilot était impliqué dans un accident mortel de 2019. Certains analystes ont affirmé que ces appellations rendent les conducteurs moins vigilants, causant la mort de plusieurs d'entre eux.

Au cours du procès Riverside, un avocat des plaignants a montré aux jurés une analyse de sécurité interne de Tesla datant de 2017 qui identifiait une « commande de direction incorrecte » comme un défaut, impliquant un angle « excessif » du volant. Un avocat de Tesla a déclaré que l'analyse de sécurité n'identifiait pas un défaut, mais visait plutôt à aider l'entreprise à résoudre tout problème qui pourrait théoriquement survenir avec le véhicule. Le constructeur automobile a par la suite conçu un système qui empêche Autopilot d'exécuter le virage à l'origine de l'accident.

Après le verdict, les jurés ont affirmé qu’ils croyaient que Tesla avait informé les conducteurs de son système et que la faute revenait au conducteur distrait. Bryant Walker Smith, professeur de droit à l’université de Caroline du Sud, a dit que ces deux affaires révélaient que « nos jurys croient toujours que c’est à l’humain qui est au volant de répondre de ses actes ». Certains plaignants ont accusé Autopilot d’être mal conçu, ce qui a incité les conducteurs à l’utiliser de façon incorrecte. Le jury de Riverside, toutefois, devait seulement juger si un vice de fabrication affectait la conduite. Les titres de Tesla ont terminé en hausse de 1,76 % après avoir gagné plus de 2 %.

À la barre, Eloy Rubio Blanco, ingénieur chez Tesla, a rejeté la suggestion d'un avocat plaignant selon laquelle l'entreprise avait baptisé sa fonction d'aide à la conduite Full Self-Driving (conduite autonome complète) parce qu'elle voulait faire croire que ses systèmes avaient plus de capacités que ce n'était réellement le cas. « Est-ce que je pense que nos conducteurs pensent que nos véhicules sont autonomes ? Non », a déclaré Rubio, selon une transcription du procès consultée.

Tesla face à la justice pour la mort d’un ingénieur d’Apple tué par sa Tesla

La famille de Walter Huang, un ingénieur d’Apple qui a perdu la vie en mars 2018 dans un accident de sa Tesla Model X, poursuit également Tesla. Huang, âgé de 38 ans, a été tué quand sa voiture de 2017 a quitté la route et percuté un muret en béton sur l’autoroute 101 à Mountain View. Tesla doit encore répondre à cette plainte.

Après avoir dit que l’Autopilot de Tesla était activé pendant l’accident, le conducteur a succombé à ses blessures à l’hôpital. La famille de Huang a porté plainte pour homicide involontaire devant la Cour supérieure de Californie, comté de Santa Clara. Elle affirme que le système d’assistance à la conduite de Tesla a fait des fautes qui ont provoqué l’accident mortel du propriétaire de la berline accidentée.

La poursuite allègue que le système d'aide à la conduite du pilote automatique de Tesla a mal interprété les lignes de voie, n'a pas détecté la glissière de sécurité en béton, a échoué dans le freinage et a plutôt accéléré dans la médiane. En effet, la berline en mode pilotage automatique a percuté la glissière après que Huang ait accéléré jusqu’à 71 mi/h (114 km/h). Dans un communiqué, B. Mark Fong, associé chez Minami Tamaki LLP, l'une des sociétés représentant la famille avait déclaré :

« Huang a perdu son mari et deux enfants ont perdu leur père parce que Tesla est en train de tester son logiciel Autopilot sur des pilotes actifs ». « La famille Huang veut empêcher cette tragédie d'arriver à d'autres conducteurs utilisant des véhicules Tesla ou des véhicules semi-autonomes », a-t-il ajouté.

Tesla doit faire face d’autres enquêtes

Tesla est aussi poursuivi en justice par des clients qui accusent Tesla d’avoir exagéré les performances de ses aides à la conduite. La National Highway Traffic Safety Administration mène plusieurs enquêtes, ainsi que le ministère de la Justice, sur plus de 12 accidents, dont certains fatals, où l’Autopilot de Tesla était en marche, selon les sources.

Comme dit précedemment, Tesla a remporté une victoire juridique importante aux États-Unis, en échappant à toute responsabilité dans un accident mortel impliquant son système Autopilot. C’est la deuxième fois cette année que Tesla s’en sort sans faute dans l’usage de sa technologie de conduite assistée. Le jury a considéré que le conducteur était le seul coupable de sa conduite et que le véhicule n’avait aucun vice. Le procès a révélé des détails horrifiants sur les blessures des victimes.

Toutefois, cette victoire de Tesla soulève plusieurs questions éthiques et juridiques sur l’avenir de la conduite autonome. D’une part, elle laisse croire que Tesla a mis en place des avertissements suffisants pour informer les conducteurs des limites de son système Autopilot, qui n’est pas un mode de conduite entièrement autonome, mais une aide à la conduite qui nécessite une vigilance constante. D’autre part, elle soutient que les conducteurs peuvent être tentés de faire une confiance excessive au système Autopilot, au point de se distraire ou de se déresponsabiliser. Cela pose un risque pour la sécurité routière et la protection des usagers.

Tesla devrait donc continuer à améliorer son système Autopilot, en le rendant plus fiable, plus performant et plus sûr. Tesla devrait aussi renforcer ses mesures de prévention et d’éducation, en sensibilisant les conducteurs aux bonnes pratiques et aux dangers potentiels de la conduite assistée. Tesla devrait enfin se préparer à faire face à d’autres procès, car il est probable que d’autres accidents impliquant son système Autopilot se produisent à l’avenir.

Sources : WGMT, HT Auto

Et vous ?

À votre avis, ces victoires du constructeur Tesla confirment-elles que Tesla a mis en place des avertissements suffisants pour informer les conducteurs des limites de son système Autopilot ?

Partagez-vous l'avis selon lequel la faute reviendrait aux conducteurs qui sont tentés de faire une confiance excessive au système Autopilot ?

Quels sont selon vous, les avantages et les inconvénients de la technologie Autopilot de Tesla pour la mobilité, l’environnement et la société ?

Comment Tesla peut-elle garantir la sécurité et la fiabilité de son système Autopilot face aux imprévus et aux aléas de la circulation ?

Êtes-vous pour ou contre la conduite autonome ? Pourquoi ?

Voir aussi :

Tesla poursuivi en justice dans le cadre d'une poursuite pour mort injustifiée, qui allègue que le pilote automatique a causé l'accident

Tesla manque la liste des « voitures les plus sûres » d'une compagnie d'assurance parce que ses véhicules électriques ne s'écrasent pas assez souvent, selon un rapport de Teslarati

Tesla fait face à une enquête criminelle aux États-Unis pour des allégations de conduite autonome à la suite d'accidents, dont certains mortels, impliquant Autopilot

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de petitours
Membre chevronné https://www.developpez.com
Le 12/12/2023 à 21:37
Que Tesla utilise l'argument de la liberté d'expression pour se défendre sur un dossier d'escroquerie dangereuse comme cela est sidérant mais ce n'est pas la première fois qu'ils nous montrent que les gens les intéressent bien peu.
5  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 12/12/2023 à 10:22
ça alors, les gens ne lisent pas la documentation? Quelle surprise! Et parmi ceux qui la lisent, peu en tiennent compte ?

Mais ça doit être une spécificité du monde automobile, je ne constate absolument pas ça au quotidien.
2  0 
Avatar de Axel Mattauch
Membre averti https://www.developpez.com
Le 14/02/2024 à 11:46
Citation Envoyé par grunk Voir le message
Rappel c'est un bien grand mot , il vont juste pousser une màj sur les véhicule comme il le font en permanence.
...et remplacer un ancien bug par un nouveau.
C'est ce que font la plupart des mises à jour.
2  0 
Avatar de grunk
Modérateur https://www.developpez.com
Le 14/12/2023 à 9:26
Rappel c'est un bien grand mot , il vont juste pousser une màj sur les véhicule comme il le font en permanence.
1  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 14/02/2024 à 12:02
On nous a vendu un faux sentiment de sécurité
aux français aussi, bienvenue au club
1  0 
Avatar de domi65
Membre éclairé https://www.developpez.com
Le 04/02/2024 à 12:52
La NHTSA a dû se conformer à la loi sur la sécurité des véhicules, qui protège la confidentialité des entreprises.
Sommes-nous dans un mode orwellien ?

Une loi censée améliorer la sécurité des véhicules s'occupe en fait de protéger les intérêts des entreprises ?
1  1 
Avatar de unanonyme
Membre éclairé https://www.developpez.com
Le 04/02/2024 à 13:32
Non c'est le fonctionnement normal des USA, et de la privatisation en général.

Les entreprises financent les autorités qui les régulent,
ce sont les entreprises qui évaluent et rapportent sur la qualité
et la nocivité de leurs produits.

La NHTSA publie les données que les fabricants de voitures lui fournissent sur les accidents liés à des systèmes comme l’Autopilot de Tesla.
Selon le New Yorker, Tesla aurait demandé aux autorités de sécurité routière de ne pas divulguer les informations relatives à l’usage de ses logiciels d’assistance à la conduite lors d’accidents.
Ce qui fait dire,
Cette pratique pose problème quant à la transparence et la responsabilité de l’entreprise,
Alors qu'il faudrait s'interroger à la qualité de l'outil réglementaire
à atteindre l'objectif que celui ci doit bien avoir inscrit quelque part
dans ces articles constituant.

En résumé, tout fonctionne comme il se doit
puisque c'est ainsi que les choses ont été faites pour fonctionner,
même si par ailleurs,
ça semble aberrant.
0  1 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 04/02/2024 à 18:51
La vidéos sur les crashes est juste incroyable tellement les comportements de la voiture sont inadaptés. Il y a des trucs ou ça semble avoir mal ou pas vu mais il y a pire dans les cas où elle a manifestement bien vu mais réagit n'importe comment en continuant là ou il ne faut pas, en faisant une embardée super brutale au point de perdre le contrôle du véhicule...
Rien que ces quelques exemples devraient suffire à n'importe quelle autorité pour interdire tous les "essais" confiés aux clients plutôt qu'à des pilotes d'essai formés et équipés.
Je me doutais que le pilotage "autonome" et en particulier celui des Tesla basé sur des cameras ne valait pas un clou mais je ne pensais pas que c’était à ce point.
0  1