IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tesla remporte une affaire judiciaire sur Autopilot liée à un décès tragique,
C'est la deuxième grande victoire d'Autopilot devant un jury en Californie cette année

Le , par Bruno

351PARTAGES

4  0 
Tesla a gagné un procès aux États-Unis contre la famille d’un conducteur tué dans un accident impliquant son système Autopilot. C’est la deuxième fois cette année que Tesla est acquitté de toute faute dans l’utilisation de sa technologie de conduite assistée. Dans cette nouvelle affaire, le jury a estimé que le conducteur était responsable de sa conduite et que le véhicule n’avait pas de défaut. Le procès a été marqué par des détails choquants sur les blessures des victimes.

Selon certains experts, l’Autopilot de Tesla, une fonction d’assistance à la conduite contestée, a obtenu un nouveau sursis. Un jury de Californie a jugé que l’Autopilot n’avait pas causé l’accident qui a eu lieu en 2019 dans le comté de Riverside et qui a coûté la vie au conducteur et blessé grièvement sa femme et son fils. Les deux rescapés de l’accident de Riverside avaient porté plainte contre Tesla en accusant l’Autopilot d’avoir fait sortir la Tesla Model 3 de Micah Lee de l’autoroute à 105 km/h avant qu’elle ne heurte un arbre et ne prenne feu.


Lee a succombé à ses blessures, et sa femme et son fils, âgé de 8 ans à l’époque, ont été sérieusement blessés ; les plaignants réclamaient donc 400 millions de dollars et des dommages-intérêts exemplaires. Mais Tesla a nié que le système Autopilot était défectueux et a affirmé que Lee avait bu de l'alcool avant l'accident. Neuf membres du jury ont donné raison à Tesla après quatre jours de délibération.

En avril, un jury de Los Angeles a estimé que l'Autopilot n'était pas responsable de la sortie de route à grande vitesse de la Model S de Justine Hsu en 2019, avant qu'elle ne percute le terre-plein central et ne la blesse au visage dans la foulée. Jonathan Michaels, l'un des avocats des plaignants, s'est dit déçu par le verdict, mais a déclaré dans un communiqué que Tesla avait été « poussée dans ses derniers retranchements » pendant le procès. « Les délibérations prolongées du jury suggèrent que le verdict laisse encore planer une ombre d'incertitude », a-t-il déclaré.

Tesla se dit juste et sécuritaire malgré les accidents mortels

Tesla a réaffirmé la qualité de ses voitures et leur contribution à la sécurité routière. « Le verdict du jury était juste », a annoncé l’entreprise dans un communiqué. D’après un rapport de 2019 de Teslarati, un média de Californie qui couvre Tesla, SpaceX et les autres initiatives d’Elon Musk, les voitures Tesla se distinguent par leur sécurité, due à leur batterie de dispositifs de sécurité actifs et passifs. Selon la société de médias, des capacités du pilote automatique aux caractéristiques de base comme le freinage d'urgence automatique, les voitures électriques Tesla sont conçues pour éviter les accidents ou protéger leurs occupants en cas d'accident inévitable.

D’après le constructeur, c’est un fait indéniable. En 2018, la Tesla Model 3 a passé les tests de collision de la National Highway Traffic Safety Administration (NHTSA) avec brio. L’entreprise a affirmé que sa voiture était « la plus sécurisée de l’histoire, avec le risque de blessure le plus bas parmi tous les véhicules évalués par la NHTSA ». Tesla a remporté un précédent procès à Los Angeles en avril, avec une stratégie consistant à dire qu'elle informe les conducteurs que sa technologie nécessite une surveillance humaine, malgré les appellations Autopilot et Full Self-Driving.

Un ingénieur de Tesla a réfuté les allégations selon lesquelles les noms Autopilot et Full Self-Driving pouvaient induire les conducteurs en erreur. Il a ajouté que la décision de baptiser ainsi le système n'était pas une tentative d'exagérer ses capacités. Ses déclarations interviennent dans le cadre d'un procès visant à déterminer si l'Autopilot était impliqué dans un accident mortel de 2019. Certains analystes ont affirmé que ces appellations rendent les conducteurs moins vigilants, causant la mort de plusieurs d'entre eux.

Au cours du procès Riverside, un avocat des plaignants a montré aux jurés une analyse de sécurité interne de Tesla datant de 2017 qui identifiait une « commande de direction incorrecte » comme un défaut, impliquant un angle « excessif » du volant. Un avocat de Tesla a déclaré que l'analyse de sécurité n'identifiait pas un défaut, mais visait plutôt à aider l'entreprise à résoudre tout problème qui pourrait théoriquement survenir avec le véhicule. Le constructeur automobile a par la suite conçu un système qui empêche Autopilot d'exécuter le virage à l'origine de l'accident.

Après le verdict, les jurés ont affirmé qu’ils croyaient que Tesla avait informé les conducteurs de son système et que la faute revenait au conducteur distrait. Bryant Walker Smith, professeur de droit à l’université de Caroline du Sud, a dit que ces deux affaires révélaient que « nos jurys croient toujours que c’est à l’humain qui est au volant de répondre de ses actes ». Certains plaignants ont accusé Autopilot d’être mal conçu, ce qui a incité les conducteurs à l’utiliser de façon incorrecte. Le jury de Riverside, toutefois, devait seulement juger si un vice de fabrication affectait la conduite. Les titres de Tesla ont terminé en hausse de 1,76 % après avoir gagné plus de 2 %.

À la barre, Eloy Rubio Blanco, ingénieur chez Tesla, a rejeté la suggestion d'un avocat plaignant selon laquelle l'entreprise avait baptisé sa fonction d'aide à la conduite Full Self-Driving (conduite autonome complète) parce qu'elle voulait faire croire que ses systèmes avaient plus de capacités que ce n'était réellement le cas. « Est-ce que je pense que nos conducteurs pensent que nos véhicules sont autonomes ? Non », a déclaré Rubio, selon une transcription du procès consultée.

Tesla face à la justice pour la mort d’un ingénieur d’Apple tué par sa Tesla

La famille de Walter Huang, un ingénieur d’Apple qui a perdu la vie en mars 2018 dans un accident de sa Tesla Model X, poursuit également Tesla. Huang, âgé de 38 ans, a été tué quand sa voiture de 2017 a quitté la route et percuté un muret en béton sur l’autoroute 101 à Mountain View. Tesla doit encore répondre à cette plainte.

Après avoir dit que l’Autopilot de Tesla était activé pendant l’accident, le conducteur a succombé à ses blessures à l’hôpital. La famille de Huang a porté plainte pour homicide involontaire devant la Cour supérieure de Californie, comté de Santa Clara. Elle affirme que le système d’assistance à la conduite de Tesla a fait des fautes qui ont provoqué l’accident mortel du propriétaire de la berline accidentée.

La poursuite allègue que le système d'aide à la conduite du pilote automatique de Tesla a mal interprété les lignes de voie, n'a pas détecté la glissière de sécurité en béton, a échoué dans le freinage et a plutôt accéléré dans la médiane. En effet, la berline en mode pilotage automatique a percuté la glissière après que Huang ait accéléré jusqu’à 71 mi/h (114 km/h). Dans un communiqué, B. Mark Fong, associé chez Minami Tamaki LLP, l'une des sociétés représentant la famille avait déclaré :

« Huang a perdu son mari et deux enfants ont perdu leur père parce que Tesla est en train de tester son logiciel Autopilot sur des pilotes actifs ». « La famille Huang veut empêcher cette tragédie d'arriver à d'autres conducteurs utilisant des véhicules Tesla ou des véhicules semi-autonomes », a-t-il ajouté.

Tesla doit faire face d’autres enquêtes

Tesla est aussi poursuivi en justice par des clients qui accusent Tesla d’avoir exagéré les performances de ses aides à la conduite. La National Highway Traffic Safety Administration mène plusieurs enquêtes, ainsi que le ministère de la Justice, sur plus de 12 accidents, dont certains fatals, où l’Autopilot de Tesla était en marche, selon les sources.

Comme dit précedemment, Tesla a remporté une victoire juridique importante aux États-Unis, en échappant à toute responsabilité dans un accident mortel impliquant son système Autopilot. C’est la deuxième fois cette année que Tesla s’en sort sans faute dans l’usage de sa technologie de conduite assistée. Le jury a considéré que le conducteur était le seul coupable de sa conduite et que le véhicule n’avait aucun vice. Le procès a révélé des détails horrifiants sur les blessures des victimes.

Toutefois, cette victoire de Tesla soulève plusieurs questions éthiques et juridiques sur l’avenir de la conduite autonome. D’une part, elle laisse croire que Tesla a mis en place des avertissements suffisants pour informer les conducteurs des limites de son système Autopilot, qui n’est pas un mode de conduite entièrement autonome, mais une aide à la conduite qui nécessite une vigilance constante. D’autre part, elle soutient que les conducteurs peuvent être tentés de faire une confiance excessive au système Autopilot, au point de se distraire ou de se déresponsabiliser. Cela pose un risque pour la sécurité routière et la protection des usagers.

Tesla devrait donc continuer à améliorer son système Autopilot, en le rendant plus fiable, plus performant et plus sûr. Tesla devrait aussi renforcer ses mesures de prévention et d’éducation, en sensibilisant les conducteurs aux bonnes pratiques et aux dangers potentiels de la conduite assistée. Tesla devrait enfin se préparer à faire face à d’autres procès, car il est probable que d’autres accidents impliquant son système Autopilot se produisent à l’avenir.

Sources : WGMT, HT Auto

Et vous ?

À votre avis, ces victoires du constructeur Tesla confirment-elles que Tesla a mis en place des avertissements suffisants pour informer les conducteurs des limites de son système Autopilot ?

Partagez-vous l'avis selon lequel la faute reviendrait aux conducteurs qui sont tentés de faire une confiance excessive au système Autopilot ?

Quels sont selon vous, les avantages et les inconvénients de la technologie Autopilot de Tesla pour la mobilité, l’environnement et la société ?

Comment Tesla peut-elle garantir la sécurité et la fiabilité de son système Autopilot face aux imprévus et aux aléas de la circulation ?

Êtes-vous pour ou contre la conduite autonome ? Pourquoi ?

Voir aussi :

Tesla poursuivi en justice dans le cadre d'une poursuite pour mort injustifiée, qui allègue que le pilote automatique a causé l'accident

Tesla manque la liste des « voitures les plus sûres » d'une compagnie d'assurance parce que ses véhicules électriques ne s'écrasent pas assez souvent, selon un rapport de Teslarati

Tesla fait face à une enquête criminelle aux États-Unis pour des allégations de conduite autonome à la suite d'accidents, dont certains mortels, impliquant Autopilot

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de petitours
Membre chevronné https://www.developpez.com
Le 12/12/2023 à 21:37
Que Tesla utilise l'argument de la liberté d'expression pour se défendre sur un dossier d'escroquerie dangereuse comme cela est sidérant mais ce n'est pas la première fois qu'ils nous montrent que les gens les intéressent bien peu.
5  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 12/12/2023 à 10:22
ça alors, les gens ne lisent pas la documentation? Quelle surprise! Et parmi ceux qui la lisent, peu en tiennent compte ?

Mais ça doit être une spécificité du monde automobile, je ne constate absolument pas ça au quotidien.
2  0 
Avatar de Axel Mattauch
Membre averti https://www.developpez.com
Le 14/02/2024 à 11:46
Citation Envoyé par grunk Voir le message
Rappel c'est un bien grand mot , il vont juste pousser une màj sur les véhicule comme il le font en permanence.
...et remplacer un ancien bug par un nouveau.
C'est ce que font la plupart des mises à jour.
2  0 
Avatar de grunk
Modérateur https://www.developpez.com
Le 14/12/2023 à 9:26
Rappel c'est un bien grand mot , il vont juste pousser une màj sur les véhicule comme il le font en permanence.
1  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 14/02/2024 à 12:02
On nous a vendu un faux sentiment de sécurité
aux français aussi, bienvenue au club
1  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 14/03/2024 à 10:54
Citation Envoyé par Stéphane le calme Voir le message
Quelle est votre opinion sur les résultats de l’étude de l’IIHS concernant les systèmes de conduite automatisée partielle ?
on savait déjà que ça coute une blinde, se montre non rentable et que presque personne n'en veut aussi parce que ça ne fonctionne pas et qu'en plus les constructeurs voudraient que l'utilisateur soit responsable des arbitrages techniques et comportementaux des constructeurs. Rien de neuf donc pas de surprise dans les résultats de l’étude.

Citation Envoyé par Stéphane le calme Voir le message
Pensez-vous que la technologie de conduite automatisée est prête pour une utilisation généralisée ou nécessite-t-elle encore des améliorations significatives ?
Drôle de question vu que c'est l'objet du fil que de parler du fait que ça ne fait pas le job, que pour faire le job il faudrait des trucs super couteux et que c'est un casse tête juridique a tel point que bon nombre d'acteurs s'interroge sur l'intéret à s'acharner sur le sujet. Non la techno n'est pas prête et elle est très loin de l'être.
Citation Envoyé par Stéphane le calme Voir le message
Comment les constructeurs automobiles peuvent-ils améliorer la surveillance du conducteur pour garantir une utilisation sûre des systèmes de conduite automatisée ?
Laisser le conducteur conduire pour que son attention soit normale. On ne peut pas faire 99% du job du conducteur et lui demander d'être 100% concentré pour gérer le 1% qui reste. La conduite assisté peut apporter beaucoup par l’apport d'informations et autres assistances au conducteur, sans pour autant conduire à sa place, ce qui n'a pas d’intérêt à part zapper son attention qui est toujours exigée.
Citation Envoyé par Stéphane le calme Voir le message
Quelles mesures devraient être prises pour renforcer la confiance du public dans les technologies de conduite automatisée ?
1) Comprendre que depuis des décennies les pubs sur les voitures parlent de "plaisir de conduire"
2) Comprendre qu'une IA a besoin de valider ses données et a donc besoin de plusieurs sources de données concurrentes ; de simples cameras bon marché seules ne permettront jamais la conduite autonome
3) Comprendre que personne n'a envie de payer une blinde pour un truc qui ne lui apporte rien.
4) Comprendre que seul le constructeur peut être responsable des accidents, sauf a laisser l'utilisateur choisir le comportement de la machine
5) Comprendre que tout le monde a déjà eu un appareil en panne et que au fond de nous on sait tous qu'une voiture qui part dans le décors ça fait mal, personne ne pourra jamais lutter contre ce biais psychologique, surtout après l'épisode Musk qui ment sur les accidents.
6) Faire des systèmes qui aident le conducteur mais ne conduisent pas à sa place.
7) éventuellement faire des systèmes en environnement contrôlé, une file de voiture dédiée aux véhicules compatibles ou chaque véhicule apporte l'information à l'ensemble du convoi et s'accorde à l'ensemble du convoi (c'est le modèle du train, la faculté à rester sur la route en plus, on sait faire)

Citation Envoyé par Stéphane le calme Voir le message
Le classement de Tesla en tant que pire système évalué vous surprend-il ? Pourquoi ou pourquoi pas ?
bien sur que non, faire le choix de ne conserver que des caméras, pour le coût et pour ne pas perturber le beau design du véhicule ne pouvait pas être efficace et ne pouvait tenir que le temps que le mensonge sur les chiffres ne reste secret.

Citation Envoyé par Stéphane le calme Voir le message
Quel rôle les régulateurs et les organismes de sécurité devraient-ils jouer dans l’évaluation et l’approbation des systèmes de conduite automatisée ?
en premier lieu, interdire totalement et sans restriction les essais confiés aux utilisateurs comme le fait Tesla. Sur le modèle de ce qui se fait en aéronautique la validation des équipements et logiciels est rigoureux avant mise en production et n'est pas modifié OTA au bon vouloir d'un doigt carré dans un bureau.
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 14/03/2024 à 14:00
Citation Envoyé par petitours Voir le message
Sur le modèle de ce qui se fait en aéronautique la validation des équipements et logiciels est rigoureux avant mise en production et n'est pas modifié OTA au bon vouloir d'un doigt carré dans un bureau.
Musk aurait-il racheter Boeing ?
1  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 16/04/2024 à 7:53
Citation Envoyé par Mathis Lucas Voir le message
Les critiques ont rapporté notamment que leurs voitures heurtent les bordures de trottoir lorsqu'elles tentent de tourner en mode Full Self-Driving.
Faites confiance au FSD il est plus performants que le chauffeur d'auto école à sa première de conduite moyen.
Selon de nombreux internautes, la solution consiste à suivre les recommandations de Tesla et à superviser le FSD pendant qu'il roule. (Ils doivent garder en permanence les mains sur le volant.)
Le FSD fonctionne très bien si vous conduisez en parallèle de lui.
Musk et Tesla n'ont pas répondu aux commentaires des internautes sur les performances médiocres du FSD.
Fake it, till you make it, bro.
C'est marrant comme Musk, très bavard est muet dans certaines situations...
L'ancienne conseillère principale en matière de sécurité de la NHTSA, Missy Cummings, a noté que l'augmentation des accidents de Tesla était troublante. « Tesla connaît plus d'accidents graves - et mortels - que les personnes dans un ensemble de données normal », a-t-elle déclaré. Selon Cummings, l'une des causes probables est le déploiement à grande échelle du FSD [dont le nom signifie littéralement "conduite entièrement autonome"]. « Le fait est que n'importe qui et tout le monde peut l'avoir. Est-il raisonnable de s'attendre à ce que cela entraîne une augmentation des taux d'accidents ? Bien sûr, absolument ».
Ah bon, en plus statistiquement le FSD est plus mauvais que le conducteur moyen?
Et la NHTSA constate ça mais n'agit pas? Je ne comprend décidément pas les USA et leur règlementation

Je ne comprends pas comment le FSD peut heurter des trottoirs, c'est quand même l'un des éléments de l'environnement automobile le plus courant et en plus il est particulièrement fixe.
1  0 
Avatar de domi65
Membre éclairé https://www.developpez.com
Le 04/02/2024 à 12:52
La NHTSA a dû se conformer à la loi sur la sécurité des véhicules, qui protège la confidentialité des entreprises.
Sommes-nous dans un mode orwellien ?

Une loi censée améliorer la sécurité des véhicules s'occupe en fait de protéger les intérêts des entreprises ?
1  1 
Avatar de unanonyme
Membre éclairé https://www.developpez.com
Le 04/02/2024 à 13:32
Non c'est le fonctionnement normal des USA, et de la privatisation en général.

Les entreprises financent les autorités qui les régulent,
ce sont les entreprises qui évaluent et rapportent sur la qualité
et la nocivité de leurs produits.

La NHTSA publie les données que les fabricants de voitures lui fournissent sur les accidents liés à des systèmes comme l’Autopilot de Tesla.
Selon le New Yorker, Tesla aurait demandé aux autorités de sécurité routière de ne pas divulguer les informations relatives à l’usage de ses logiciels d’assistance à la conduite lors d’accidents.
Ce qui fait dire,
Cette pratique pose problème quant à la transparence et la responsabilité de l’entreprise,
Alors qu'il faudrait s'interroger à la qualité de l'outil réglementaire
à atteindre l'objectif que celui ci doit bien avoir inscrit quelque part
dans ces articles constituant.

En résumé, tout fonctionne comme il se doit
puisque c'est ainsi que les choses ont été faites pour fonctionner,
même si par ailleurs,
ça semble aberrant.
1  1