IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une Tesla en mode Autopilot a percuté des voitures de police malgré les gyrophares
Selon un procès

Le , par Bill Fassinou

600PARTAGES

6  0 
Tesla a entamé la livraison progressive des dernières fonctionnalités du "Full Self-Driving" (FSD), la version avancée et payante de l'Autopilot, pour ces voitures électriques. Cependant, le constructeur doit également faire face à plusieurs procès dans le cadre d'accidents graves impliquant le logiciel, dont un intenté par cinq policiers texans - après qu'une Tesla Model X en mode Autopilot a percuté des véhicules de police qui étaient stationnés et dont les gyrophares étaient allumés. Ils réclament 20 millions de dollars de dommages et intérêts à Tesla et à un restaurant local.

L'histoire remonte au mois février dernier. Le 27 février 2021, une Tesla Model X engagée en mode Autopilot et équipée du système exclusif de dispositifs de sécurité de Tesla a percuté plusieurs agents de police qui participaient à un contrôle routier dans une voie de circulation bloquée sur l'autoroute Eastex au Texas. Selon l'action en justice, tous ont été gravement blessés. Parmi les officiers figurent quatre agents du comté de Montgomery et un agent de police de Splendora. Les cinq agents de police poursuivent désormais l'entreprise pour "fraude systématique" et "défauts dans les dispositifs de sécurité de Tesla".



Selon les plaignants, « la fonctionnalité de ces dispositifs a été largement et irresponsablement surévaluée afin de gonfler le prix de l'action de Tesla et vendre plus de voitures ». Bien qu'il n'y ait pas eu de décès, la poursuite allègue que les agents ont été "gravement blessés" et qu'ils ont besoin d'être indemnisés pour "les blessures graves et les handicaps permanents qu'ils ont subis à la suite de l'accident" lorsque les véhicules stationnés ont été poussés vers l'avant et ont cogné "six personnes et un berger allemand". La plainte dit que l'officier canin Kodiak "a dû se rendre chez le vétérinaire" tandis que les six personnes ont été emmenées à l'hôpital.

Les véhicules de patrouille stationnés quant à eux "auraient été déclarés perte totale". « Même si l'Autopilot était activé à ce moment-là et que les voitures de police avaient des gyrophares, la Tesla n'a pas réussi à engager les fonctions de sécurité de l'Autopilot pour éviter l'accident », mentionne la plainte. « Le véhicule n'a pas appliqué son "freinage automatique d'urgence" pour ralentir afin d'éviter ou d'atténuer l'accident », lit-on également. La plainte a été déposée dimanche au tribunal de district du comté de Harris. Les plaignants qui ont poursuivi Tesla sont Dalton Fields, Rai Duenas, Kenneth Barnett, Chris Taylor et Daniel Santiago.

Ils poursuivent d'une part Tesla pour avoir mis sur le marché un système de sécurité prétendument "exagéré et dysfonctionnel, avec un angle mort flagrant pour les véhicules d'urgence dont les gyrophares sont activés", et le restaurant Pappas Restaurants d'autre part, alléguant que le conducteur de la Tesla avait "consommé de l'alcool au point d'être manifestement en état d'ébriété". Selon eux, le conducteur représentait à ce moment-là un danger évident pour lui-même et pour les autres, mais le restaurant a continué à lui servir de l'alcool. Son état l'aurait empêché d'appuyer en urgence sur le frein de la voiture.

Le propriétaire de la voiture n'est pas nommé dans le procès, probablement en raison de son incapacité à contribuer de manière significative aux 20 millions de dollars de dommages combinés demandés par les plaignants. Le procès prétend que la Model X, et par extension tous les autres véhicules de la société sont défectueux. « Il a été prouvé que les affirmations de Tesla [concernant l'Autopilot et le freinage d'urgence automatique] sont largement et irresponsablement exagérées, voire carrément fausses », affirment les plaignants, qui citent des commentaires de Tesla elle-même et de son directeur général Elon Musk.

Par exemple, Musk avait semblé réagir positivement à la nouvelle selon laquelle un couple s'était filmé en train de faire l'amour dans sa Tesla alors qu'elle était sous le contrôle d'Autopilot en 2019 - ce qu'avait prédit l'expert canadien en sécurité automobile Barrie Kirk environ trois ans plus tôt. « Tesla s'engage dans une fraude systématique pour gonfler le prix de l'action Tesla et vendre plus de voitures, tout en se cachant derrière des divulgations qui disent aux conducteurs que l'on ne peut pas se fier au système », allègue la poursuite. Selon la plainte, Tesla se livre à un jeu tout en sachant que les gens croient facilement ses déclarations.

« Tesla sait que les conducteurs de Tesla écoutent ces affirmations et croient que leurs véhicules sont assez équipés pour se conduire eux-mêmes, ce qui entraîne des blessures potentiellement graves ou la mort », lit-on dans le document de la plainte. Alors que d'autres auraient rejeté la responsabilité de l'accident sur le conducteur, la poursuite prétend que le problème est répandu - faisant référence à 11 autres cas de véhicules Tesla qui ont percuté l'arrière de véhicules d'urgence stationnés, apparemment en raison du fait que le système de vision basé sur une caméra a été aveuglé par leurs gyrophares.

« Il est inconcevable que le défendeur Tesla n'ait pas vu les rapports accessibles au public concernant les nombreux accidents causés par ses véhicules en relation avec des véhicules d'urgence équipés de gyrophares. Le PDG de Tesla a même qualifié l'un des systèmes d'aide à la conduite de Tesla de "pas génial". Le défendeur Tesla et le PDG de la société, Elon Musk, étaient au courant de nombreux incidents concernant le système 'Autopilot', mais n'ont pas rappelé les voitures pour corriger le problème », soulignent les plaignants. La National Highway Traffic Safety Administration (NHTSA) des États-Unis enquête actuellement sur ces collisions.

« Tesla a intentionnellement décidé de ne pas remédier à ces problèmes et doit être tenue responsable et redevable, en particulier lorsqu'elle a une connaissance détaillée des risques et des dangers associés à son système Autopilot. Tesla a admis que son système Autopilot ne parvenait pas toujours à identifier un véhicule d'urgence arrêté. Pourtant, Tesla a pris la décision de ne rappeler aucun de ses véhicules en sachant que le système Autopilot était défectueux et présentait un risque inhérent de blessure pour le public, notamment les premiers intervenants, et les conducteurs de Tesla », indique la plainte.

Face à de telles critiques, la défense habituelle de Musk est de mettre en avant des statistiques selon lesquelles le système Autopilot de Tesla est "dix fois plus sûr" qu'un véhicule sous contrôle manuel, avec un accident enregistré pour 4,19 millions de miles parcourus, contre une moyenne de la NHTSA d'un accident pour 484 000 miles. Mais selon la plainte, ces affirmations ressemblent à une "comparaison entre des pommes et des oranges", car l'Autopilot est régulièrement utilisé pendant les trajets sur autoroute, alors qu'"un grand pourcentage des accidents trouvés dans les données de la NHTSA se produisent hors autoroute".

« En outre, si l'on considère que Musk exclut les données dans lesquelles l'Autopilot est utilisé immédiatement avant l'accident, mais a été désactivé à un moment donné avant l'accident, les affirmations de Musk ne sont pas seulement peu convaincantes, elles sont trompeuses », poursuit la plainte. La plainte demande un procès devant un jury contre les deux défendeurs, et réclame 10 millions de dollars de "dommages réels pour les pertes pécuniaires, les salaires perdus, la perte de capacité de gain, l'angoisse mentale et les frais médicaux passés, présents et futurs", ainsi que 10 millions de dollars supplémentaires de dommages exemplaires.

Elle ne détaille cependant pas les blessures réelles des plaignants. « Le défendeur Tesla a recommandé, vendu et distribué le système Autopilot en cause. Le produit en question était défectueux et déraisonnablement dangereux dans sa fabrication et sa commercialisation lorsqu'il a quitté le contrôle de Tesla. Le système en cause n'a pas fonctionné en toute sécurité, comme un consommateur ordinaire s'y attendrait en l'utilisant de manière prévue et/ou raisonnablement prévisible », indique la plainte.

« Le risque de danger inhérent à la conception du système Autopilot l'emportait sur les avantages de la conception utilisée. À tous les moments pertinents et au moment du préjudice, il était raisonnablement prévisible par le défendeur que le système Autopilot fonctionnerait mal », conclut la plainte.

Source : Plainte des policiers (PDF)

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

Elon Musk lance la dernière version bêta du Full Self-Driving de Tesla et déclare qu'elle n'est "pas géniale", alors que l'entreprise avait promis d'atteindre une autonomie de niveau 5 cette année

Quels sont les scénarios dans lesquels la nouvelle mise à jour FSD Beta 9 de Tesla échoue ? Certains comportements du système seraient "carrément" dangereux

Trente accidents de Tesla liés au système de conduite assistée font l'objet d'une enquête aux États-Unis. Les accidents ont fait 10 morts depuis 2016

Tesla doit désormais signaler les accidents liés à son Autopilot au gouvernement ou s'exposer à des amendes, d'après une décision de l'agence fédérale chargée de la sécurité routière

Une étude du MIT révèle que les conducteurs de Tesla deviennent inattentifs lorsque l'Autopilot est activé et plaide en faveur de systèmes de gestion de l'attention du conducteur

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
9  0 
Avatar de Doatyn
Membre habitué https://www.developpez.com
Le 22/08/2022 à 17:07
C'est de la folie de mettre de tels systèmes défaillants sur la voie publique, presque criminel.
Quand je vois la sécurité qui est exigé pour des transports autonomes en site propre, tel que des métros ou des téléphériques, ... Tesla n'aurais jamais la moindre autorisation.
10  2 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/08/2022 à 11:24
La vraie question intéressante à mon sens est la suivante:

Est-ce que les USA appliquent une loi "Musk"?

Alors qu'un simple café-restaurant américain peut se voir condamner à des millions de dollar d'amende pour un client qui se serait brûlé la langue en buvant un café servi trop chaud, Tesla qui est déjà responsable de plusieurs dizaines de morts avec son pseudo auto-pilote n'est jamais inquiété.

Et devinez quoi? Pas une seule condamnation, pas un seul juge pour prononcer une interdiction de poursuivre des essais sur route qui ne sont d'ailleurs plus des essais puisque réalisés dans la circulation normale par des clients lambda.
10  2 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 17/10/2023 à 23:40
Citation Envoyé par Ryu2000 Voir le message
Ben justement...

Pilote automatique

Autopilot ça ne veut pas dire que ça se conduit tout seul.
Tu mets la définition de "autopilot", mais pourquoi pas la définition de "Full Self-Driving"?
Non, parce qu'il parle de ça aussi. Littéralement "Conduite autonome complète/totale"...

Tesla aurait appelé ça "Self-driving", encore, on aurait pu chipoter, et faire comme tous les constructeurs et parler de niveau 1, 2, 3, 4, 5. Mais là, c'est du foutage de gueule.
Je ré-itère: cet ingénieur est soit un menteur, soit quelqu'un qui devrait ouvrir un dictionnaire.
7  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 18/10/2023 à 22:34
Citation Envoyé par Ryu2000 Voir le message
Ça ne parle pas que de Full Self-Driving ça parle aussi d'Autopilot !
Et autopilot ça ne veut pas dire que ça se conduit tout seul.
C'est un dialogue de sourds

Citation Envoyé par Ryu2000 Voir le message
Pour Full Self-Driving je ne sais pas.
Bon après Tesla aurait du choisir des expressions plus précise pour que les gens comprennent que la voiture ne se conduit pas toute seule.
Quand une entreprise te vend son accès bêta sous le nom de Full Self-Driving, je pense que c'est fait exprès.
7  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 26/11/2021 à 12:47
Citation Envoyé par rbolan Voir le message
La meilleure manière de démontrer l’efficacité ou la dangerosité du "Full-Self Driving" de Tesla, c'est de réaliser une étude indépendante pertinente à partir d'un échantillon représentatif qui produira des résultats analysable à partir desquels une discussion pourra être faite.
Pas besoin d'étude, FSD tente - parfois - de conduire du mauvais coté de la route, se dirige - parfois - vers un chantier alors qu'il ne semble pas y avoir de raison particulière.

Je fais du vélo en ville de façon pas toujours très sûre mais, à la surprise de mes amis, j'ai assez peu d'accidents.
Ils pensent que je devrais être pour les voitures intelligentes ou autonomes mais ce n'est clairement pas le cas.
Pourquoi?
Les chauffeurs ont un regard qui me montre une infinités d'informations qui définissent la façon dont je vais réagir:
Est ce qu'il m'a vu?
Va-t-il prendre l'initiative ou attend il que j'exprime mon intention?
Veut il changer de voie? Cherche-t-il une place pour se garer?
A-t-il l'intention de me laisser passer?
A-t-il l'intention de ne surtout pas me laisser passer?
Et je peux retourner les même information:
Je veux passer devant toi, laisses moi la priorité (qui m'est souvent dues)
Avance s'il te plait, je passerais derrière toi
Ne me double pas maintenant
Tu peux me doubler
etc

Avec une voiture autonome (Tesla ou autre) aucune de cette communication n'existe alors je lui prie au moins de respecter le code de la route.
7  1 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 05/07/2022 à 19:21
Citation Envoyé par Stéphane le calme Voir le message
Qu'en pensez-vous ?
Que le titre de sa vidéo Youtube est "marrant": le gars lance un programme en beta (il met même la version dans la vidéo) sur la voie publique, et sa voiture veut traverser devant un tram qui est prioritaire et le gars écrit "train almost hits my tesla"

C'est lui et sa voiture qui font de la m..., pas le train! Et c'est sa voiture qui a failli percuter le train, et pas l'inverse
6  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 26/07/2022 à 7:27
Citation Envoyé par Bill Fassinou Voir le message
Quel est votre avis sur le sujet ?
Que pensez-vous de l'Autopilot de Tesla ?
Je ne comprends pas pourquoi un système qui ne serait pas capable de passer l'examen du permis de conduire peut être testé sur les routes par autre chose que des professionnels.
Selon vous, le logiciel est-il fiable ? Améliore-t-il réellement la sécurité sur la route ?
Un logiciel qui a tué deux motards en 1 mois?
Selon vous, qu'est-ce qui explique la grande confiance des conducteurs de Tesla dans l'Autopilot ?
Elon Musk est un gourou que certains suivent aveuglément.
Probablement l'attrait de la technologie et l'envie d'être le premier à avoir utiliser ce système fantasmé par la SF depuis des décennies.
Et peut être aussi la charge mentale dont le système libère : Certains soir je serais bien heureux que quelqu'un conduise ma voiture à ma place.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
6  0