IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une Tesla en mode Autopilot a percuté des voitures de police malgré les gyrophares
Selon un procès

Le , par Bill Fassinou

495PARTAGES

5  0 
Tesla a entamé la livraison progressive des dernières fonctionnalités du "Full Self-Driving" (FSD), la version avancée et payante de l'Autopilot, pour ces voitures électriques. Cependant, le constructeur doit également faire face à plusieurs procès dans le cadre d'accidents graves impliquant le logiciel, dont un intenté par cinq policiers texans - après qu'une Tesla Model X en mode Autopilot a percuté des véhicules de police qui étaient stationnés et dont les gyrophares étaient allumés. Ils réclament 20 millions de dollars de dommages et intérêts à Tesla et à un restaurant local.

L'histoire remonte au mois février dernier. Le 27 février 2021, une Tesla Model X engagée en mode Autopilot et équipée du système exclusif de dispositifs de sécurité de Tesla a percuté plusieurs agents de police qui participaient à un contrôle routier dans une voie de circulation bloquée sur l'autoroute Eastex au Texas. Selon l'action en justice, tous ont été gravement blessés. Parmi les officiers figurent quatre agents du comté de Montgomery et un agent de police de Splendora. Les cinq agents de police poursuivent désormais l'entreprise pour "fraude systématique" et "défauts dans les dispositifs de sécurité de Tesla".



Selon les plaignants, « la fonctionnalité de ces dispositifs a été largement et irresponsablement surévaluée afin de gonfler le prix de l'action de Tesla et vendre plus de voitures ». Bien qu'il n'y ait pas eu de décès, la poursuite allègue que les agents ont été "gravement blessés" et qu'ils ont besoin d'être indemnisés pour "les blessures graves et les handicaps permanents qu'ils ont subis à la suite de l'accident" lorsque les véhicules stationnés ont été poussés vers l'avant et ont cogné "six personnes et un berger allemand". La plainte dit que l'officier canin Kodiak "a dû se rendre chez le vétérinaire" tandis que les six personnes ont été emmenées à l'hôpital.

Les véhicules de patrouille stationnés quant à eux "auraient été déclarés perte totale". « Même si l'Autopilot était activé à ce moment-là et que les voitures de police avaient des gyrophares, la Tesla n'a pas réussi à engager les fonctions de sécurité de l'Autopilot pour éviter l'accident », mentionne la plainte. « Le véhicule n'a pas appliqué son "freinage automatique d'urgence" pour ralentir afin d'éviter ou d'atténuer l'accident », lit-on également. La plainte a été déposée dimanche au tribunal de district du comté de Harris. Les plaignants qui ont poursuivi Tesla sont Dalton Fields, Rai Duenas, Kenneth Barnett, Chris Taylor et Daniel Santiago.

Ils poursuivent d'une part Tesla pour avoir mis sur le marché un système de sécurité prétendument "exagéré et dysfonctionnel, avec un angle mort flagrant pour les véhicules d'urgence dont les gyrophares sont activés", et le restaurant Pappas Restaurants d'autre part, alléguant que le conducteur de la Tesla avait "consommé de l'alcool au point d'être manifestement en état d'ébriété". Selon eux, le conducteur représentait à ce moment-là un danger évident pour lui-même et pour les autres, mais le restaurant a continué à lui servir de l'alcool. Son état l'aurait empêché d'appuyer en urgence sur le frein de la voiture.

Le propriétaire de la voiture n'est pas nommé dans le procès, probablement en raison de son incapacité à contribuer de manière significative aux 20 millions de dollars de dommages combinés demandés par les plaignants. Le procès prétend que la Model X, et par extension tous les autres véhicules de la société sont défectueux. « Il a été prouvé que les affirmations de Tesla [concernant l'Autopilot et le freinage d'urgence automatique] sont largement et irresponsablement exagérées, voire carrément fausses », affirment les plaignants, qui citent des commentaires de Tesla elle-même et de son directeur général Elon Musk.

Par exemple, Musk avait semblé réagir positivement à la nouvelle selon laquelle un couple s'était filmé en train de faire l'amour dans sa Tesla alors qu'elle était sous le contrôle d'Autopilot en 2019 - ce qu'avait prédit l'expert canadien en sécurité automobile Barrie Kirk environ trois ans plus tôt. « Tesla s'engage dans une fraude systématique pour gonfler le prix de l'action Tesla et vendre plus de voitures, tout en se cachant derrière des divulgations qui disent aux conducteurs que l'on ne peut pas se fier au système », allègue la poursuite. Selon la plainte, Tesla se livre à un jeu tout en sachant que les gens croient facilement ses déclarations.

« Tesla sait que les conducteurs de Tesla écoutent ces affirmations et croient que leurs véhicules sont assez équipés pour se conduire eux-mêmes, ce qui entraîne des blessures potentiellement graves ou la mort », lit-on dans le document de la plainte. Alors que d'autres auraient rejeté la responsabilité de l'accident sur le conducteur, la poursuite prétend que le problème est répandu - faisant référence à 11 autres cas de véhicules Tesla qui ont percuté l'arrière de véhicules d'urgence stationnés, apparemment en raison du fait que le système de vision basé sur une caméra a été aveuglé par leurs gyrophares.

« Il est inconcevable que le défendeur Tesla n'ait pas vu les rapports accessibles au public concernant les nombreux accidents causés par ses véhicules en relation avec des véhicules d'urgence équipés de gyrophares. Le PDG de Tesla a même qualifié l'un des systèmes d'aide à la conduite de Tesla de "pas génial". Le défendeur Tesla et le PDG de la société, Elon Musk, étaient au courant de nombreux incidents concernant le système 'Autopilot', mais n'ont pas rappelé les voitures pour corriger le problème », soulignent les plaignants. La National Highway Traffic Safety Administration (NHTSA) des États-Unis enquête actuellement sur ces collisions.

« Tesla a intentionnellement décidé de ne pas remédier à ces problèmes et doit être tenue responsable et redevable, en particulier lorsqu'elle a une connaissance détaillée des risques et des dangers associés à son système Autopilot. Tesla a admis que son système Autopilot ne parvenait pas toujours à identifier un véhicule d'urgence arrêté. Pourtant, Tesla a pris la décision de ne rappeler aucun de ses véhicules en sachant que le système Autopilot était défectueux et présentait un risque inhérent de blessure pour le public, notamment les premiers intervenants, et les conducteurs de Tesla », indique la plainte.

Face à de telles critiques, la défense habituelle de Musk est de mettre en avant des statistiques selon lesquelles le système Autopilot de Tesla est "dix fois plus sûr" qu'un véhicule sous contrôle manuel, avec un accident enregistré pour 4,19 millions de miles parcourus, contre une moyenne de la NHTSA d'un accident pour 484 000 miles. Mais selon la plainte, ces affirmations ressemblent à une "comparaison entre des pommes et des oranges", car l'Autopilot est régulièrement utilisé pendant les trajets sur autoroute, alors qu'"un grand pourcentage des accidents trouvés dans les données de la NHTSA se produisent hors autoroute".

« En outre, si l'on considère que Musk exclut les données dans lesquelles l'Autopilot est utilisé immédiatement avant l'accident, mais a été désactivé à un moment donné avant l'accident, les affirmations de Musk ne sont pas seulement peu convaincantes, elles sont trompeuses », poursuit la plainte. La plainte demande un procès devant un jury contre les deux défendeurs, et réclame 10 millions de dollars de "dommages réels pour les pertes pécuniaires, les salaires perdus, la perte de capacité de gain, l'angoisse mentale et les frais médicaux passés, présents et futurs", ainsi que 10 millions de dollars supplémentaires de dommages exemplaires.

Elle ne détaille cependant pas les blessures réelles des plaignants. « Le défendeur Tesla a recommandé, vendu et distribué le système Autopilot en cause. Le produit en question était défectueux et déraisonnablement dangereux dans sa fabrication et sa commercialisation lorsqu'il a quitté le contrôle de Tesla. Le système en cause n'a pas fonctionné en toute sécurité, comme un consommateur ordinaire s'y attendrait en l'utilisant de manière prévue et/ou raisonnablement prévisible », indique la plainte.

« Le risque de danger inhérent à la conception du système Autopilot l'emportait sur les avantages de la conception utilisée. À tous les moments pertinents et au moment du préjudice, il était raisonnablement prévisible par le défendeur que le système Autopilot fonctionnerait mal », conclut la plainte.

Source : Plainte des policiers (PDF)

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

Elon Musk lance la dernière version bêta du Full Self-Driving de Tesla et déclare qu'elle n'est "pas géniale", alors que l'entreprise avait promis d'atteindre une autonomie de niveau 5 cette année

Quels sont les scénarios dans lesquels la nouvelle mise à jour FSD Beta 9 de Tesla échoue ? Certains comportements du système seraient "carrément" dangereux

Trente accidents de Tesla liés au système de conduite assistée font l'objet d'une enquête aux États-Unis. Les accidents ont fait 10 morts depuis 2016

Tesla doit désormais signaler les accidents liés à son Autopilot au gouvernement ou s'exposer à des amendes, d'après une décision de l'agence fédérale chargée de la sécurité routière

Une étude du MIT révèle que les conducteurs de Tesla deviennent inattentifs lorsque l'Autopilot est activé et plaide en faveur de systèmes de gestion de l'attention du conducteur

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de totozor
Membre éprouvé https://www.developpez.com
Le 26/11/2021 à 12:47
Citation Envoyé par rbolan Voir le message
La meilleure manière de démontrer l’efficacité ou la dangerosité du "Full-Self Driving" de Tesla, c'est de réaliser une étude indépendante pertinente à partir d'un échantillon représentatif qui produira des résultats analysable à partir desquels une discussion pourra être faite.
Pas besoin d'étude, FSD tente - parfois - de conduire du mauvais coté de la route, se dirige - parfois - vers un chantier alors qu'il ne semble pas y avoir de raison particulière.

Je fais du vélo en ville de façon pas toujours très sûre mais, à la surprise de mes amis, j'ai assez peu d'accidents.
Ils pensent que je devrais être pour les voitures intelligentes ou autonomes mais ce n'est clairement pas le cas.
Pourquoi?
Les chauffeurs ont un regard qui me montre une infinités d'informations qui définissent la façon dont je vais réagir:
Est ce qu'il m'a vu?
Va-t-il prendre l'initiative ou attend il que j'exprime mon intention?
Veut il changer de voie? Cherche-t-il une place pour se garer?
A-t-il l'intention de me laisser passer?
A-t-il l'intention de ne surtout pas me laisser passer?
Et je peux retourner les même information:
Je veux passer devant toi, laisses moi la priorité (qui m'est souvent dues)
Avance s'il te plait, je passerais derrière toi
Ne me double pas maintenant
Tu peux me doubler
etc

Avec une voiture autonome (Tesla ou autre) aucune de cette communication n'existe alors je lui prie au moins de respecter le code de la route.
7  1 
Avatar de kain_tn
Expert confirmé https://www.developpez.com
Le 05/07/2022 à 19:21
Citation Envoyé par Stéphane le calme Voir le message
Qu'en pensez-vous ?
Que le titre de sa vidéo Youtube est "marrant": le gars lance un programme en beta (il met même la version dans la vidéo) sur la voie publique, et sa voiture veut traverser devant un tram qui est prioritaire et le gars écrit "train almost hits my tesla"

C'est lui et sa voiture qui font de la m..., pas le train! Et c'est sa voiture qui a failli percuter le train, et pas l'inverse
6  0 
Avatar de totozor
Membre éprouvé https://www.developpez.com
Le 26/07/2022 à 7:27
Citation Envoyé par Bill Fassinou Voir le message
Quel est votre avis sur le sujet ?
Que pensez-vous de l'Autopilot de Tesla ?
Je ne comprends pas pourquoi un système qui ne serait pas capable de passer l'examen du permis de conduire peut être testé sur les routes par autre chose que des professionnels.
Selon vous, le logiciel est-il fiable ? Améliore-t-il réellement la sécurité sur la route ?
Un logiciel qui a tué deux motards en 1 mois?
Selon vous, qu'est-ce qui explique la grande confiance des conducteurs de Tesla dans l'Autopilot ?
Elon Musk est un gourou que certains suivent aveuglément.
Probablement l'attrait de la technologie et l'envie d'être le premier à avoir utiliser ce système fantasmé par la SF depuis des décennies.
Et peut être aussi la charge mentale dont le système libère : Certains soir je serais bien heureux que quelqu'un conduise ma voiture à ma place.
6  1 
Avatar de AoCannaille
Membre expert https://www.developpez.com
Le 10/01/2022 à 14:54
Citation Envoyé par Eric80 Voir le message
Si tout les véhicules étaient autonomes, ils communiqueraient direct entre eux, et tout le bordel serait bcp plus simple.

Reste que les piétons ne causent pas aux voitures. Quoique: on pourrait imaginer des protocoles de communication avec tout les smartphones autour.
Gare à celui qui sort dans la rue dans son smartphone ou autre appareil connecté!
Dés que ton véhicule a besoin de communiqué avec d'autre, il n'est plus autonome. Et il devient influençable et piratable. J'espère que cette solution ne sera jamais en place.
6  2 
Avatar de totozor
Membre éprouvé https://www.developpez.com
Le 06/07/2022 à 11:47
Citation Envoyé par Stéphane le calme Voir le message
Qu'en pensez-vous ?
Que le FSD conduit plus mal qu'une personne qui apprend à conduire.
Que les clients du FSD sont moins bien payés (ils ne le sont pas) qu'un instructeur d'auto école.
Qu'il n'y a même pas de signe visuel sur la voiture signalant aux autres usagers de la route que ce véhicule risque d'avoir des réactions imprévisibles.

Que cette voiture a fait au moins 3 erreurs qui auraient pu tuer des gens en 30 minutes.
Que le client semble penser que la meilleure décision est d'en faire une vidéo.
Que Tesla ne semble pas penser que c'est un problème.
Que les autorités ne semblent pas penser nécessaire d'interdire à la circulation un système qui fait rentrer un voiture dans un obstacle identifié.

Je fais partie d'une équipe qui teste les nouvelles version d'un logiciel, nous ne couvrons pas toujours tous les scénarios mais comment peut on mettre sur la route un logiciel qui fait qu'une voiture grille un feu rouge dans un carrefour avec de la circulation. Il devrait y avoir deux signaux bloquants et le scénario est très loin d'être une exception.
7  3 
Avatar de totozor
Membre éprouvé https://www.developpez.com
Le 14/07/2022 à 7:32
Citation Envoyé par Bruno Voir le message
Êtes-vous surpris par ces licenciements chez Tesla ?
Ils étaient déjà annoncé, comment être surpris?
En plus Tesla a l'air habitué des vagues de licenciements, c'est un "bon" moyen de maitriser sa charge salariale:
On vire des gens --> plus besoin de les payer
Les restants ont l'impression d'être constamment sur la sellette --> ça calme les envies d'augmentation et permet de rajouter de la pression par les managers
On "purge" la société des contestataires réels, supposés, on prévient au passage l'arrivée d'un syndicat
Citation Envoyé par Bruno Voir le message
À votre avis, comment l'autopilot de Tesla va-t-il s'améliorer si Musk vire l'équipe ?
C'est une excellente question qu'il faudrait poser à M. Musk.
Lors du dernier accident évité entre une Tesla et un tram la voiture avait bien repérée l'obstacle mais à décidé de forcer le passage ou de rentrer dedans, donc ce n'est pas un problème d'étiquetage.

Sinon ma réponse est cynique : il suffit d'embaucher une autre équipe moins chère
4  0 
Avatar de smarties
Membre chevronné https://www.developpez.com
Le 14/07/2022 à 11:03
Pour moi la conduite autonome est une utopie :
- quand un avion se pose en urgence sur une autoroute, la voiture devrait ralentir et s'arrêter mais elle doit être capable de détecter tous les éléments aériens.
- comment détecter des personnes qui jettent des pierres sur les voitures depuis un pont ?
- ...

Donc même autonome il y aura toujours des accidents.

Si des choses pouvaient être autonome ça pourrait être les trains/trams/metros (et c'est en partie le cas)
4  0 
Avatar de TJ1985
Membre expérimenté https://www.developpez.com
Le 30/07/2022 à 8:18
Tesla produit des véhicules électriques. Ils semblent agréables et en général appréciés de leurs propriétaires. Personnellement j'ai toujours eu deux réticences, la première venant de l'origine du courant consommé, l'autre motivée par la présence d'une immense télé en manière de tableau de bord. Quand je conduis, je regarde la route et le trafic.

Pourquoi s'obstiner a promettre des fonctions qui ne marchent manifestement pas, et aux dépens de vies humaines ?
Il y a quelques années Audi démontrait un système de conduite quasi-autonome sur autoroute en zone de trafic dense. C'était impressionnant et convaincant. Pourtant à ma connaissance ce système n'est toujours pas proposé à la vente et on n'en parle plus beaucoup. Pourquoi ? Peut-être sont-ils plus lucides que les gens de Tesla, peut-être que n'ayant pas de gourou pour les abriter des conséquences de leurs erreurs les ingénieurs font leur boulot ?

Lorsque je constate le comportement de mon correcteur orthographique, je me dis qu'il y a encore du chemin pour qu'un automate de prédiction basé sur des statistiques atteignent un niveau approchant l'intelligence. Alors pour conduire une voiture en milieu ouvert, avec plein de choses vivantes autour, à moi la peur !
5  1 
Avatar de 4sStylZ
Membre éprouvé https://www.developpez.com
Le 29/09/2021 à 17:56
J'ai du mal à comprendre l'attaque.

Tesla ne vend pas l'autopilot comme une voiture 100% autonome mais simplement une assistance qui est « statistiquetement » plus fiable qu'un humain lambda.

En émettant ce « disclaimer » alors c'est pas la faute de Tesla, mais celle du du mec qui devait garder les mains sur le volant. À quel moment Tesla pousse à « la fraude systématique » ?
3  0 
Avatar de kakashi99
Membre confirmé https://www.developpez.com
Le 28/10/2021 à 13:43
Mouais,

bref, rien de nouveau sous le soleil...
3  0