IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une Tesla en mode Autopilot a percuté des voitures de police malgré les gyrophares
Selon un procès

Le , par Bill Fassinou

290PARTAGES

5  0 
Tesla a entamé la livraison progressive des dernières fonctionnalités du "Full Self-Driving" (FSD), la version avancée et payante de l'Autopilot, pour ces voitures électriques. Cependant, le constructeur doit également faire face à plusieurs procès dans le cadre d'accidents graves impliquant le logiciel, dont un intenté par cinq policiers texans - après qu'une Tesla Model X en mode Autopilot a percuté des véhicules de police qui étaient stationnés et dont les gyrophares étaient allumés. Ils réclament 20 millions de dollars de dommages et intérêts à Tesla et à un restaurant local.

L'histoire remonte au mois février dernier. Le 27 février 2021, une Tesla Model X engagée en mode Autopilot et équipée du système exclusif de dispositifs de sécurité de Tesla a percuté plusieurs agents de police qui participaient à un contrôle routier dans une voie de circulation bloquée sur l'autoroute Eastex au Texas. Selon l'action en justice, tous ont été gravement blessés. Parmi les officiers figurent quatre agents du comté de Montgomery et un agent de police de Splendora. Les cinq agents de police poursuivent désormais l'entreprise pour "fraude systématique" et "défauts dans les dispositifs de sécurité de Tesla".



Selon les plaignants, « la fonctionnalité de ces dispositifs a été largement et irresponsablement surévaluée afin de gonfler le prix de l'action de Tesla et vendre plus de voitures ». Bien qu'il n'y ait pas eu de décès, la poursuite allègue que les agents ont été "gravement blessés" et qu'ils ont besoin d'être indemnisés pour "les blessures graves et les handicaps permanents qu'ils ont subis à la suite de l'accident" lorsque les véhicules stationnés ont été poussés vers l'avant et ont cogné "six personnes et un berger allemand". La plainte dit que l'officier canin Kodiak "a dû se rendre chez le vétérinaire" tandis que les six personnes ont été emmenées à l'hôpital.

Les véhicules de patrouille stationnés quant à eux "auraient été déclarés perte totale". « Même si l'Autopilot était activé à ce moment-là et que les voitures de police avaient des gyrophares, la Tesla n'a pas réussi à engager les fonctions de sécurité de l'Autopilot pour éviter l'accident », mentionne la plainte. « Le véhicule n'a pas appliqué son "freinage automatique d'urgence" pour ralentir afin d'éviter ou d'atténuer l'accident », lit-on également. La plainte a été déposée dimanche au tribunal de district du comté de Harris. Les plaignants qui ont poursuivi Tesla sont Dalton Fields, Rai Duenas, Kenneth Barnett, Chris Taylor et Daniel Santiago.

Ils poursuivent d'une part Tesla pour avoir mis sur le marché un système de sécurité prétendument "exagéré et dysfonctionnel, avec un angle mort flagrant pour les véhicules d'urgence dont les gyrophares sont activés", et le restaurant Pappas Restaurants d'autre part, alléguant que le conducteur de la Tesla avait "consommé de l'alcool au point d'être manifestement en état d'ébriété". Selon eux, le conducteur représentait à ce moment-là un danger évident pour lui-même et pour les autres, mais le restaurant a continué à lui servir de l'alcool. Son état l'aurait empêché d'appuyer en urgence sur le frein de la voiture.

Le propriétaire de la voiture n'est pas nommé dans le procès, probablement en raison de son incapacité à contribuer de manière significative aux 20 millions de dollars de dommages combinés demandés par les plaignants. Le procès prétend que la Model X, et par extension tous les autres véhicules de la société sont défectueux. « Il a été prouvé que les affirmations de Tesla [concernant l'Autopilot et le freinage d'urgence automatique] sont largement et irresponsablement exagérées, voire carrément fausses », affirment les plaignants, qui citent des commentaires de Tesla elle-même et de son directeur général Elon Musk.

Par exemple, Musk avait semblé réagir positivement à la nouvelle selon laquelle un couple s'était filmé en train de faire l'amour dans sa Tesla alors qu'elle était sous le contrôle d'Autopilot en 2019 - ce qu'avait prédit l'expert canadien en sécurité automobile Barrie Kirk environ trois ans plus tôt. « Tesla s'engage dans une fraude systématique pour gonfler le prix de l'action Tesla et vendre plus de voitures, tout en se cachant derrière des divulgations qui disent aux conducteurs que l'on ne peut pas se fier au système », allègue la poursuite. Selon la plainte, Tesla se livre à un jeu tout en sachant que les gens croient facilement ses déclarations.

« Tesla sait que les conducteurs de Tesla écoutent ces affirmations et croient que leurs véhicules sont assez équipés pour se conduire eux-mêmes, ce qui entraîne des blessures potentiellement graves ou la mort », lit-on dans le document de la plainte. Alors que d'autres auraient rejeté la responsabilité de l'accident sur le conducteur, la poursuite prétend que le problème est répandu - faisant référence à 11 autres cas de véhicules Tesla qui ont percuté l'arrière de véhicules d'urgence stationnés, apparemment en raison du fait que le système de vision basé sur une caméra a été aveuglé par leurs gyrophares.

« Il est inconcevable que le défendeur Tesla n'ait pas vu les rapports accessibles au public concernant les nombreux accidents causés par ses véhicules en relation avec des véhicules d'urgence équipés de gyrophares. Le PDG de Tesla a même qualifié l'un des systèmes d'aide à la conduite de Tesla de "pas génial". Le défendeur Tesla et le PDG de la société, Elon Musk, étaient au courant de nombreux incidents concernant le système 'Autopilot', mais n'ont pas rappelé les voitures pour corriger le problème », soulignent les plaignants. La National Highway Traffic Safety Administration (NHTSA) des États-Unis enquête actuellement sur ces collisions.

« Tesla a intentionnellement décidé de ne pas remédier à ces problèmes et doit être tenue responsable et redevable, en particulier lorsqu'elle a une connaissance détaillée des risques et des dangers associés à son système Autopilot. Tesla a admis que son système Autopilot ne parvenait pas toujours à identifier un véhicule d'urgence arrêté. Pourtant, Tesla a pris la décision de ne rappeler aucun de ses véhicules en sachant que le système Autopilot était défectueux et présentait un risque inhérent de blessure pour le public, notamment les premiers intervenants, et les conducteurs de Tesla », indique la plainte.

Face à de telles critiques, la défense habituelle de Musk est de mettre en avant des statistiques selon lesquelles le système Autopilot de Tesla est "dix fois plus sûr" qu'un véhicule sous contrôle manuel, avec un accident enregistré pour 4,19 millions de miles parcourus, contre une moyenne de la NHTSA d'un accident pour 484 000 miles. Mais selon la plainte, ces affirmations ressemblent à une "comparaison entre des pommes et des oranges", car l'Autopilot est régulièrement utilisé pendant les trajets sur autoroute, alors qu'"un grand pourcentage des accidents trouvés dans les données de la NHTSA se produisent hors autoroute".

« En outre, si l'on considère que Musk exclut les données dans lesquelles l'Autopilot est utilisé immédiatement avant l'accident, mais a été désactivé à un moment donné avant l'accident, les affirmations de Musk ne sont pas seulement peu convaincantes, elles sont trompeuses », poursuit la plainte. La plainte demande un procès devant un jury contre les deux défendeurs, et réclame 10 millions de dollars de "dommages réels pour les pertes pécuniaires, les salaires perdus, la perte de capacité de gain, l'angoisse mentale et les frais médicaux passés, présents et futurs", ainsi que 10 millions de dollars supplémentaires de dommages exemplaires.

Elle ne détaille cependant pas les blessures réelles des plaignants. « Le défendeur Tesla a recommandé, vendu et distribué le système Autopilot en cause. Le produit en question était défectueux et déraisonnablement dangereux dans sa fabrication et sa commercialisation lorsqu'il a quitté le contrôle de Tesla. Le système en cause n'a pas fonctionné en toute sécurité, comme un consommateur ordinaire s'y attendrait en l'utilisant de manière prévue et/ou raisonnablement prévisible », indique la plainte.

« Le risque de danger inhérent à la conception du système Autopilot l'emportait sur les avantages de la conception utilisée. À tous les moments pertinents et au moment du préjudice, il était raisonnablement prévisible par le défendeur que le système Autopilot fonctionnerait mal », conclut la plainte.

Source : Plainte des policiers (PDF)

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

Elon Musk lance la dernière version bêta du Full Self-Driving de Tesla et déclare qu'elle n'est "pas géniale", alors que l'entreprise avait promis d'atteindre une autonomie de niveau 5 cette année

Quels sont les scénarios dans lesquels la nouvelle mise à jour FSD Beta 9 de Tesla échoue ? Certains comportements du système seraient "carrément" dangereux

Trente accidents de Tesla liés au système de conduite assistée font l'objet d'une enquête aux États-Unis. Les accidents ont fait 10 morts depuis 2016

Tesla doit désormais signaler les accidents liés à son Autopilot au gouvernement ou s'exposer à des amendes, d'après une décision de l'agence fédérale chargée de la sécurité routière

Une étude du MIT révèle que les conducteurs de Tesla deviennent inattentifs lorsque l'Autopilot est activé et plaide en faveur de systèmes de gestion de l'attention du conducteur

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de totozor
Membre habitué https://www.developpez.com
Le 26/11/2021 à 12:47
Citation Envoyé par rbolan Voir le message
La meilleure manière de démontrer l’efficacité ou la dangerosité du "Full-Self Driving" de Tesla, c'est de réaliser une étude indépendante pertinente à partir d'un échantillon représentatif qui produira des résultats analysable à partir desquels une discussion pourra être faite.
Pas besoin d'étude, FSD tente - parfois - de conduire du mauvais coté de la route, se dirige - parfois - vers un chantier alors qu'il ne semble pas y avoir de raison particulière.

Je fais du vélo en ville de façon pas toujours très sûre mais, à la surprise de mes amis, j'ai assez peu d'accidents.
Ils pensent que je devrais être pour les voitures intelligentes ou autonomes mais ce n'est clairement pas le cas.
Pourquoi?
Les chauffeurs ont un regard qui me montre une infinités d'informations qui définissent la façon dont je vais réagir:
Est ce qu'il m'a vu?
Va-t-il prendre l'initiative ou attend il que j'exprime mon intention?
Veut il changer de voie? Cherche-t-il une place pour se garer?
A-t-il l'intention de me laisser passer?
A-t-il l'intention de ne surtout pas me laisser passer?
Et je peux retourner les même information:
Je veux passer devant toi, laisses moi la priorité (qui m'est souvent dues)
Avance s'il te plait, je passerais derrière toi
Ne me double pas maintenant
Tu peux me doubler
etc

Avec une voiture autonome (Tesla ou autre) aucune de cette communication n'existe alors je lui prie au moins de respecter le code de la route.
6  0 
Avatar de 4sStylZ
Membre éprouvé https://www.developpez.com
Le 29/09/2021 à 17:56
J'ai du mal à comprendre l'attaque.

Tesla ne vend pas l'autopilot comme une voiture 100% autonome mais simplement une assistance qui est « statistiquetement » plus fiable qu'un humain lambda.

En émettant ce « disclaimer » alors c'est pas la faute de Tesla, mais celle du du mec qui devait garder les mains sur le volant. À quel moment Tesla pousse à « la fraude systématique » ?
3  0 
Avatar de kakashi99
Membre confirmé https://www.developpez.com
Le 28/10/2021 à 13:43
Mouais,

bref, rien de nouveau sous le soleil...
3  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 29/09/2021 à 20:06
Alors moi je suis peut-être Bac -10 comme disent mes amis, mais moi je comprends bien le problème.

D'une part, c'est pas parce que Tesla a écrit telle ou telle phrase magique dans son contrat de licence que cela le déresponsabilise totalement. Cela serait un peu trop facile, d'autant plus que Tesla et ce qui lui fait office de patron communique beaucoup sur Twitter, notamment sur la valeur supposée de l'option, évaluée par leur super génie à 100 000$.

Ensuite, faire un système de conduite automatiquement strictement basée sur des caméras en excluant tout autre type de système, et je pense notamment à de bêtes radars, c'est d'une absurdité totale. Une caméra peut être aveuglée par une lumière soudaine, le bruit électronique de nuit peut également jouer, et enfin, les algos d'I.A. ne peuvent pas garantir d'identifier tout et n'importe quoi. Alors qu'un radar, il détecte un obstacle, et on évite de rentrer dans un obstacle. Ici, pas besoin d'I.A., pas de risque d'éblouissement, pas de bruit électronique pour le faire fonctionner. Mais c'est trop simple pour l'égo de Musk.

Enfin, on ne peut pas prétendre qu'un système d'assistance à la conduite, nécessitant néanmoins une intervention humaine, est plus fiable qu'une conduite humaine seule. En effet, si le système d'assistance est "presque" autonome, l'humain derrière son volant n'a pas grand chose à faire. Son attention va donc se réduire, c'est automatique. Le temps qu'arrive à grande vitesse l'obstacle, l'humain, endormi par le système presque automatique, n'aura pas le temps de réaction nécessaire pour freiner si le système lui-même a décidé de ne pas freiner.

Soit on fait un système parfaitement autonome, soit on fait un système qui ne l'est pas, et qui nécessite donc d'être piloté. Peut-être d'une manière simple, genre on appuie sur un bouton pour doubler, pour changer de file, pour aller à gauche ou à droite, etc. Bref, un pilotage manuel, assisté par ordinateur. Et non pas un pilotage automatique assisté par humain, parce que c'est ce que c'est Tesla, et c'est juste aberrant.

Elon Musk, en taule, avant qu'il ne tue d'autres gens.
4  3 
Avatar de lsbkf
Membre actif https://www.developpez.com
Le 30/09/2021 à 11:45
C'est assez clair que l'IA a été entraînée pour rentrer dans les voitures de police, il aurait suffi qu'un humain se dise ACAB dans le simulateur et paf. Non ?
1  0 
Avatar de AoCannaille
Membre expert https://www.developpez.com
Le 30/09/2021 à 14:02
Citation Envoyé par 4sStylZ Voir le message
À quel moment Tesla pousse à « la fraude systématique » ?
Dans le nom. "AutoPilot". En anglais, c'est un mot courant qui veut vraiment dire pilote automatique, sans ambigüité ni limite. Et le nom étant systématiquement présenté dans la fiche du véhicule, et apparaissant sur le tableau de bord systématiquement, la fraude est systèmatique. C'est tout simplement de la publicité trompeuse, voire carrément mensongère.

Ils se font emmerder autant que si un labo pharmaceutique sortait un médicament "TraitementAntiCancer" avec un asterix rappelant "Oui, enfin, ça soigne surtout les rhumes et les maux de tête. N'oubliez pas de de ne pas fumer 10 clopes par jour pour éviter de choper un cancer".

Ensuite, faire un système de conduite automatiquement strictement basée sur des caméras en excluant tout autre type de système, et je pense notamment à de bêtes radars, c'est d'une absurdité totale. Une caméra peut être aveuglée par une lumière soudaine, le bruit électronique de nuit peut également jouer, et enfin, les algos d'I.A. ne peuvent pas garantir d'identifier tout et n'importe quoi. Alors qu'un radar, il détecte un obstacle, et on évite de rentrer dans un obstacle. Ici, pas besoin d'I.A., pas de risque d'éblouissement, pas de bruit électronique pour le faire fonctionner. Mais c'est trop simple pour l'égo de Musk.
C'est surtout l'équipement en lui même est trop cher, et l'équipement pour traiter les infos résultants sont trop cher. On espère que leur intégration dans les véhicules va faire baisser le coût mais pour l'instant ce n'est pas raisonnable.
Ceci dit, je suis d'accord qu'il faut absolument multiplier les capteurs différents, Camera Visible, Caméra Thermiques, LIDAR etc. Et que tant qu'on aura pas de norme spécifique et d'autorités de certifications comme on l'a dans l'univers aéronautique (FAA, EASA), Ces voitures ne seront pour moi que des PoC plus ou moins avancés.
1  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 26/11/2021 à 1:20
de la com a l'americaine chez tesla, mais rien d'aussi fiable qu'anoncé. tout le monde le sait depuis que les tesla sont sur route.
1  0 
Avatar de vanquish
Membre expérimenté https://www.developpez.com
Le 01/10/2021 à 11:08
Citation Envoyé par Fleur en plastique Voir le message
D'une part, c'est pas parce que Tesla a écrit telle ou telle phrase magique dans son contrat de licence que cela le déresponsabilise totalement.
Je suis assez d'accord sur le fait que Tesla tient un double discours : le légal et celui de la com.
Ca ressemble à "on ne peut pas vous l'écrire, mais la voiture se conduit bel et bien toute seule".
D'ailleurs, on peut faire avancer sa Tesla sans même être dedans (depuis son téléphone).

Maintenant, il faut être complètement crétin, pour, sur route, s'en remettre à 100% au système automatique - surtout quand on connais la mauvaise réputation de fiabilité sur tout le reste.
0  0 
Avatar de kain_tn
Expert confirmé https://www.developpez.com
Le 01/10/2021 à 19:48
Citation Envoyé par vanquish Voir le message
Maintenant, il faut être complètement crétin, pour, sur route, s'en remettre à 100% au système automatique - surtout quand on connais la mauvaise réputation de fiabilité sur tout le reste.
Quand tu connais la mauvaise réputation, tu ne l'achètes probablement pas, ou plutôt, quand tu l'achètes, tu ne connais probablement pas la mauvaise réputation - un peu comme avec Apple
0  0 
Avatar de smobydick
Membre habitué https://www.developpez.com
Le 29/10/2021 à 9:30
J'avais vu plusieurs vidéos où ce freinage soudain s'était produit (alors que ce n'était pas du tout le sujet de la vidéo). Et aussi anormal soit il, les usagers n'avaient pas l'air inquiet du tout ! Au contraire ils étaient amusé. 😓
0  0