IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les rapports évoquant un « freinage fantôme » des Tesla qui détectent des « incidents imaginaires » se multiplient :
Une Tesla en mode Full Self-Driving freine brusquement, entraînant un carambolage

Le , par Stéphane le calme

131PARTAGES

9  0 
Des images de surveillance routière montrent un véhicule Tesla Model S changeant de voie, puis freinant brusquement dans la voie la plus à gauche du pont de la baie de San Francisco, entraînant un carambolage de huit véhicules. Dix-huit personnes ont été affectées par l'accident, neuf adultes et neuf mineurs (dont un enfant de 2 ans) qui ont été traités pour blessures mineures. La circulation sur le pont a été bloquée pendant plus d'une heure.

La vidéo et les nouvelles photographies de l'accident fournissent le premier aperçu direct de ce qui s'est passé le 24 novembre, confirmant les témoignages de l'époque. Le conducteur a déclaré à la police qu'il avait utilisé la nouvelle fonction "Full Self-Driving" (FSD) de Tesla, note le rapport, avant que le « clignotant gauche de Tesla ne soit activé », que ses « freins ne soient activés », et que la voiture ne se déplace à gauche, « ralentissant à un stop directement sur la trajectoire [du deuxième véhicule] ». La Tesla est passée sur la voie rapide avant de freiner rapidement. La décélération inattendue a ensuite conduit à un carambolage de huit véhicules


Tesla a proposé son FSD en tant qu'option sur ses véhicules, les clients payant jusqu'à 10 000 dollars pour avoir la possibilité d'accéder au logiciel dès sa sortie. Mais des années se sont écoulées depuis l'introduction de cette option, et ce n'est qu'en 2020 qu'un groupe restreint de propriétaires a pu accéder à une version bêta de la fonction.

Si l'expression Full Self-Driving, littéralement « conduite autonome intégrale », laisse peu d'ambiguïté quant à ses aspirations, la technologie accomplit bien moins que ce que les mots impliquent. La FSD serait en fait une version sophistiquée de l'assistance au conducteur de niveau 2, telle que définie par SAE International, arbitre de nombreuses normes automobiles mondiales.

Bien que toujours en bêta, le prix du FSD a, quant à lui évolué : il coûtait 5 000 $ au lancement. Mais lorsque Tesla a commencé à déployer la version bêta de FSD auprès d'un groupe restreint de clients en octobre 2020, le prix est passé à 10 000 $. En septembre 2021, Tesla a commencé à ouvrir la version bêta à davantage de clients via un nouveau bouton « demande » avant d'augmenter le prix à 12 000 $ plus tôt en 2022. Puis, en août 2022, Elon Musk a annoncé que le prix allait passer à 15 000 dollars en Amérique du Nord le 5 septembre 2022 :


Il faut noter que cette annonce triomphante d'Elon Musk sur Twitter a été faite quelques heures avant l'accident. À la fin de l'année dernière, Tesla avait déployé la fonctionnalité auprès de plus de 285 000 personnes en Amérique du Nord, selon la société.


La NHTSA a ouvert une enquête sur l'incident

La National Highway Traffic Safety Administration, ou NHTSA, a déclaré qu'elle ouvrait une enquête sur l'incident. Les véhicules Tesla utilisant son système d'assistance à la conduite Autopilot ont été impliqués dans 273 accidents connus de juillet 2021 à juin de l'année dernière, selon les données de la NHTSA. Teslas représentait près de 70% des 329 accidents dans lesquels des systèmes avancés d'assistance à la conduite étaient impliqués, ainsi qu'une majorité de décès et de blessures graves qui leur sont associés, selon les données. Depuis 2016, l'agence fédérale a enquêté sur un total de 35 accidents dans lesquels les systèmes "Full Self-Driving" ou "Autopilot" de Tesla étaient probablement utilisés. Ensemble, ces accidents ont conduit à la mort de 19 personnes.

Pour ceux qui se demandent quelle est la différence entre Autopilot et Full Self-Driving, voici quelques points clés :
  • Tesla Autopilot est un système d'aide à la conduite conçu pour la conduite sur autoroute. Full Self-Driving (FSD) est le système (supposé) entièrement autonome de Tesla conçu pour la conduite urbaine.
  • Autopilot est un système d'assistance à la conduite. Il utilise des capteurs et des caméras pour aider le conducteur à rester dans sa voie, à changer automatiquement de voie, à tourner dans les virages et à s'arrêter en toute sécurité en cas d'urgence. Autopilot peut également garer votre véhicule ou vous l'amener depuis une place de stationnement.
  • FSD fonctionne sur toutes les routes dans toutes les conditions (sur le papier), de jour comme de nuit. Il ne nécessite aucune intervention de votre part pour se conduire, mais il a besoin que vous soyez prêt à tout ce qui pourrait arriver, car il vous alertera si quelque chose se produit de manière inattendue afin que vous puissiez prendre le contrôle de votre véhicule si nécessaire.
  • FSD est une fonctionnalité plus récente qui vous permet de conduire votre voiture en mode mains libres. Il comprend la direction automatique améliorée, où vous pouvez définir une destination et la voiture vous y conduira automatiquement.
  • Autopilot est livré avec chaque Tesla et peut être utilisé directement. FSD est une mise à niveau de 15 000 $ disponible uniquement aux États-Unis et n'est actuellement pas légale.

Ces derniers mois, une vague de rapports est apparue dans laquelle les conducteurs de Tesla se sont plaints d'un « freinage fantôme » soudain lorsque le véhicule est à grande vitesse, provoquant presque des accidents dans de nombreux cas. Plus de 100 plaintes de ce type ont été déposées auprès de la NHTSA en trois mois, selon le Washington Post.

Le quotidien explique que :

Teslas freine de manière inattendue en réponse à des dangers imaginaires – tels que la circulation venant en sens inverse sur des routes à deux voies – ce qui a incité leurs propriétaires terrifiés à déposer une vague de plaintes auprès de la National Highway Traffic Safety Administration au cours des trois derniers mois, selon une analyse du Washington Post des données fédérales sur la sécurité automobile.

Le phénomène, connu sous le nom de « freinage fantôme », est un problème persistant pour les véhicules Tesla.

Le constructeur automobile a été contraint de rappeler une version de son logiciel Full Self-Driving en octobre en raison de faux positifs de son système de freinage d'urgence automatique qui, selon lui, ont été déclenchés par la mise à jour logicielle. Les plaintes ont grimpé en flèche après le rappel et restent élevées, signalant l'inquiétude continue des propriétaires.

Les rapports de propriétaires de freinage fantôme à la NHTSA sont passés à 107 plaintes au cours des trois derniers mois, contre seulement 34 au cours des 22 mois précédents.

L'enfant blessé dans l'accident était un enfant de 2 ans qui a subi une écorchure à l'arrière gauche de la tête ainsi qu'une ecchymose, selon le rapport détaillé de l'incident. Sur une photographie de l'accident, une poussette est garée devant la voiture dans laquelle l'enfant a été blessé.


Un carambolage de huit voitures le 24 novembre 2022 sur le Bay Bridge de San Francisco

Alors que les constructeurs automobiles traditionnels entrent sur le marché des véhicules électriques, Tesla est de plus en plus sous pression pour se différencier. L'année dernière, Musk a déclaré que Full Self-Driving était une fonctionnalité « essentielle » à développer pour Tesla, allant jusqu'à dire : « C'est vraiment la différence entre Tesla qui vaut beaucoup d'argent ou qui vaut pratiquement zéro ».

Le terme Full Self-Driving critiqué par d'autres constructeurs automobiles

Le terme "Full Self-Driving" a été critiqué par d'autres fabricants et groupes industriels comme trompeur et même dangereux. L'année dernière, la société de technologie de conduite autonome Waymo, détenue par la société mère de Google, a annoncé qu'elle n'utiliserait plus le terme.

« Malheureusement, nous constatons que certains constructeurs automobiles utilisent le terme 'self-driving' [ndlr. auto-conduite] de manière inexacte, donnant aux consommateurs et au grand public une fausse impression des capacités de la technologie d'assistance à la conduite (pas entièrement autonome) », a écrit Waymo dans un billet de blog. « Cette fausse impression peut amener quelqu'un à prendre sans le savoir des risques (comme retirer ses mains du volant) qui pourraient mettre en péril non seulement sa propre sécurité, mais aussi celle des personnes qui l'entourent ».

Bien que Waymo ne nomme aucun nom, la déclaration semble clairement motivée par la décision controversée de Musk d'utiliser le terme Full Self Driving.

Dans le même ordre d'idées, le premier groupe de pression pour les voitures autonomes est récemment passé de l'appellation « Self-Driving Coalition for Safer Streets » à « Autonomous Vehicle Industry Association ». Le changement, a déclaré le groupe industriel, reflétait son « engagement envers la précision et la cohérence dans la façon dont l'industrie, les décideurs, les journalistes et le public parlent de la technologie de conduite autonome ».

Le secrétaire aux Transports, Pete Buttigieg, a également critiqué les technologies émergentes d'assistance à la conduite, qui, selon lui, n'ont pas remplacé le besoin d'un conducteur humain alerte : « Je n'arrête pas de le dire ; tout ce que vous pouvez acheter sur le marché aujourd'hui est une technologie d'assistance à la conduite, pas une technologie de remplacement du conducteur », a déclaré Buttigieg. « Je me fiche de comment ça s'appelle. Nous devons nous assurer que nous sommes parfaitement clairs à ce sujet, même si les entreprises ne le sont pas ».

Bien que le langage puisse évoluer, il n'y a toujours pas de restrictions fédérales sur les essais de véhicules autonomes sur la voie publique, bien que les États aient imposé des limites dans certains cas. Tesla n'a annoncé aucun changement au programme ou à son image de marque, mais le crash était l'un des multiples ce mois-là. Plusieurs jours avant l'accident de Bay Bridge, le 18 novembre dans l'Ohio, une Tesla Model 3 s'est écrasée contre un SUV de l'Ohio State Highway Patrol arrêté dont les feux de détresse clignotaient. La Tesla est également soupçonnée d'avoir été en mode Full Self-Driving et fait également l'objet d'une enquête de la NHTSA.

Sources : rapport détaillé de l'incident (au format PDF), Elon Musk, Washington Post

Et vous ?

Aviez-vous déjà entendu parler de ce phénomène de « freinage fantôme » ?
Que suggère-t-il selon vous concernant Autopilot et Full Self-Driving ?
Pour ou contre les dénominations Autopilot et Full Self-Driving ? Pourquoi ?
Que pensez-vous de la sortie de Waymo, un concurrent de Tesla, qui tacle au passage ces dénominations ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de marc.collin
Membre chevronné https://www.developpez.com
Le 11/01/2023 à 14:00
Il est temps que le gouvernement interdise que le pays devienne un jeu d'expérimentation.
C'est dangereux, il y a eu des mort et cela continue, rien n'est fait
5  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
5  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 12/01/2023 à 8:12
Citation Envoyé par nirgal76 Voir le message
Le freinage fantôme est une chose, le carambolage lui est causé par des distances de sécurités non respectées / non adaptés.
Le carambolage est causé par des distances de sécurité ET un freinage fantôme.
La combinaison freinage fantome et distance de sécurité respectée pourrait engendrer un carambolage malgré tout, il suffit que le chauffeur derrière soit peu attentif/fatigué et le temps de réaction nécessaire pour éviter le carambolage est court.

Je me souviens pendant mon stage de fin d'étude avoir eu la peur de ma vie parce qu'en rentrant, alors que je tenais bien ma distance de sécurité (les fameuses deux lignes), la voiture devant moi change de voie subitement et laisse apparaitre une voiture sans permis sur une route à 110. Cette expérience m'a marquée parce qu'elle demande de prendre une décision très vite dans un délai très court, il y avait une voiture derrière moi qui ne respectait pas les distances donc j'ai changé de voie mais je vais être honnête je n'ai pas vérifié que la voie était dispo mais la décision doit être prise en quelques secondes (sans décision je l'aurait percutée en environ 5s, 8s max).
3  0 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 20/01/2023 à 11:08
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage.

Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.

Imaginez qu'un pneu éclate sans raison sur votre voiture, vous vous seriez dirigé et arrêté de ce coté de la route.
Et oui, sauf que le FSD l'a fait pour rien et l'a fait avec une brutalité que l'on aurait pas avec un pneu qui éclate, c'est donc bien de sa faute racine et exclusive.
3  0 
Avatar de nirgal76
Membre chevronné https://www.developpez.com
Le 11/01/2023 à 15:09
Le freinage fantôme est une chose, le carambolage lui est causé par des distances de sécurités non respectées / non adaptés.
4  2 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 12/01/2023 à 15:07
Citation Envoyé par nirgal76 Voir le message
Peu importe, si chacun mets suffisamment de distance
Ben non justement.
Si l'automobiliste ne regarde que la voiture devant et ne cherche pas à anticiper plus que ça, même si toutes les voitures respectent les distances de sécurité ça peut mal finir.

Admettons que la distance entre 2 voitures sur l'autoroute soit de 73m et que ça corresponde à 2s.
Quand la première voiture se met à freiner, la voiture qui la suit ne va pas freiner instantanément, la distance entre les 2 véhicules va se réduire donc la voiture va freiner plus fort, si il y a d'autres véhicules derrière c'est de pire en pire.

Là on voit en simulation qu'un changement de file peut provoquer un arrêt.
2  0 
Avatar de pmithrandir
Expert éminent https://www.developpez.com
Le 18/01/2023 à 17:48
Pas surpris... Et je pense que le témoignage étant maintenant enregistré on va voir se multiplier les actions en justice pour demander un remboursement partiel du prix d'achat payé.

Le précédent du VW avec le trucage des émissions rejetées montre la voie légale pour obtenir de l'argent, a raison selon moi.
2  0 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 18/01/2023 à 21:44
Citation Envoyé par Uther Voir le message
Justement la distance de sécurité est censé comporter un marge suffisante pour faire tampon et que l’arrêt sec pour les premières voiture devienne de plus en plus progressif et de moins en moins dangereux au fur et a mesure que l'on s'éloigne.
Non justement.
Ce que montre Ryu2000 explique que c'est de pire en pire et le terme que vous utilisez "tampon" est bien choisi, on le rempli/consomme le tampon.
Le premier freine et la distance de secu fait le job et ensuite le "tampon" est consommé de plus en plus avec abaissement de la brutalité de la baisse de vitesse qui entraine une réaction moins rapide qui consomme le "tampon" et ceci jusqu'à ce qu'il n'y ait overflow sur le tampon et craboum.

Il y a des tonnes d'études sur le sujet, c'est sur ces mécanismes là que reposent les obligations de limitation de vitesse pour réguler le trafic et éviter les bouchons.
2  0 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 20/01/2023 à 10:13
Citation Envoyé par Stéphane le calme Voir le message
Quelle lecture en faites-vous ? Des implications potentielles pour Tesla ?
Des essais de prototypes réalisés par de simples clients sur la voie publique
Des faits tragiques qui prouvent de graves dysfonctionnement
Des faits qui montrent sans surprise qu'un conducteur sensé garder l'attention n'a plus la moindre attention quand on lui enlève la charge de la conduite.
Et maintenant la preuve de l'escroquerie quand Tesla et Musk montraient un fake du FSD.
... j'espère que ce destructeur sociétal de Musk sera enfin un peu calmé par les autorités. Le problème va bien au delà du FSD parce qu'en mentant sur le FSD Musk a pu mobiliser des investisseurs pour aller bien plus loin que le FSD dans la destruction sociétale
3  1