IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Pourquoi Tesla a-t-il cessé de publier en ligne ses statistiques relatives à la sécurité de l'Autopilot ?
Les experts pensent que cela permet à l'entreprise de cacher la défaillance de son logiciel

Le , par Bill Fassinou

133PARTAGES

6  0 
Tesla a accentué les controverses autour de l'Autopilot, son système d'aide à la conduite, en cessant de divulguer les statistiques relatives à sa sécurité. L'entreprise a rapporté les statistiques de sécurité de l'Autopilot, une fois par trimestre, à partir de 2018. Ces données mesurent le taux d'accidents par kilomètre parcouru. Mais l'année dernière, ces rapports ont cessé. Tesla n'a pas dit pourquoi il a pris cette décision, mais les critiques suggèrent que "le nombre d'accidents impliquant l'Autopilot est devenu alarmant, ce qui pourrait choquer les clients et influencer leurs comportements d'achat". L'entreprise craindrait également des recours collectifs basés sur ces chiffres.

En juin 2021, la National Highway Traffic Safety Administration (NHTSA) des États-Unis, le principal organisme de réglementation de la sécurité automobile du pays, a commencé à exiger des rapports d'accidents de la part des constructeurs automobiles qui vendent des systèmes avancés d'aide à la conduite (ADAS) tels que l'Autopilot. Elle a commencé à publier ces chiffres en juin. Et ces chiffres ne sont pas bons pour l'Autopilot. Le système d'aide à la conduite de Tesla était à l'origine de la majorité des accidents depuis le début de la période de référence. En fait, Tesla représentait les trois quarts de tous les accidents impliquant ces systèmes.

Cela représente 273 accidents sur 367 signalés entre juillet 2021 et le 15 mai 2022. La nouvelle fournit encore plus de données sapant les affirmations de sécurité de l'Autopilot. Cependant, Tesla aurait cessé de communiquer ses chiffres sur la sécurité de l'Autopilot, peu après que la NHTSA a commencé à collecter et à publier des données sur les accidents impliquant les systèmes avancés d'aide à la conduite. Tesla n'a pas dit pourquoi elle a cessé de mettre ces données en ligne, mais les critiques de l'entreprise ont une théorie sur la raison pour laquelle les chiffres sur la sécurité de l'Autopilot de Tesla ne sont plus accessibles au public.



« Parce que la situation est devenue bien pire », a déclaré Taylor Ogan, directeur général de la société de gestion de fonds Snow Bull Capital, lors d'un Twitter Spaces jeudi pour donner sa propre interprétation des chiffres sur la sécurité de l'Autopilot. Un tweet envoyé au PDG de Tesla, Elon Musk, l'invitant à faire des commentaires est resté sans réponse. Et Tesla n'emploie pas de service de relations avec les médias. Les sociétés de Musk en sont souvent dépourvues. Jeudi également, la NHTSA a annoncé qu'elle avait ajouté deux autres accidents aux dizaines d'incidents liés à la conduite automatisée de Tesla sur lesquels elle enquête déjà.

L'un d'entre eux a impliqué huit véhicules, dont une Tesla Model S, sur le pont de la baie de San Francisco le jour de la fête de Thanksgiving. En utilisant les chiffres des accidents de la NHTSA, les rapports antérieurs de Tesla, les chiffres de vente et d'autres données, Ogan a conclu que le nombre d'accidents de Tesla signalés sur les routes américaines a augmenté beaucoup plus rapidement que la croissance des ventes de Tesla. Selon lui, la croissance mensuelle moyenne des nouvelles voitures Teslas depuis que la NHTSA a émis son ordre permanent est de 6 %, alors que les statistiques d'accidents comparables ont augmenté de 21 %.

Le nombre d'accidents liés au système Autopilot de Tesla est bien plus élevé que celui des systèmes d'aide à la conduite similaires de General Motors et de Ford. Tesla a signalé 516 accidents entre juillet 2021 et novembre 2022, tandis que Ford en a signalé sept et GM deux. Certes, Tesla possède beaucoup plus de véhicules équipés de systèmes d'aide à la conduite que ses concurrents. Tesla en aurait un million, soit environ dix fois plus que Ford. Toutes choses égales par ailleurs, cela signifierait que Tesla devrait avoir un total de 70 accidents signalés par la NHTSA depuis l'été dernier pour être comparable au taux déclaré par le concurrent Ford.

Au lieu de cela, Tesla a signalé jusqu'à 516 accidents. En janvier dernier, Ross Gerber, un partisan connu de Tesla, a écrit dans un tweet : « juste pour noter. Il n'y a pas eu un seul accident ou une seule blessure depuis le lancement de la version bêta du FSD. Pas un seul. Même pas un seul. Dans ce laps de temps, vingt mille personnes sont mortes sur la route dans des accidents de voiture. Correct @elonmusk ? (On touche du bois) ». Gerber a tagué Musk dans le tweet et lui a demandé si ces statistiques étaient correctes. Musk a répondu par "exact", même si lui et la NHTSA étaient au courant d'au moins huit accidents à ce moment-là.

Depuis lors, l'action Tesla a perdu 65 % de sa valeur. Une partie de cette perte peut être attribuée à l'achat de Musk et à ses déboires ultérieurs avec Twitter, mais les chiffres liés à la sécurité ont continué à se dégrader, et les accidents de Tesla sont en hausse. Deux autres décès impliquant Tesla ont eu lieu en octobre, ce qui porte à 18 le nombre d'accidents mortels impliquant l'Autopilot depuis juillet 2021. L'enquête de la NHTSA sur Tesla continue de s'étendre. Rien que cette année, la NHTSA a enquêté sur 830 000 Teslas pour des défauts de l'Autopilot. Il n'y a pas d'informations claires sur le nombre de blessures et de décès liés à l'Autopilot.

Les statistiques d'accidents de la NHTSA dépendent en effet de la réception de données précises de la part de l'entreprise. Les rapports trimestriels de sécurité de Tesla ont toujours été controversés. Ils ont mis l'Autopilot de Tesla sous un bon jour : pour le quatrième trimestre de 2021, Tesla a signalé un accident pour 4,31 millions de kilomètres parcourus dans des voitures équipées du système Autopilot. L'entreprise a comparé ce chiffre aux statistiques gouvernementales qui indiquent un accident pour 778 922 kilomètres parcourus sur les routes du pays, tous véhicules et conducteurs confondus. Ce qui n'est pas tout accepté par les experts.

Les statisticiens ont relevé de sérieux sérieux défauts d'analyse, notamment le fait que les statistiques de Tesla concernent des voitures plus récentes conduites sur les autoroutes. Les statistiques générales du gouvernement américain incluent les voitures de tous âges sur les autoroutes, les routes rurales et les rues de quartier. En d'autres termes, Tesla fait une comparaison entre des pommes et des oranges. Le nombre de blessures et de décès liés à l'Autopilot et au FSD est inconnu - sauf, peut-être, pour Tesla. Les statistiques de sécurité publiquement disponibles sur les véhicules autonomes et semi-autonomes sont rares.



Pendant ce temps, le système de signalement des accidents aux États-Unis est ancré dans la méthodologie des années 1960. L'ordonnance de la NHTSA relative à la collecte de statistiques sur les accidents impliquant des systèmes d'assistance au conducteur, publiée en 2021, dépend de la bonne foi des constructeurs automobiles pour l'établissement de rapports précis et complets. (Musk a fait des déclarations erronées sur le bilan de sécurité du FSD dans le passé, notamment en affirmant que la technologie n'avait été impliquée dans aucun accident, alors que le dossier public indiquait clairement le contraire.)

Toutes les informations envoyées à la NHTSA ne sont pas disponibles pour un examen public. Ogan, qui conduit une Tesla équipée du FSD, a déclaré que des données publiques plus exhaustives permettraient une plus grande transparence en matière de sécurité des voitures robotisées, chez Tesla et chez d'autres constructeurs. Tesla a déjà communiqué son taux d'utilisation de l'Autopilot, mais ne le fait plus. « Je regarde les seules données disponibles », a-t-il déclaré. La Californie enquête pour savoir si Tesla violait sa règle interdisant de commercialiser des véhicules comme étant entièrement autonomes alors qu'ils ne le sont pas.

Musk a clairement déclaré que l'entreprise envisageait de développer le FSD pour créer un robotaxi entièrement autonome que les propriétaires de Tesla pourraient louer pour arrondir leurs fins de mois. Il avait promis d'en mettre un million sur les routes d'ici 2020, mais cette date est passée et il n'existe toujours pas de Tesla entièrement autonome. Mais encore, Tesla n'a pas su mettre au point un Autopilot qui inspire confiance et sur lequel les conducteurs peuvent se reposer entièrement. L'Autopilot combine un régulateur de vitesse adaptatif avec des systèmes de maintien et de changement de voie sur les autoroutes.

Le FSD est commercialisé comme un système d'IA avancée capable de rouler dans les rues d'un quartier, de s'arrêter aux feux de signalisation, de tourner dans les rues fréquentées et, d'une manière générale, de se comporter comme si la voiture se conduisait toute seule. Cependant, Tesla indique clairement que le conducteur humain doit garder le contrôle total de la voiture et qu'il est légalement responsable des accidents, y compris ceux qui entraînent des blessures et des décès. La sécurité et les capacités de la FSD sont, de l'aveu même de Musk, des préoccupations existentielles - d'autant plus que l'action Tesla continue de plonger.

Dans une interview accordée en juin à Axios, Musk a déclaré que "résoudre" le FSD est "vraiment la différence entre Tesla qui vaut beaucoup d'argent et qui vaut pratiquement zéro". Internet est rempli de vidéos sur le FSD se comportant mal - tournant dans la circulation en sens inverse, confondant les voies ferrées avec les routes, brûlant les feux rouges, etc.

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

Des véhicules Teslas exécutant Autopilot étaient impliqués dans 273 accidents signalés depuis l'année dernière, selon les données de la National Highway Traffic Safety

Tesla doit désormais signaler les accidents liés à son Autopilot au gouvernement ou s'exposer à des amendes, d'après une décision de l'agence fédérale chargée de la sécurité routière

Malgré les avertissements, de nombreuses personnes considèrent les véhicules partiellement automatisés comme des véhicules autonomes, le nom "Autopilot" peut induire les automobilistes en erreur

Tesla rappelle près de 54 000 véhicules susceptibles de ne pas respecter les panneaux d'arrêt, les Model S et Model X 2016-2022, Model 3 2017-2022 et Model Y 2020-2022 sont concernés

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
9  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 17/10/2023 à 23:40
Citation Envoyé par Ryu2000 Voir le message
Ben justement...

Pilote automatique

Autopilot ça ne veut pas dire que ça se conduit tout seul.
Tu mets la définition de "autopilot", mais pourquoi pas la définition de "Full Self-Driving"?
Non, parce qu'il parle de ça aussi. Littéralement "Conduite autonome complète/totale"...

Tesla aurait appelé ça "Self-driving", encore, on aurait pu chipoter, et faire comme tous les constructeurs et parler de niveau 1, 2, 3, 4, 5. Mais là, c'est du foutage de gueule.
Je ré-itère: cet ingénieur est soit un menteur, soit quelqu'un qui devrait ouvrir un dictionnaire.
7  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 18/10/2023 à 22:34
Citation Envoyé par Ryu2000 Voir le message
Ça ne parle pas que de Full Self-Driving ça parle aussi d'Autopilot !
Et autopilot ça ne veut pas dire que ça se conduit tout seul.
C'est un dialogue de sourds

Citation Envoyé par Ryu2000 Voir le message
Pour Full Self-Driving je ne sais pas.
Bon après Tesla aurait du choisir des expressions plus précise pour que les gens comprennent que la voiture ne se conduit pas toute seule.
Quand une entreprise te vend son accès bêta sous le nom de Full Self-Driving, je pense que c'est fait exprès.
7  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
6  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/07/2023 à 23:21
Je ne suis pas un fan de Musk, mais là franchement, il y a de quoi se marrer.

La totalité, je dis bien la totalité des fabricants de voiture falsifient la consommation réelle de leur véhicules!

Les acteurs du secteur automobile se sont mis d'accord pour établir un test de roulement pour établir la consommation moyenne au 100 km qui ne correspond en rien à l'usage normal d'une voiture... Le test a été établi pour s'assurer que la consommation au 100 km soit très inférieure à la réalité.

Tout le monde en a d'ailleurs fait la constatation: Vous achetez un voiture écolo qui indique une consommation de 4,5 litres au 100km? Quand vous vérifiez votre consommation, il s'avère que vous frôlez les 10 litres/100km. Facile ensuite pour votre concessionnaire de vous dire "Mais monsieur, madame, vous avez un usage de votre véhicule qui ne correspond pas à un usage moyen, vous faites trop de trajets en ville ou roulez trop vite sur autoroute".

Idem pour l'autonomie des véhicules électriques, l'autonomie annoncée ne correspond jamais à la réalité "Mais monsieur, madame, vous faites trop de dénivelés... Vous roulez de manière trop sportive, blablabla..."

Et je ne parle pas de la période hivernale, un jour de grand froid et l'autonomie officiellement annoncée est divisée par 2 et puis et puis... Très vite, vous êtes confronté à l'usure de vos batteries dont la capacité de charge baisse de mois en mois...
9  3 
Avatar de Darkzinus
Expert éminent sénior https://www.developpez.com
Le 05/01/2023 à 15:46
Ce que je trouve dingue dans le modèle économique de Tesla c'est que les gens achètent une voiture et un abonnement pour être bêta testeurs.
5  0 
Avatar de marc.collin
Membre émérite https://www.developpez.com
Le 11/01/2023 à 14:00
Il est temps que le gouvernement interdise que le pays devienne un jeu d'expérimentation.
C'est dangereux, il y a eu des mort et cela continue, rien n'est fait
5  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 28/06/2023 à 15:20
Le problème est même pire en fait, car dans ce cas, même le simple régulateur de vitesse avec détection de véhicule de la voiture de mon papa, aurait stoppé la voiture !
5  0