Le logiciel « full-self-driving » de Tesla aurait provoqué un accident impliquant huit voitures
Le conducteur a déclaré à la police que « le logiciel de conduite autonome avait mal fonctionné »
Le 2022-12-23 05:08:25, par Bruno, Chroniqueur Actualités
Un conducteur a déclaré aux autorités que le logiciel « full-self-driving » de sa Tesla avait freiné de manière inattendue et provoqué un carambolage de huit voitures dans la baie de San Francisco le mois dernier. Neuf personnes ont été traitées pour des blessures legères, dont un mineur qui a été hospitalisé, selon un rapport d'accident de la California Highway Patrol. Selon un rapport de police rendu public mercredi, le conducteur de la Tesla Model S de 2021 impliquée dans l’accident a déclaré à la police qu'il était en mode de conduite autonome intégrale (FSD) qui avait mal fonctionné.
Le directeur général Elon Musk a présenté le logiciel de conduite autonome de Tesla comme une vache à lait potentielle pour le plus grand constructeur de voitures électriques du monde. Mais les systèmes avancés d'aide à la conduite de Tesla - et les affirmations de Musk à leur sujet - font l'objet d'une surveillance juridique, réglementaire et publique croissante.
Le mois dernier, Tesla a déclaré aux autorités américaines de réglementation de la sécurité automobile qu'elle avait reçu des rapports faisant état de deux nouveaux accidents mortels liés à des systèmes avancés d'aide à la conduite dans ses voitures Tesla Model 3, selon des données publiées mardi par le gouvernement.
La National Highway Traffic Safety Administration (NHTSA) a commencé en juin à publier les données fournies par les constructeurs automobiles sur les rapports d'accidents liés à des systèmes d'aide à la conduite comme le système Autopilot de Tesla. Elle a publié un décret en juin 2021 exigeant des constructeurs automobiles et des entreprises technologiques qu'ils signalent immédiatement tous les accidents impliquant des systèmes avancés d'aide à la conduite (ADAS) et des véhicules équipés de systèmes de conduite automatisée testés sur la voie publique.
« La surveillance de la NHTSA ne se limite pas aux accidents spécifiés discutés dans l'ordonnance ou aux informations soumises dans le cadre de ses obligations de déclaration. L'examen et l'analyse de la NHTSA incluront toutes les informations et tous les incidents relatifs à tout défaut de sécurité potentiel. De plus, la NHTSA peut prendre d'autres mesures en cas d'accident individuel, notamment en envoyant une équipe d'enquête spéciale sur les accidents et en exigeant de l'entreprise qu'elle fournisse des informations supplémentaires. La NHTSA peut également ouvrir des enquêtes sur les défauts, le cas échéant ».
Dans le cas de l’accident du jour de Thanksgiving sur l'Interstate-80 près de Treasure Island, la California Highway Patrol a examiné des vidéos montrant le véhicule Tesla en train de changer de voie et de ralentir pour s'arrêter. Deux voies de circulation ont été fermées pendant environ 90 minutes alors que de nombreuses personnes se rendaient à des événements de vacances. Quatre ambulances ont été appelées sur les lieux.
Le carambolage a eu lieu quelques heures seulement après que le PDG de Tesla, Elon Musk, eut annoncé que le logiciel d'aide à la conduite « full self-driving » de Tesla était disponible pour toute personne en Amérique du Nord qui en faisait la demande. Tesla avait auparavant limité l'accès aux conducteurs ayant obtenu des scores de sécurité élevés dans son système d'évaluation.
« La version bêta de la conduite autonome complète de Tesla est désormais disponible pour toute personne en Amérique du Nord qui en fait la demande », a tweeté Musk, « en supposant que vous ayez acheté cette option. La déclaration de Musk vient à la suite des accusations du ministère californien des véhicules à moteur qui a accusé Tesla de faire des déclarations « fausses ou trompeuses » sur les capacités de ses voitures autonomes.
Le déploiement de la version bêta a démarré en 2020 avec un petit nombre de clients et s'est depuis progressivement étendu pour être disponible à environ 160 000 conducteurs en octobre de cette année. Pour avoir accès à la version bêta, les conducteurs devaient généralement atteindre un seuil de sécurité minimum avec la fonction intégrée Safety Score de Tesla, ainsi que parcourir 161 000 km en utilisant la fonction avancée d'aide à la conduite Autopilot de la société.
Le constructeur automobile de la Silicon Valley vend son logiciel complémentaire de 15 000 dollars qui permet à ses véhicules de changer de voie et de se garer de manière autonome. Cela vient compléter sa fonction standard « Autopilot », qui permet aux voitures de se diriger, d'accélérer et de freiner dans leur voie de circulation sans intervention du conducteur.
La « full-self-driving » est conçue pour suivre le trafic, rester dans sa voie et respecter la signalisation routière. Elle nécessite un conducteur humain attentif prêt à prendre le contrôle total de la voiture à tout moment. Ce système a ravi certains conducteurs, mais en a aussi alarmé d'autres par ses limites. Les conducteurs seraient avertis par Tesla lorsqu'ils installent la « full-self-driving » qu'elle « peut prendre la mauvaise décision au pire moment ».
Le rapport indique que la Tesla Model S roulait à environ 55 mph et s'est déplacée sur la voie d'extrême gauche, mais a ensuite freiné brusquement, ralentissant la voiture à environ 20 mph. Cela a entraîné une réaction en chaîne qui a fini par provoquer l'accident de huit véhicules, qui roulaient tous à des vitesses normales sur l'autoroute.
La présidente du National Transportation Safety Board, Jennifer Homendy, s'est interrogée sur le fait que Tesla commercialise cette fonction en la qualifiant d’entièrement autonome alors qu'elle n'en est pas capable.
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi :
Tesla signale deux nouveaux accidents mortels impliquant des systèmes d'aide à la conduite, sur les 18 accidents mortels signalés depuis juillet 2021, presque tous impliquaient des véhicules Tesla
La version bêta du mode « Full self-driving » de Tesla est désormais disponible en Amérique du Nord, il est livré sans la mention sur l'obligation de satisfaire aux exigences minimales de sécurité
Le directeur général Elon Musk a présenté le logiciel de conduite autonome de Tesla comme une vache à lait potentielle pour le plus grand constructeur de voitures électriques du monde. Mais les systèmes avancés d'aide à la conduite de Tesla - et les affirmations de Musk à leur sujet - font l'objet d'une surveillance juridique, réglementaire et publique croissante.
Le mois dernier, Tesla a déclaré aux autorités américaines de réglementation de la sécurité automobile qu'elle avait reçu des rapports faisant état de deux nouveaux accidents mortels liés à des systèmes avancés d'aide à la conduite dans ses voitures Tesla Model 3, selon des données publiées mardi par le gouvernement.
La National Highway Traffic Safety Administration (NHTSA) a commencé en juin à publier les données fournies par les constructeurs automobiles sur les rapports d'accidents liés à des systèmes d'aide à la conduite comme le système Autopilot de Tesla. Elle a publié un décret en juin 2021 exigeant des constructeurs automobiles et des entreprises technologiques qu'ils signalent immédiatement tous les accidents impliquant des systèmes avancés d'aide à la conduite (ADAS) et des véhicules équipés de systèmes de conduite automatisée testés sur la voie publique.
« La surveillance de la NHTSA ne se limite pas aux accidents spécifiés discutés dans l'ordonnance ou aux informations soumises dans le cadre de ses obligations de déclaration. L'examen et l'analyse de la NHTSA incluront toutes les informations et tous les incidents relatifs à tout défaut de sécurité potentiel. De plus, la NHTSA peut prendre d'autres mesures en cas d'accident individuel, notamment en envoyant une équipe d'enquête spéciale sur les accidents et en exigeant de l'entreprise qu'elle fournisse des informations supplémentaires. La NHTSA peut également ouvrir des enquêtes sur les défauts, le cas échéant ».
Dans le cas de l’accident du jour de Thanksgiving sur l'Interstate-80 près de Treasure Island, la California Highway Patrol a examiné des vidéos montrant le véhicule Tesla en train de changer de voie et de ralentir pour s'arrêter. Deux voies de circulation ont été fermées pendant environ 90 minutes alors que de nombreuses personnes se rendaient à des événements de vacances. Quatre ambulances ont été appelées sur les lieux.
Le carambolage a eu lieu quelques heures seulement après que le PDG de Tesla, Elon Musk, eut annoncé que le logiciel d'aide à la conduite « full self-driving » de Tesla était disponible pour toute personne en Amérique du Nord qui en faisait la demande. Tesla avait auparavant limité l'accès aux conducteurs ayant obtenu des scores de sécurité élevés dans son système d'évaluation.
« La version bêta de la conduite autonome complète de Tesla est désormais disponible pour toute personne en Amérique du Nord qui en fait la demande », a tweeté Musk, « en supposant que vous ayez acheté cette option. La déclaration de Musk vient à la suite des accusations du ministère californien des véhicules à moteur qui a accusé Tesla de faire des déclarations « fausses ou trompeuses » sur les capacités de ses voitures autonomes.
Le déploiement de la version bêta a démarré en 2020 avec un petit nombre de clients et s'est depuis progressivement étendu pour être disponible à environ 160 000 conducteurs en octobre de cette année. Pour avoir accès à la version bêta, les conducteurs devaient généralement atteindre un seuil de sécurité minimum avec la fonction intégrée Safety Score de Tesla, ainsi que parcourir 161 000 km en utilisant la fonction avancée d'aide à la conduite Autopilot de la société.
Le constructeur automobile de la Silicon Valley vend son logiciel complémentaire de 15 000 dollars qui permet à ses véhicules de changer de voie et de se garer de manière autonome. Cela vient compléter sa fonction standard « Autopilot », qui permet aux voitures de se diriger, d'accélérer et de freiner dans leur voie de circulation sans intervention du conducteur.
La « full-self-driving » est conçue pour suivre le trafic, rester dans sa voie et respecter la signalisation routière. Elle nécessite un conducteur humain attentif prêt à prendre le contrôle total de la voiture à tout moment. Ce système a ravi certains conducteurs, mais en a aussi alarmé d'autres par ses limites. Les conducteurs seraient avertis par Tesla lorsqu'ils installent la « full-self-driving » qu'elle « peut prendre la mauvaise décision au pire moment ».
Le rapport indique que la Tesla Model S roulait à environ 55 mph et s'est déplacée sur la voie d'extrême gauche, mais a ensuite freiné brusquement, ralentissant la voiture à environ 20 mph. Cela a entraîné une réaction en chaîne qui a fini par provoquer l'accident de huit véhicules, qui roulaient tous à des vitesses normales sur l'autoroute.
La présidente du National Transportation Safety Board, Jennifer Homendy, s'est interrogée sur le fait que Tesla commercialise cette fonction en la qualifiant d’entièrement autonome alors qu'elle n'en est pas capable.
Et vous ?
Voir aussi :
-
DarkzinusExpert éminent séniorC'est beau une inscription sur le site spécialement pour défendre Tesla. Chef de projet SSII pour le service communication de la marque ?le 23/04/2024 à 11:37
-
sergio_is_backExpert confirméDans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!le 17/05/2023 à 13:40
-
petitoursMembre chevronnéIl ne fait pas de réduction sur son outil de conduite autonome, il ne fait que donner un prix plus raisonnable à un truc inutile et pas du tout autonome.
Il ne lui reste plus qu'à en changer le nom pour ne plus mentir.le 22/04/2024 à 12:23 -
totozorMembre expertChat perché je ne suis pas développeur.
Ne vous demandez-vous pas pourquoi le moindre pneu crevé d'une Tesla en Australie fait la une des journaux ? Pourquoi le moindre accident impliquant une Tesla fait la une de tous les journaux ?
Pourquoi les utilisateurs deviennent-ils fans alors que ceux qui n'ont jamais conduit crachent dessus ?
Pourquoi les médias européens reprennent-ils comme des perroquets la moindre information américaine alors que l'on sait que Musk est politiquement visé ?complotistepolitique de Musk.
Pourquoi ne parle-t-on que des rappels de Tesla alors que Mercedes ou BMW en font davantage mais ne sont jamais mentionnés dans les médias ?
Par exemple Mercedes engage sa responsabilité quand son "autopilot" est activé, Tesla fait son max pour n'être responsable de rien.
Pourquoi parle-t-on toujours de piratage alors que ce sont les voitures les plus sûres à ce niveau ?
Pourquoi, pourquoi, pourquoi ?
On appelle ça le revers de la médaille.Tesla n'est pas parfaite, mais ce sont clairement les meilleures voitures au meilleur prix avec une technologie de pointe qui devrait être admirée par tout développeur digne de ce nom.
Vous avez le meilleur programme mais son utilisation est physiquement dangereuse.
Il en va de même pour le FSD, les médias racontent n'importe quoi. Il suffit qu'une jante soit rayée pour invalider la technologie
Une voiture qui freine en plein milieu de l'autoroute sans obstacle c'est inquiétant, non?
Arrive-t-il a des chauffeurs de faire de même? Oui, mais ils ne crient pas partout qu'ils conduisent mieux que quiconque.
alors qu'elle a déjà parcouru plus d'1 milliard de kilomètres et évité de nombreux accidents (curieusement, on n'en entend jamais parler, pourquoi ?).
Combien de news racontent l'histoire de Gérard qui a sauvé un petit vieux de je ne sais quoi?
Combien de news racontent l'histoire de Géraldine qui donne une pièce à un SDF?
Combien de news racontent l'histoire de Marcel/Antoine/Melissa/Sophie qui ont bien géré leur freinage d'urgence et évité un accident?
Je sais bien que Tesla ne dépense pas un centime en publicité, ce qui explique en partie cette haine des médias, mais il y a aussi un aspect politique visant à dévaloriser ses entreprises.
Elon Musk était contre la pub, mais après avoir racheté Twitter, il a demandé à Tesla de dépenser 200 000 $ en publicité sur X, et de payer des comptes premium sur X
Je veux bien un salaire de ce genre de pas un centime.
Musk se surmédiatise, si les média s'acharnent sur lui c'est parce qu'il est nul à chier en ce moment. Pendant la période SpaceX les médias faisaient son éloge (et plutôt à raison), les médias ont fait la pub de son Starlink donc les médias n'ont pas du tout toujours été contre lui.
Il serait peut-être temps de prendre un peu de hauteur,
Je n'ai aucun problème à attaquer Musk et ses entreprises, pourtant il m'arrive aussi de rappeler qu'ils sont suffisament mauvais pour qu'on évite de les attaquer sur des faits divers isolés.
Il y a un avantage à ce que vous faites, c'est de donner un bon moment pour acheter des actions Tesla. Lorsque vous devenez arrogants, que vous vous réjouissez d'une baisse des ventes et que le moindre fait divers vous permet de dénigrer la marque, c'est un bon signe pour acheter
Vous ressortez gagnante de ça!
Vous êtes la plus intelligente, vous surnagez dans ce marasme.
Vous devriez nous encouragé plutôt que de nous critiquer. (Mais par pitié n'activez jamais le FSD en Belgique j'aimerais éviter de finir sur votre capot parce que votre voiture n'a pas identifié quel type d'obstacle je suis)le 23/04/2024 à 8:32 -
kain_tnExpert éminentTu mets la définition de "autopilot", mais pourquoi pas la définition de "Full Self-Driving"?
Non, parce qu'il parle de ça aussi. Littéralement "Conduite autonome complète/totale"...
Tesla aurait appelé ça "Self-driving", encore, on aurait pu chipoter, et faire comme tous les constructeurs et parler de niveau 1, 2, 3, 4, 5. Mais là, c'est du foutage de gueule.
Je ré-itère: cet ingénieur est soit un menteur, soit quelqu'un qui devrait ouvrir un dictionnaire.le 17/10/2023 à 23:40 -
kain_tnExpert éminentC'est un dialogue de sourds
Quand une entreprise te vend son accès bêta sous le nom de Full Self-Driving, je pense que c'est fait exprès.le 18/10/2023 à 22:34 -
MingolitoMembre extrêmement actifTu peux jouer sur les mots mais dans les faits les études ont montré que l'autopilot de Tesla n'est pas du tout à la hauteur, et les réseaux sociaux regorgent de milliers de témoignages dans ce sens, et qu'il y a déjà eu des accidents mortels, principalement du à la bêtise des gens qui ont vraiment cru qu'ils peuvent dormir, regarder un film, faire des jeux vidéos, ou faire l'amour pendant que le FSD conduisait leur Tesla.
Dans les faits d'autres constructeurs ont un FSD qui est mieux coté que celui de Tesla, le problème de Tesla c'est qu'Elon Musk a fait le buzz, hors maintenant c'est le retour à la réalité : leur voitures sont pourries, elle ne sont pas fiables, certains composants ont étés montés avec du ruban adhésif, les réparations coutent une fortune, Tesla à menti sur l'autonomie réelle, et quand c'est l’hiver ces voitures ne marchent plus, les voitures et les stations de charges tombent en panne, et le FSD Tesla est totalement moisi et dangereux. Donc une fois la Hype passée c'est un désastre.
En Chine les Tesla ne se vendent plus du tout, car les chinois fabriquent des autos plus fiables et moins chères. Elon ne solde pas seulement le FSD mais aussi le prix de plusieurs modèles, qui ne se vendent plus à cause de la réputation horrible, et du fait que les chinois proposent bien mieux.le 22/04/2024 à 14:03 -
petitoursMembre chevronnéSi vous ne voyez pas de différence entre confiner les gens (pas ensembles) pour les protéger et Musk qui entasse ses ouvriers dans son usine pour bosser alors on ne peut plus rien pour vous.
A qui le dites vous... pas besoin de moi pour donner les sources dont ce fil est rempli
Oui, et il y a aussi les faits qui sont tenaces
Pas de bol, la discussion qui a maintenant pas mal de pages ne parle pas que du cas de cette dame. La question qui m'interpelle ici c'est quelle illusion Musk vous a fait pour voir en lui encore une possibilité de bienveillance face à toutes ces casseroles.
Oui, a commencer par lire la discussion et pas juste le dernier poste du rédacteur ainsi que pleins d'autres sources qui racontent la même chose et d'autres choses avec des preuves bien solides...
Quand à la jugeote vous pouvez en effet l'utiliser, lisez un peu sur la conduite autonome, ses problèmes et enjeux et jugeotez sur le choix de ne laisser que quelques cameras placées aux endroits qui permettent de préserver les choix esthétiques du véhicule ; vous trouverez d'un seul coup moins louche le fait que le FSD ne fait pas le job.le 22/04/2024 à 17:39 -
Fleur en plastiqueMembre extrêmement actifTesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.
Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.
Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...le 20/01/2023 à 10:26 -
Fleur en plastiqueMembre extrêmement actifDonc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.
Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.le 20/01/2023 à 14:57