Selon une enquête du New Yorker, Tesla a demandé à la National Highway Traffic Safety Administration de ne pas révéler si ses logiciels d’aide à la conduite, Autopilot et Full Self-Driving, étaient impliqués dans des accidents de la route. Tesla a prétendu que ces informations étaient des secrets commerciaux, et la NHTSA a dû se plier à la loi sur la sécurité des véhicules qui protège la confidentialité des entreprises. L’enquête révèle les tensions entre Elon Musk, le PDG de Tesla, et le gouvernement américain, alors que les logiciels de Tesla font l’objet de controverses pour leur manque de fiabilité et de sécurité.
« Tesla a demandé l'expurgation de champs du rapport d'accident en affirmant que ces champs contenaient des informations commerciales confidentielles », a déclaré un porte-parole de la NHTSA. « La loi sur la sécurité des véhicules limite explicitement la capacité de la NHTSA à divulguer ce que les entreprises qualifient d'informations confidentielles. Une fois qu'une entreprise revendique la confidentialité, la NHTSA est légalement obligée de la traiter comme telle, à moins que/jusqu'à ce que la NHTSA passe par une procédure juridique pour rejeter la revendication ».
Alors que Musk promet depuis des années que les Teslas à conduite autonome sont sur le point de voir le jour, les systèmes Autopilot et Full Self-Driving de Tesla ont essuyé un certain nombre de controverses au fil des ans.
Autopilot, qui est censé aider sur les autoroutes, est le logiciel d'aide à la conduite intégré dans toutes les Teslas, tandis que Full Self-Driving est un ajout bêta qui coûte 15 000 dollars en une seule fois, ou des frais mensuels de 99 ou 199 dollars, en fonction des spécificités de la mise à jour. La conduite autonome complète est plus avancée et permet aux voitures de changer de voie, de reconnaître les panneaux d'arrêt et les feux, et de se garer, selon Tesla. L'entreprise ajoute qu'un « conducteur pleinement attentif » doit être au volant lorsque les deux fonctions sont utilisées.
L’agence américaine de sécurité automobile a déclaré l’année dernière avoir ouvert une enquête sur l’accident mortel qui pourrait avoir été causé par son système avancé d'aide à la conduite. L'accident, impliquant une Tesla Model S modèle 2022 qui a percuté un équipement de construction à Newport Beach la semaine dernière, est l'un des 35 qui font l'objet d'une enquête de la National Highway Traffic Safety Administration (NHTSA) américaine impliquant des véhicules Tesla dans lesquels des systèmes avancés d'aide à la conduite comme Autopilot ont été soupçonnés d'être utilisés depuis 2016. Au total, 14 décès par accident ont été signalés dans le cadre de ces enquêtes sur Tesla, dont les trois décès récents.
La NHTSA a confirmé la nouvelle enquête sur un accident de Tesla Model S survenu le 12 mai 2022, qui a tué trois personnes dans le véhicule et blessé trois travailleurs, lorsqu'il a heurté un équipement de construction le long de la Pacific Coast Highway à Newport Beach. La police de Newport Beach a refusé de dire si le véhicule Tesla était en mode Autopilot au moment de l'accident, précisant que l'enquête se poursuit.
En juin, nous avons rapporté qu'il y avait eu au total 736 accidents et 17 décès impliquant des Teslas en mode Autopilot depuis 2019. Steven Cliff, ancien administrateur adjoint de la NHTSA, a déclaré qu'il avait vu des données indiquant que les véhicules Tesla étaient impliqués dans « un nombre disproportionné d'accidents impliquant des véhicules d'urgence », mais que l'agence n'avait pas encore conclu si les conducteurs humains ou le logiciel de Tesla étaient à blâmer.
Autopilot de Tesla : une hausse alarmante des accidents mortels
Un expert en sécurité estime que l’augmentation est probablement liée au déploiement élargi de la technologie Full Self Driving qui est encore en bêta. Le nombre de décès et de blessures graves associés à Autopilot a augmenté de manière significative, selon les données publiées par la NHTSA (National Highway Traffic Safety Administration, l'agence fédérale américaine des États-Unis chargée de la sécurité routière). Il faut préciser que, depuis 2021, les constructeurs automobiles sont tenus d'informer la NHTSA si l'un de leurs véhicules est impliqué dans un accident alors qu'ils utilisent des systèmes de conduite partiellement automatisés, également appelés systèmes SAE de niveau 2.
Comme beaucoup le soupçonnaient, le système Autopilot de Tesla était à l'origine de la majorité des accidents depuis le début de la période de référence. En fait, Tesla représentait les trois quarts de tous les accidents ADAS, soit 273 accidents sur 367 signalés entre juillet 2021 et le 15 mai 2022.
Mais ce n'est pas tout. Sur les six décès répertoriés dans l'ensemble de données publié par la NHTSA en juin 2022, cinq étaient liés à des véhicules Tesla – dont un accident de juillet 2021 impliquant un piéton à Flushing, dans le Queens, et un accident mortel en mars à Castro Valley, en Californie. Certains remontaient à 2019. Les données les plus récentes de l'agence américaine incluent au moins 17 incidents mortels.
Ces données sont plutôt limitées étant donné qu'elles concernent le marché américain. Le site Tesla Deaths, quant à lui, fournit une perspective plus globale. Il est expliqué : « Nous fournissons un registre mis à jour des décès par Tesla et des décès par accident de Tesla qui ont été signalés et autant de données d'accident connexes que possible (par exemple, lieu de l'accident, noms des personnes décédées, etc.) ».
Tesla et Musk sous le feu des critiques pour l’Autopilot trompeur
En 2020, un sénateur américain a exhorté Tesla à renommer son système d'aide à la conduite Autopilot, affirmant qu'il a « un nom intrinsèquement trompeur » et qu'il est sujet à une utilisation potentiellement dangereuse. Le sénateur Edward Markey a déclaré qu'il pensait que les dangers potentiels d'Autopilot pouvaient être surmontés. Mais il a appelé à « renommer et commercialiser le système pour réduire les abus, ainsi qu'à créer des outils de surveillance des pilotes de sauvegarde qui garantiront que personne ne s'endort au volant ».
Tesla a déclaré dans une lettre qu'il avait pris des mesures pour assurer l'engagement du conducteur avec le système et améliorer ses caractéristiques de sécurité. Le constructeur automobile électrique a introduit de nouveaux avertissements pour les feux rouges et les panneaux d'arrêt l'année dernière « pour minimiser le risque potentiel de griller un feu rouge ou un panneau Stop en raison d'une inattention temporaire du conducteur », a déclaré Tesla dans la lettre.
Malgré la prétention de Musk que les Model S et les Model X étaient plus sûres que les humains en mode autonome, aucune Tesla n’avait cette capacité. Il a donc été poursuivi en justice. Un juge californien a demandé à interroger Musk sous serment afin de déterminer s'il a fait des déclarations spécifiques sur l'Autopilot de Tesla, mais pour éviter que d'éventuelles frasques du milliardaire ne se retrouvent sur la place publique, ses avocats ont déclaré que la vidéo en question pourrait n'être qu'un deepfake. Une affirmation que le juge a qualifiée de troublante.
Les avocats de Tesla ont déclaré que Musk ne pouvait pas se souvenir des détails de ses affirmations. Selon eux, comme beaucoup de personnalités publiques, il fait l'objet de plusieurs vidéos et enregistrements audio deepfakes qui prétendent le montrer en train de dire et de faire des choses qu'il n'a jamais dites ou faites en réalité. Toutefois, un juge de l'État de Californien a réfuté cet argument et a finalement rendu une ordonnance provisoire exigeant que le PDG de Tesla se présente au tribunal en vue d'une déposition sous serment.
Tesla accusée de cacher les accidents liés à son Autopilot
Selon des données gouvernementales diffusées en novembre de l’année dernière, Tesla a signalé aux régulateurs américains de la sécurité routière deux nouveaux cas mortels impliquant des systèmes d’assistance avancée au volant dans ses modèles 3 de Tesla.
Depuis juin, la NHTSA publie les données que les fabricants de voitures lui fournissent sur les accidents liés à des systèmes comme l’Autopilot de Tesla. Elle a ordonné en juin 2021 aux entreprises technologiques et aux constructeurs automobiles de lui notifier sans délai tout accident impliquant des ADAS ou des véhicules dotés de systèmes de conduite automatisée testés sur route.
Tesla a suscité des polémiques autour de son système d’aide à la conduite, l’Autopilot, en arrêtant de publier les statistiques sur sa sécurité, malgré les demandes de la NHTSA. Depuis 2018, l’entreprise divulguait chaque trimestre les statistiques de sécurité de l’Autopilot, qui indiquent le taux d’accidents par kilomètre. Mais ces rapports ont disparu l’année dernière. Tesla n’a pas expliqué pourquoi, mais selon les critiques, « le nombre d’accidents avec l’Autopilot est devenu inquiétant, ce qui pourrait effrayer les clients et affecter leurs achats ». L’entreprise redouterait aussi des actions en justice fondées sur ces chiffres.
Selon le New Yorker, Tesla aurait demandé aux autorités de sécurité routière de ne pas divulguer les informations relatives à l’usage de ses logiciels d’assistance à la conduite lors d’accidents. Cette pratique pose problème quant à la transparence et la responsabilité de l’entreprise, qui est visée par plusieurs enquêtes et procès pour des accidents mortels liés à son système Autopilot. En tentant de dissimuler les détails sur l’implication de ses logiciels dans ces accidents, Tesla pourrait porter atteinte à la confiance du public et à la sécurité des conducteurs. Tesla devrait plutôt collaborer avec les autorités et donner des informations exactes et claires sur les possibilités et les contraintes de ses systèmes d’assistance à la conduite.
Source : New Yorker
Et vous ?
Quelles peuvent être les motivations de Tesla pour demander aux responsables de la sécurité routière de supprimer les informations concernant l’utilisation de ses logiciels d’aide à la conduite lors d’accidents ?
En quoi Tesla se met-elle en danger sur le plan juridique et éthique en adoptant cette attitude ?
Selon vous, Tesla participe-t-elle au progrès de la recherche et du développement sur les technologies de conduite autonome ?
Voir aussi :
17 morts, 736 accidents : le bilan alarmant d'Autopilot et Full Self-Driving de Tesla indique-t-il une course à l'innovation au mépris de la sécurité ? Les statistiques de la NHTSA inquiètent
Les avocats de Tesla affirment que les déclarations passées d'Elon Musk sur la sécurité de l'Autopilot pourraient n'être que des deepfakes, un juge a déclaré que cet argument est "troublant"
Elon Musk indique qu'une « version entièrement autonome » d'Autopilot sera disponible pour Tesla en bêta privée, « probablement dans un mois »
Tesla confronté à une nouvelle enquête de la NHTSA sur son système d'intelligence artificielle "Autopilot", après la mort de trois personnes dans un accident impliquant un model S
Tesla aurait demandé aux responsables de la sécurité routière d'expurger les informations concernant l'utilisation de son logiciels d'aide à la conduite
Lors d'accidents
Tesla aurait demandé aux responsables de la sécurité routière d'expurger les informations concernant l'utilisation de son logiciels d'aide à la conduite
Lors d'accidents
Le , par Bruno
Une erreur dans cette actualité ? Signalez-nous-la !