Le directeur général Elon Musk a présenté le logiciel de conduite autonome de Tesla comme une vache à lait potentielle pour le plus grand constructeur de voitures électriques du monde. Mais les systèmes avancés d'aide à la conduite de Tesla - et les affirmations de Musk à leur sujet - font l'objet d'une surveillance juridique, réglementaire et publique croissante.
Le mois dernier, Tesla a déclaré aux autorités américaines de réglementation de la sécurité automobile qu'elle avait reçu des rapports faisant état de deux nouveaux accidents mortels liés à des systèmes avancés d'aide à la conduite dans ses voitures Tesla Model 3, selon des données publiées mardi par le gouvernement.
La National Highway Traffic Safety Administration (NHTSA) a commencé en juin à publier les données fournies par les constructeurs automobiles sur les rapports d'accidents liés à des systèmes d'aide à la conduite comme le système Autopilot de Tesla. Elle a publié un décret en juin 2021 exigeant des constructeurs automobiles et des entreprises technologiques qu'ils signalent immédiatement tous les accidents impliquant des systèmes avancés d'aide à la conduite (ADAS) et des véhicules équipés de systèmes de conduite automatisée testés sur la voie publique.
« La surveillance de la NHTSA ne se limite pas aux accidents spécifiés discutés dans l'ordonnance ou aux informations soumises dans le cadre de ses obligations de déclaration. L'examen et l'analyse de la NHTSA incluront toutes les informations et tous les incidents relatifs à tout défaut de sécurité potentiel. De plus, la NHTSA peut prendre d'autres mesures en cas d'accident individuel, notamment en envoyant une équipe d'enquête spéciale sur les accidents et en exigeant de l'entreprise qu'elle fournisse des informations supplémentaires. La NHTSA peut également ouvrir des enquêtes sur les défauts, le cas échéant ».
Dans le cas de l’accident du jour de Thanksgiving sur l'Interstate-80 près de Treasure Island, la California Highway Patrol a examiné des vidéos montrant le véhicule Tesla en train de changer de voie et de ralentir pour s'arrêter. Deux voies de circulation ont été fermées pendant environ 90 minutes alors que de nombreuses personnes se rendaient à des événements de vacances. Quatre ambulances ont été appelées sur les lieux.
Le carambolage a eu lieu quelques heures seulement après que le PDG de Tesla, Elon Musk, eut annoncé que le logiciel d'aide à la conduite « full self-driving » de Tesla était disponible pour toute personne en Amérique du Nord qui en faisait la demande. Tesla avait auparavant limité l'accès aux conducteurs ayant obtenu des scores de sécurité élevés dans son système d'évaluation.
« La version bêta de la conduite autonome complète de Tesla est désormais disponible pour toute personne en Amérique du Nord qui en fait la demande », a tweeté Musk, « en supposant que vous ayez acheté cette option. La déclaration de Musk vient à la suite des accusations du ministère californien des véhicules à moteur qui a accusé Tesla de faire des déclarations « fausses ou trompeuses » sur les capacités de ses voitures autonomes.
Le déploiement de la version bêta a démarré en 2020 avec un petit nombre de clients et s'est depuis progressivement étendu pour être disponible à environ 160 000 conducteurs en octobre de cette année. Pour avoir accès à la version bêta, les conducteurs devaient généralement atteindre un seuil de sécurité minimum avec la fonction intégrée Safety Score de Tesla, ainsi que parcourir 161 000 km en utilisant la fonction avancée d'aide à la conduite Autopilot de la société.
Le constructeur automobile de la Silicon Valley vend son logiciel complémentaire de 15 000 dollars qui permet à ses véhicules de changer de voie et de se garer de manière autonome. Cela vient compléter sa fonction standard « Autopilot », qui permet aux voitures de se diriger, d'accélérer et de freiner dans leur voie de circulation sans intervention du conducteur.
La « full-self-driving » est conçue pour suivre le trafic, rester dans sa voie et respecter la signalisation routière. Elle nécessite un conducteur humain attentif prêt à prendre le contrôle total de la voiture à tout moment. Ce système a ravi certains conducteurs, mais en a aussi alarmé d'autres par ses limites. Les conducteurs seraient avertis par Tesla lorsqu'ils installent la « full-self-driving » qu'elle « peut prendre la mauvaise décision au pire moment ».
Le rapport indique que la Tesla Model S roulait à environ 55 mph et s'est déplacée sur la voie d'extrême gauche, mais a ensuite freiné brusquement, ralentissant la voiture à environ 20 mph. Cela a entraîné une réaction en chaîne qui a fini par provoquer l'accident de huit véhicules, qui roulaient tous à des vitesses normales sur l'autoroute.
La présidente du National Transportation Safety Board, Jennifer Homendy, s'est interrogée sur le fait que Tesla commercialise cette fonction en la qualifiant d’entièrement autonome alors qu'elle n'en est pas capable.
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi :
Tesla signale deux nouveaux accidents mortels impliquant des systèmes d'aide à la conduite, sur les 18 accidents mortels signalés depuis juillet 2021, presque tous impliquaient des véhicules Tesla
La version bêta du mode « Full self-driving » de Tesla est désormais disponible en Amérique du Nord, il est livré sans la mention sur l'obligation de satisfaire aux exigences minimales de sécurité