Tesla, le constructeur de voitures électriques, n'a pas modifié sa technologie d'aide à la conduite, Autopilot, pour tenir compte du trafic transversal au cours des trois années qui se sont écoulées entre deux accidents très médiatisés qui ont coûté la vie à des conducteurs de Tesla dont les voitures ont percuté des camions, selon le témoignage de plusieurs ingénieurs qui vient d'être révélé.
Après avoir vanté pendant des années la conduite autonome comme la voie de l'avenir, Tesla et son PDG Elon Musk subissent des pressions juridiques de la part des consommateurs, des investisseurs, des régulateurs et des procureurs fédéraux qui se demandent si l'entreprise n'a pas exagéré ses progrès en matière de véhicules à conduite autonome au cours des huit dernières années. Les avocats de Tesla affirment que les déclarations passées d'Elon Musk sur la sécurité de l'Autopilot pourraient n'être que des deepfakes.
Tesla fait l'objet d'actions en justice au sujet de l'Autopilot et des prévisions d'Elon Musk en matière de Full Self Driving. Une des actions en justice accusant le système d'aide à la conduite Autopilot de l'entreprise d'être à l'origine de la mort de Walter Huang, ingénieur chez Apple. L'accident mortel a eu lieu en 2018 et impliquant une Tesla Model X. Aujourd'hui, les avocats de sa famille cherchent à interroger Musk au sujet des déclarations qu'il avait faites sur la sécurité de l'Autopilot. Il s'agit principalement d'une interview réalisée en 2016 dans laquelle Musk affirmait qu'« une Model S et une Model X, à ce stade, peuvent se conduire de façon autonome avec une plus grande sécurité qu'une personne ». Pourtant, aucune Tesla n'était en mesure de le faire.
Le système Autopilot de Tesla, avec son option « Full Self-Driving », n'est rien de ce que son nom l'indique : ce n'est ni un véritable pilote automatique, ni un véhicule capable de se conduire entièrement. Au lieu de cela, il s'agit d'un système avancé d'aide à la conduite qui peut aider à alléger la charge de travail du conducteur lorsqu'il se trouve sur une autoroute ou dans des rues urbaines clairement marquées.
Dans une vidéo promotionnelle vantant les prouesses technologiques de Tesla, une Tesla Model X est présentée en train de rouler, s'arrêter à un feu rouge et accélérer au feu vert. Elle est toujours sur le site Web de Tesla et porte le slogan : « la personne qui occupe le siège du conducteur n'est là que pour des raisons légales. Elle ne fait rien. La voiture se conduit toute seule ».
En 2020, un sénateur américain a exhorté Tesla à renommer son système d'aide à la conduite Autopilot, affirmant qu'il a « un nom intrinsèquement trompeur » et qu'il est sujet à une utilisation potentiellement dangereuse. Le sénateur Edward Markey a déclaré qu'il pensait que les dangers potentiels d'Autopilot pouvaient être surmontés. Mais il a appelé à « renommer et commercialiser le système pour réduire les abus, ainsi qu'à créer des outils de surveillance des pilotes de sauvegarde qui garantiront que personne ne s'endort au volant ».
Tesla a déclaré dans une lettre qu'il avait pris des mesures pour assurer l'engagement du conducteur avec le système et améliorer ses caractéristiques de sécurité. Tesla a introduit de nouveaux avertissements pour les feux rouges et les panneaux d'arrêt l'année dernière « pour minimiser le risque potentiel de griller un feu rouge ou un panneau Stop en raison d'une inattention temporaire du conducteur », a déclaré Tesla dans la lettre.
Tesla est également dans le collimateur de plusieurs enquêtes de la NHTSA
Le terme Autopilot seul semble amener les conducteurs à surestimer les capacités des véhicules de marque Tesla et donc à provoquer des accidents de la circulation. De multiples sources s’accordent désormais sur la publicité mensongère et qualifient le logiciel Full Self Driving du constructeur automobile d’escroquerie flagrante à éviter.
Le nombre de décès et de blessures graves associés à Autopilot a augmenté de manière significative, selon les données publiées par la NHTSA (National Highway Traffic Safety Administration, l'agence fédérale américaine des États-Unis chargée de la sécurité routière). En juin 2022, lorsque l'agence a fait un décompte partiel, elle a noté que le logiciel de Tesla était impliqué dans 273 accidents en 2021.
Il faut préciser que, depuis 2021, les constructeurs automobiles sont tenus d'informer la NHTSA si l'un de leurs véhicules est impliqué dans un accident alors qu'ils utilisent des systèmes de conduite partiellement automatisés, également appelés systèmes SAE de niveau 2. Comme beaucoup le soupçonnaient, le système Autopilot de Tesla était à l'origine de la majorité des accidents depuis le début de la période de référence. En fait, Tesla représentait les trois quarts de tous les accidents ADAS, soit 273 accidents sur 367 signalés entre juillet 2021 et le 15 mai 2022.
Sur les six décès répertoriés dans l'ensemble de données publié par la NHTSA en juin 2022, cinq étaient liés à des véhicules Tesla – dont un accident de juillet 2021 impliquant un piéton à Flushing, dans le Queens, et un accident mortel en mars à Castro Valley, en Californie. Certains remontaient à 2019.
Le procès prévu en octobre, le premier pour l'entreprise en raison d'un décès imputé à Autopilot, opposera les affirmations répétées de Musk selon lesquelles les Teslas sont les voitures les plus sûres jamais fabriquées aux experts en technologie qui devraient témoigner que le marketing de l'entreprise a bercé les conducteurs d'un faux sentiment de sécurité.
Les allégations selon lesquelles les dirigeants du constructeur automobile savaient non seulement que le logiciel était incapable de détecter et de réagir au trafic transversal, mais qu'ils n'ont rien fait pour y remédier ont été révélées cette semaine dans le cadre d'une action civile intentée contre Tesla concernant un accident qui a tué Jeremy Banner, un père de famille de 50 ans, en 2019.
La famille de Banner, qui a intenté un procès à Tesla peu après sa mort, a allégué dans un document judiciaire que le constructeur automobile était au courant de l'incapacité d'Autopilot à gérer le trafic transversal après la mort de Brown, et qu'il n'a rien fait pour y remédier, ce qui a conduit à l'accident mortel de Banner. Tesla aurait dû tirer les leçons de cette tragédie de 2016 et améliorer l'Autopilot pour qu'il puisse gérer en toute sécurité le trafic transversal ou le désengager dans ces situations, ce qui aurait pu sauver la vie de Banner.
Tesla soutient qu'il a été transparent sur les limites d'Autopilot, y compris les défis liés à la détection du trafic traversant devant ses voitures. Tesla prévient dans son manuel du propriétaire et sur les écrans des voitures que les conducteurs doivent être vigilants et prêts à prendre le contrôle des véhicules à tout moment.
Source : Tesla's Autopilot engineers
Et vous ?
Que pensez-vous de l'Autopilot de Tesla et de ses performances ? Du Full Self-Driving ?
Quels sont les risques et les bénéfices de ces technologies pour la sécurité routière et l’environnement ?
Faites-vous confiance aux constructeurs automobiles et aux autorités pour réguler et contrôler ces systèmes ?
Seriez-vous prêt à acheter ou à utiliser un véhicule doté de ces fonctionnalités ?
Voir aussi :
Tesla fait l'objet d'une action en justice au sujet de l'Autopilot et des prévisions d'Elon Musk en matière de Full Self Driving et ravive le débat autour des véhicules dits autonomes
Un véhicule Tesla avec l'Autopilot activé percute une moto sur l'autoroute et tue le conducteur, l'accident remet à nouveau en cause la fiabilité du système d'aide à la conduite de Tesla
17 morts, 736 accidents : le bilan alarmant d'Autopilot et Full Self-Driving de Tesla indique-t-il une course à l'innovation au mépris de la sécurité ? Les statistiques de la NHTSA inquiètent
Tesla n'a pas corrigé son système Autopilot après un accident mortel
Selon des ingénieurs Autopilot de Tesla
Tesla n'a pas corrigé son système Autopilot après un accident mortel
Selon des ingénieurs Autopilot de Tesla
Le , par Bruno
Une erreur dans cette actualité ? Signalez-nous-la !