Le nombre de décès et de blessures graves associés à Autopilot a augmenté de manière significative, selon les données publiées par la NHTSA (National Highway Traffic Safety Administration, l'agence fédérale américaine des États-Unis chargée de la sécurité routière). En juin 2022, lorsque l'agence a fait un décompte partiel, elle a noté que le logiciel de Tesla était impliqué dans 273 accidents en 2021. Il faut préciser que, depuis 2021, les constructeurs automobiles sont tenus d'informer la NHTSA si l'un de leurs véhicules est impliqué dans un accident alors qu'ils utilisent des systèmes de conduite partiellement automatisés, également appelés systèmes SAE de niveau 2. Comme beaucoup le soupçonnaient, le système Autopilot de Tesla était à l'origine de la majorité des accidents depuis le début de la période de référence. En fait, Tesla représentait les trois quarts de tous les accidents ADAS, soit 273 accidents sur 367 signalés entre juillet 2021 et le 15 mai 2022.
Mais ce n'est pas tout. Sur les six décès répertoriés dans l'ensemble de données publié par la NHTSA en juin 2022, cinq étaient liés à des véhicules Tesla – dont un accident de juillet 2021 impliquant un piéton à Flushing, dans le Queens, et un accident mortel en mars à Castro Valley, en Californie. Certains remontaient à 2019. Les données les plus récentes de l'agence américaine incluent au moins 17 incidents mortels, dont 11 depuis mai dernier, et cinq blessés graves.
Ces données sont plutôt limitées étant donné qu'elles concernent le marché américain. Le site Tesla Deaths, quant à lui, fournit une perspective plus globale. Il est expliqué : « Nous fournissons un registre mis à jour des décès par Tesla et des décès par accident de Tesla qui ont été signalés et autant de données d'accident connexes que possible (par exemple, lieu de l'accident, noms des personnes décédées, etc.) ».
Selon le site, le nombre de décès liés à Tesla au 12 juin 2023 est de 393. Le nombre de décès directement associés au logiciel Autopilot est de 33.
Elon Musk milite pour l'utilisation d'Aupilot et Full Self-Driving
Le PDG de Tesla, Elon Musk, a déclaré que les voitures fonctionnant en mode Autopilot de Tesla sont plus sûres que celles pilotées uniquement par des conducteurs humains, citant les taux d'accidents lorsque les modes de conduite sont comparés. Il a poussé le constructeur automobile à développer et à déployer des fonctionnalités programmées pour manœuvrer sur les routes (l'outil est entraîné à « prendre des décisions » sur des scénarios comme des autobus scolaires arrêtés, des camions de pompiers, des panneaux d'arrêt, des piétons, etc.), arguant que la technologie inaugurera un avenir plus sûr et pratiquement sans accident. Bien qu'il soit impossible de dire combien d'accidents ont pu être évités, les données montrent des failles évidentes dans la technologie testée en temps réel sur les autoroutes américaines.
La NHTSA a déclaré qu'un rapport d'accident impliquant une assistance à la conduite n'impliquait pas en soi que la technologie en était la cause. « La NHTSA mène une enquête active sur Autopilot de Tesla, y compris Full Self-Driving », a déclaré la porte-parole Veronica Morales, notant que l'agence ne commente pas les enquêtes ouvertes. « La NHTSA rappelle au public que tous les systèmes avancés d'aide à la conduite exigent que le conducteur humain soit en contrôle et pleinement engagé dans la tâche de conduite à tout moment. En conséquence, toutes les lois des États tiennent le conducteur humain responsable du fonctionnement de ses véhicules.*»
Le personnel d'urgence travaille sur les lieux où un SUV électrique Tesla s'est écrasé contre une barrière sur l'autoroute américaine 101 à Mountain View, en Californie, le 23 mars 2018. L'ingénieur Apple décédé lorsque son Tesla Model X s'est écrasé contre la barrière en béton s'est plaint avant sa mort que le système Autopilot du SUV fonctionnait mal dans la zone où l'accident s'est produit.
Musk a défendu à plusieurs reprises sa décision de pousser les technologies d'assistance à la conduite aux propriétaires de Tesla, arguant que les avantages l'emportent sur les inconvénients.
« Au point où vous pensez que l'ajout d'autonomie réduit les blessures et les décès, je pense que vous avez l'obligation morale de le déployer même si vous allez être poursuivi et blâmé par beaucoup de gens », a déclaré Musk l'année dernière. « Parce que les personnes dont vous avez sauvé la vie ne savent pas que leur vie a été sauvée. Et les gens qui meurent ou se blessent occasionnellement, ils le savent certainement – ou leur état le sait ».
Le nombre total d'accidents impliquant la technologie est infime par rapport à tous les accidents de la route*; la NHTSA estime que plus de 40 000 personnes sont mortes dans des accidents de voiture l'an dernier.
Depuis l'introduction des exigences de déclaration, la grande majorité des 807 accidents liés à l'automatisation ont impliqué Tesla, selon les données. Tesla (qui a expérimenté l'automatisation de manière plus agressive que les autres constructeurs automobiles) est également liée à presque tous les décès.
Subaru se classe deuxième avec 23 accidents signalés depuis 2019. L'énorme gouffre reflète probablement un déploiement et une utilisation plus larges de l'automatisation dans la flotte de véhicules de Tesla, ainsi que le plus large éventail de circonstances dans lesquelles les conducteurs de Tesla sont encouragés à utiliser Autopilot.
De plus, les données ne se prêtent pas facilement à des comparaisons entre différents constructeurs, car elles n'incluent pas d'informations telles que le nombre de kilomètres parcourus par les différents systèmes d'assistance à la conduite ou l'étendue de leur déploiement dans les flottes des constructeurs automobiles.
Pourtant, les informations donnent aux régulateurs un aperçu plus complet qu'auparavant. Avant, les régulateurs s'appuyaient sur une collecte fragmentaire de données provenant des médias, des notifications des fabricants et d'autres sources sporadiques pour en savoir plus sur les incidents impliquant une assistance avancée à la conduite.
« Cela a révélé que plus d'accidents se produisent que la NHTSA ne le savait auparavant », a déclaré Phil Koopman, professeur d'ingénierie à l'Université Carnegie Mellon qui se concentre sur la sécurité des véhicules autonomes. Il a noté que les rapports peuvent omettre plus d'accidents mineurs, y compris les cintreuses d'ailes.
L'ensemble de données n'inclut pas toutes les informations qu'il serait utile de connaître, mais cela pourrait être une première indication de l'accent mis sur la collecte de plus d'informations et leur utilisation pour améliorer les technologies et les réglementations de sécurité, a déclaré Bryant Walker Smith, professeur de droit à l'Université de Caroline du Sud qui étudie les technologies de transport émergentes.
« La promesse de ceux-ci, le potentiel de ceux-ci est en fin de compte de rendre la conduite plus sûre », a-t-il déclaré à propos des technologies d'assistance à la conduite. « C'est une question ouverte de savoir si ces systèmes dans leur ensemble ou des systèmes individuels ont accompli cela ».
Une augmentation « troublante » des accidents de Tesla
L'ancienne conseillère principale en matière de sécurité de la NHTSA, Missy Cummings, professeure au Collège d'ingénierie et d'informatique de l'Université George Mason, a déclaré que l'augmentation des accidents de Tesla était troublante.
« Tesla connaît des accidents plus graves - et mortels - que les personnes dans un ensemble de données normal », a-t-elle déclaré après la publication des statistiques. L'une des causes probables, a-t-elle déclaré, est le déploiement élargi au cours de la dernière année et demie de Full Self-Driving, qui apporte l'assistance au conducteur dans les rues urbaines et résidentielles. « Le fait que… n'importe qui et tout le monde peut l'avoir. … Est-il raisonnable de s'attendre à ce que cela entraîne une augmentation des taux d'accidents ? Bien sûr, absolument ».
Cummings a déclaré que le nombre de décès par rapport au nombre total d'accidents était également une préoccupation.
Il faut rappeler qu'il n'est pas clair si les données capturent chaque accident impliquant les systèmes d'assistance à la conduite de Tesla. Les données de la NHTSA incluent certains incidents où il est «inconnu» si Autopilot ou Full Self-Driving étaient utilisés.
Autopilot, que Tesla a introduit en 2014, est une suite de fonctionnalités qui permettent à la voiture de se manœuvrer d'une bretelle d'accès à une bretelle de sortie, en maintenant la vitesse et la distance derrière les autres véhicules et en suivant les lignes de voie. Tesla le propose en standard sur ses véhicules, dont plus de 800 000 sont équipés d'un Autopilot sur les routes américaines, bien que les itérations avancées aient un coût.
Full Self-Driving, quant à lui, est une fonctionnalité expérimentale que les clients doivent acheter. Elle permet aux Tesla de manœuvrer d'un point A à B en suivant des instructions détaillées le long d'un itinéraire, en s'arrêtant aux panneaux d'arrêt et aux feux de circulation, en effectuant des virages et des changements de voie, et en répondant aux dangers en cours de route. Avec l'un ou l'autre système, Tesla dit que les conducteurs doivent surveiller la route et intervenir si nécessaire.
Ces outils peuvent adopter des comportements curieux. Par exemple, en avril, Tesla a publié une mise à jour de son Full Self-Driving qui s'est accompagnée de nouveaux algorithmes qui déterminent le comportement de la voiture vis-à-vis des piétons. Une vidéo publiée sur Twitter en mai montre que même si le système Tesla peut détecter les piétons qui traversent la route, une Tesla peut choisir de ne pas s’arrêter ou ralentir comme elle le faisait avant.
En février, la NHTSA a demandé à Tesla de rappeler près de 363 000 véhicules équipés du logiciel.
L'agence avait quatre plaintes principales, notamment que « le système FSD Beta peut permettre au véhicule d'agir de manière dangereuse autour des intersections, comme traverser directement une intersection alors qu'il se trouve dans une voie réservée aux virages, entrer dans une intersection où est placé un panneau d'arrêt sans que le véhicule ne s'arrête ou s'engager dans une intersection sans la prudence nécessaire lorsque le feu de signalisation est jaune fixe ». Le feu jaune fixe annonçant un feu rouge, impose l'arrêt, sauf si cet arrêt comporte des risques, griller un feu orange ou un passer au rouge peut donc être tolérer dans une certaine mesure.
Sources : Tesla Deaths, NHTSA
Et vous ?
Que pensez-vous de l'Autopilot de Tesla et de ses performances ? Du Full Self-Driving ?
Avez-vous déjà conduit ou été passager d’un véhicule équipé d’un système d’assistance à la conduite ou de conduite autonome ?
Quels sont les risques et les bénéfices de ces technologies pour la sécurité routière et l’environnement ?
Faites-vous confiance aux constructeurs automobiles et aux autorités pour réguler et contrôler ces systèmes ?
Seriez-vous prêt à acheter ou à utiliser un véhicule doté de ces fonctionnalités ?
Voir aussi :
Les données de désengagement du Full Self-Driving de Tesla mises à disposition par un ensemble de propriétaires semblent si affreuses qu'Elon Musk est mis au défi de prouver le contraire