Les accidents mortels impliquant l'Autopilot de Tesla sont de plus en plus fréquents et les autorités routières semblent plus inquiètes que jamais au sujet de la fiabilité du logiciel. Deux accidents mortels ont particulièrement attiré l'attention des régulateurs fédéraux américains au cours du dernier mois. Le premier accident mortel s'est produit aux premières heures du 7 juillet à Riverside, en Californie, lorsqu'une Tesla Model Y circulant sur la State Route 91 a percuté une moto par l'arrière, tuant son conducteur. Le deuxième accident mortel de moto s'est produit le 24 juillet, de nuit également, cette fois sur la I-15 à la sortie de Draper, dans l'Utah.
Dans ce cas, une Tesla Model 3 roulait derrière une moto et l'a percutée, tuant son conducteur. Selon les rapports sur ces deux accidents, la patrouille routière de la Californie cherche toujours à savoir si l'Autopilot était actif lors du premier accident, mais le conducteur de l'Utah a admis qu'il utilisait l'assistance à la conduite au moment de son accident. Cette semaine, les médias américains ont rapporté que des enquêteurs de la NHTSA se sont rendus sur les lieux des accidents dans le cadre d'une nouvelle enquête. La NHTSA soupçonne que le système d'aide à la conduite partiellement automatisé de Tesla était utilisé dans chaque cas.
L'agence indique qu'une fois qu'elle aura recueilli davantage d'informations, elle pourra inclure ces accidents dans une enquête plus large portant sur les véhicules Tesla heurtant des véhicules d'urgence stationnés le long des autoroutes. La NHTSA enquête également sur plus de 750 plaintes selon lesquelles les véhicules Tesla peuvent freiner sans raison. Michael Brooks, directeur par intérim de l'organisation à but non lucratif Center for Auto Safety, a appelé la NHTSA à rappeler l'Autopilot de Tesla, car il ne reconnaît pas les motocyclistes, les véhicules d'urgence ou les piétons. Il s'agit d'une accusation soutenue par plusieurs critiques.
« Il est assez clair pour moi, et cela devrait l'être pour beaucoup de propriétaires de Tesla maintenant, que ce système ne fonctionne pas correctement et qu'il ne répondra pas aux attentes, et qu'il met des personnes innocentes en danger sur les routes », a déclaré Brooks. Selon des rapports de la NHTSA, depuis 2016, l'agence a envoyé des équipes sur 39 accidents dans lesquels des systèmes de conduite automatisée sont soupçonnés d'être utilisés. Parmi ceux-ci, 30 impliquaient des Teslas, y compris des accidents qui ont causé 19 décès. Brooks a critiqué l'agence pour avoir continué à enquêter, mais sans prendre des mesures.
« Qu'est-ce qu'ils font pendant que ces accidents continuent de se produire ? Les conducteurs sont leurrés en pensant que cela les protège, eux et les autres sur les routes, mais cela ne fonctionne tout simplement pas », a-t-il déclaré. Tesla a abandonné l'utilisation du radar de ses systèmes et s'appuie uniquement sur des caméras et la mémoire des ordinateurs. Mais Brooks et d'autres défenseurs de la sécurité affirment que l'absence de radar nuit à la vision dans l'obscurité. Tesla a déclaré que l'Autopilot et le FSD (Full Self-Driving) ne peuvent pas se conduire eux-mêmes, et que les conducteurs doivent être prêts à intervenir à tout moment.
La NHTSA enquête également pour déterminer si la suppression du capteur radar est à l'origine d'un problème de "freinage fantôme" qui a donné lieu à des centaines de plaintes auprès du régulateur. L'absence de radar prospectif et le recours exclusif aux caméras pourraient bien être un facteur déterminant dans ces deux accidents mortels, même si des systèmes de régulation adaptative de la vitesse moins controversés ont montré qu'ils avaient des problèmes avec les motos si elles roulaient près du bord d'une voie. La seconde enquête ouverte au début du mois par l'agence porte sur des allégations de publicités mensongères visant Tesla.
En effet, l'Autopilot est un système avancé d'aide à la conduite qui est censé améliorer la sécurité et la commodité au volant. Cependant, le nom "Autopilot" a toujours induit les conducteurs de Tesla en erreur, les amenant à être distraits au volant, voire à s'endormir parfois. Même lorsque l'Autopilot est complété par le FSD, c'est loin d'être un système parfait, car il ne parvient pas à réussir plusieurs manœuvres simples qu'un conducteur humain peut réaliser facilement. Par exemple, au début du mois, un youtubeur a montré comment l'Autopilot de Tesla fait foncer son Model 3 sur un tramway venant en sens inverse.
Le département californien des véhicules à moteur a accusé Tesla de publicité mensongère dans sa promotion de l'Autopilot et de sa version améliorée, le FSD. Selon les médias locaux, les accusations ont été formulées dans des plaintes déposées auprès du bureau des audiences administratives de l'État le 28 juillet. Dans une interview en juin, l'administrateur de la NHTSA, Steven Cliff, a déclaré que l'agence intensifiait ses efforts pour comprendre les risques posés par les véhicules automatisés afin de pouvoir décider des réglementations nécessaires pour protéger les conducteurs, les passagers et les piétons.
Il n'existe pas de réglementation fédérale couvrant directement les véhicules autonomes ou ceux dotés de systèmes d'aide à la conduite partiellement automatisés tels que le système Autopilot. Cependant, l'agence affirme que cette technologie est très prometteuse pour réduire les accidents de la route. Elle a également ordonné à tous les constructeurs automobiles et aux entreprises technologiques dotés de systèmes de conduite automatisée de signaler tous les accidents. L'agence a publié un premier lot de données en juin, montrant que près de 400 accidents ont été signalés sur une période de 10 mois, dont 273 avec des Teslas.
Sur 367 accidents signalés entre juillet 2021 et le 15 mai 2022, les véhicules Tesla représentaient les trois quarts de tous les accidents impliquant un système d'aide à la conduite. La nouvelle fournit encore plus de données sapant les affirmations selon lesquelles l'Autopilot est un système sécurisé. Malgré le nom du système, Tesla a été forcé par les autorités de rappeler aux conducteurs d'être vigilants sur la route et de maintenir leurs mains sur le volant. Le PDG de Tesla, Elon Musk, affirme que l'Autopilot rend la conduite plus sûre et permet d'éviter les accidents. Cependant, les rapports accablants sur l'Autopilot tendent à démontrer le contraire.
La NHTSA a toutefois mis en garde contre les comparaisons, affirmant que la télématique de Tesla lui permet de recueillir des données en temps réel, et beaucoup plus rapidement que les autres entreprises. Le mois dernier, le tribunal de district de Munich I a condamné Tesla à rembourser à un client la majeure partie du prix d'achat de 112 000 euros pour un SUV Model X. Dans le cadre du jugement, le tribunal s'est basé sur un rapport, qui n'a pas encore été rendu public, selon lequel le système d'assistance ne reconnaît pas de manière fiable les obstacles - comme le balisage d'un chantier de construction.
L'argument des avocats de Tesla, selon lequel Autopilot n'était pas destiné au trafic urbain, n'a pas été retenu par le tribunal. « Une fois de plus, cela montre que Tesla ne tient pas ses promesses en matière d'Autopilot », a déclaré l'avocat du plaignant Christoph Lindner. Dans un jugement rendu en juillet 2020, un tribunal de Munich a interdit à Tesla Allemagne de répéter des « déclarations trompeuses » concernant les capacités de sa technologie Autopilot. Selon le jugement, Tesla ne pourra plus inclure les expressions « plein potentiel de conduite autonome » ou « pilote automatique inclus » dans ses supports publicitaires allemands.
Chaque année, la NHTSA ouvre en moyenne plus de 100 enquêtes spéciales sur des accidents pour étudier les nouvelles technologies et d'autres problèmes de sécurité potentiels dans l'industrie automobile. En février dernier, Tesla a dû rappeler 53 822 véhicules équipés de l'Autopilot, qui peut permettre à certains modèles d'effectuer un "rolling stop" (arrêt roulant) et de ne pas s'arrêter complètement à certaines intersections, ce qui pose un risque pour la sécurité. La NHTSA a déclaré que le rappel concerne certains véhicules Model S et Model X 2016-2022, Model 3 2017-2022 et Model Y 2020-2022. Elle a invité Tesla à désactiver cette fonction.
À terme, Musk affirme que les véhicules Tesla se conduiront tout seuls, permettant ainsi la création d'une flotte de robotaxis autonomes qui augmenteront les bénéfices de Tesla. En 2019, Musk s'était engagé à faire fonctionner les robotaxis en 2020. Cependant, l'entreprise ne parvient toujours pas à convaincre avec l'Autopilot.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des accidents impliquant l'Autopilot de Tesla ?
Que pensez-vous du système d'aide à la conduite de l'entreprise ? Est-il fiable ?
Pensez-vous que les autorités devraient interdire à Tesla de commercialiser l'Autopilot ?
Voir aussi
L'Autopilot de Tesla fait pratiquement foncer un Model 3 sur un tramway venant en sens inverse, l'option « Full Self-Driving » était activée
Un véhicule Tesla avec l'Autopilot activé percute une moto sur l'autoroute et tue le conducteur, l'accident remet à nouveau en cause la fiabilité du système d'aide à la conduite de Tesla
Des véhicules Teslas exécutant Autopilot étaient impliqués dans 273 accidents signalés depuis l'année dernière, selon les données de la National Highway Traffic Safety
Tesla rappelle près de 54 000 véhicules susceptibles de ne pas respecter les panneaux d'arrêt, les Model S et Model X 2016-2022, Model 3 2017-2022 et Model Y 2020-2022 sont concernés
Le tribunal de Munich ordonne à Tesla de rembourser un client suite à ses problèmes avec Autopilot, après avoir constaté des lacunes en matière de sécurité dans la technologie du constructeur auto