Les accidents mortels impliquant l'Autopilot de Tesla se sont multipliés au cours de ces dernières années. Le dernier en date a eu lieu à Draper où un conducteur de Tesla a percuté par l'arrière un motocycliste dimanche matin, tuant le motocycliste sur le coup. La patrouille routière de l'Utah a indiqué que la fonction Autopilot de la voiture était activée au moment de la collision. Cet accident intervient quelques jours après que La National Highway Traffic Safety Administration (NHTSA) a ouvert une enquête spéciale sur un accident mortel, dans lequel une Tesla Model Y de 2021 a tué un motocycliste en Californie au début du mois.
En effet, l'Autopilot est un système avancé d'aide à la conduite qui est censé améliorer la sécurité et la commodité au volant. Cependant, le nom "Autopilot" a toujours induit les conducteurs de Tesla en erreur, les amenant à être distraits au volant, voire à s'endormir parfois. Même lorsque l'Autopilot est complété par l'option "Full Self-Driving" (FSD), c'est loin d'être un système parfait, car il ne parvient pas à réussir plusieurs manœuvres simples qu'un conducteur humain peut réaliser facilement. Par exemple, au début du mois, un youtubeur a montré comment l'Autopilot de Tesla fait foncer son Model 3 sur un tramway venant en sens inverse.
Se diriger vers le train qui arrive n'est qu'un des nombreux cas graves signalés par le youtubeur. Dans une vidéo montrant des tests qu'il a réalisés, on peut voir les erreurs graves commises par l'Autopilot. Voici une liste non exhaustive :
- la Tesla a pratiquement foncé sur une barrière (qui indiquait que la route est bloquée, 07:06) ;
- la Tesla a choisi la mauvaise voie et s'embrouille visiblement (confère l'affichage sur le tableau de bord, 11:06) ;
- la Tesla a essayé de griller un feu rouge, pendant que les voitures circulaient (12:12) ;
- la Tesla s'est arrêtée au milieu d'une intersection sans raison (13:09) ;
- la Tesla a choisi la mauvaise voie pour un virage à gauche (13:25) ;
- la Tesla a activé et désactivé constamment le clignotant gauche sans raison (dans un endroit où il n'était même pas permis de tourner à gauche, 15:02) ;
- la Tesla n'a pas réussi à tourner correctement à gauche et a presque heurté des piétons (17:13).
Le mois dernier, la NHTSA a publié un rapport selon lequel des voitures Tesla exécutant l'Autopilot étaient impliquées dans 273 accidents signalés l'année dernière. Sur 367 accidents signalés entre juillet 2021 et le 15 mai 2022, les véhicules Tesla représentaient les trois quarts de tous les accidents impliquant un système d'aide à la conduite (ADAS). La nouvelle fournit encore plus de données sapant les affirmations selon lesquelles l'Autopilot est un système sécurisé. Malgré le nom de son système d'aide à la conduite, Tesla a été forcé par les autorités de rappeler aux conducteurs d'être vigilants sur la route et de maintenir leurs mains sur le volant.
« Même si votre véhicule est équipé de fonctions d'aide à la conduite ou de pilotage automatique, tous les véhicules exigent que le conducteur soit toujours attentif et regarde la route », a déclaré Michael Gordon de la patrouille routière de l'Utah, dimanche. L'enquête ouverte par la NHTSA au début du mois est la 38e enquête spéciale sur un accident impliquant un véhicule Tesla depuis 2016. Parmi ces accidents, 18 ont été mortels. Selon les autorités de la NHTSA, la dernière enquête, comme la plupart des autres, cherche à déterminer si Autopilot, le système avancé d'aide à la conduite de Tesla était utilisé ou non au moment de l'accident.
L'agence a refusé de commenter cette affaire, car elle est toujours en cours. Mais les médias locaux ont rapporté que le 7 juillet, un motocycliste de 48 ans a été tué après une collision sur la Riverside Freeway à Riverside, en Californie. Il roulait sur la voie réservée aux véhicules multioccupants et a été approché par l'arrière par la Tesla. La NHTSA a également ouvert une enquête spéciale sur un autre accident mortel de Tesla en Floride, qui a tué un conducteur de la Tesla de 66 ans et un passager de 67 ans. En mai, l'agence a commencé à enquêter sur un accident impliquant une Tesla Model S de 2022 qui a tué trois personnes.
Le mois dernier, la NHTSA a élargi son enquête sur le système Autopilot de Tesla après une série de collisions par l'arrière à travers les États-Unis. Plusieurs véhicules Tesla ont foncé dans des véhicules d'urgence stationnés. Depuis le début de l'enquête en août dernier, la NHTSA a identifié six autres accidents de ce type. L'incident le plus récent s'est produit en janvier. Le constructeur automobile américain avait installé une mise à jour logicielle sur ses véhicules en septembre, qui devrait permettre à l'Autopilot de reconnaître les véhicules d'urgence même dans des conditions d'éclairage difficiles.
L'enquête spéciale porte désormais sur environ 830 000 véhicules des quatre séries de modèles actuels des années 2014 à 2022. Dans le cadre de l'enquête, il s'agit aussi de savoir comment l'Autopilot exacerbe les erreurs humaines. Selon Tesla, l'Autopilot n'est qu'un système d'assistance, le conducteur doit donc garder les mains sur le volant à tout moment. Il faut également être prêt à reprendre le contrôle du véhicule à tout moment. Le PDG de Tesla, Elon Musk, affirme que l'Autopilot rend la conduite plus sûre et permet d'éviter les accidents. Cependant, les rapports accablants sur l'Autopilot tendent à démontrer le contraire.
Chaque année, la NHTSA ouvre en moyenne plus de 100 enquêtes spéciales sur des accidents pour étudier les nouvelles technologies et d'autres problèmes de sécurité potentiels dans l'industrie automobile. En février dernier, Tesla a dû rappeler 53 822 véhicules équipés de l'Autopilot, qui peut permettre à certains modèles d'effectuer un "rolling stop" (arrêt roulant) et de ne pas s'arrêter complètement à certaines intersections, ce qui pose un risque pour la sécurité. La NHTSA a déclaré que le rappel concerne certains véhicules Model S et Model X 2016-2022, Model 3 2017-2022 et Model Y 2020-2022. Elle a invité Tesla à désactiver cette fonction.
Il y a quelques jours, le tribunal de district de Munich I a condamné Tesla à rembourser à un client la majeure partie du prix d'achat de 112 000 euros pour un SUV Model X. Dans le cadre du jugement, le tribunal s'est basé sur un rapport, qui n'a pas encore été rendu public, selon lequel le système d'assistance ne reconnaît pas de manière fiable les obstacles - comme le rétrécissement d'un chantier de construction. De plus, la voiture freine encore et encore inutilement. Cela pourrait signifier un « risque massif » dans les centres-villes en particulier et entraîner des collisions par l'arrière.
L'argument des avocats de Tesla, selon lequel Autopilot n'était pas destiné au trafic urbain, n'a pas été retenu par le tribunal. « Une fois de plus, cela montre que Tesla ne tient pas ses promesses en matière d'Autopilot », a déclaré l'avocat du plaignant Christoph Lindner. Dans un jugement rendu en juillet 2020, un tribunal de Munich a interdit à Tesla Allemagne de répéter des « déclarations trompeuses » concernant les capacités de sa technologie Autopilot. Selon le jugement, Tesla ne pourra plus inclure les expressions « plein potentiel de conduite autonome » ou « pilote automatique inclus » dans ses supports publicitaires allemands.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'Autopilot de Tesla ?
Selon vous, le logiciel est-il fiable ? Améliore-t-il réellement la sécurité sur la route ?
Selon vous, qu'est-ce qui explique la grande confiance des conducteurs de Tesla dans l'Autopilot ?
Voir aussi
L'Autopilot de Tesla fait pratiquement foncer un Model 3 sur un tramway venant en sens inverse, l'option « Full Self-Driving » était activée
Des véhicules Teslas exécutant Autopilot étaient impliqués dans 273 accidents signalés depuis l'année dernière, selon les données de la National Highway Traffic Safety
Tesla rappelle près de 54 000 véhicules susceptibles de ne pas respecter les panneaux d'arrêt, les Model S et Model X 2016-2022, Model 3 2017-2022 et Model Y 2020-2022 sont concernés
Le tribunal de Munich ordonne à Tesla de rembourser un client suite à ses problèmes avec Autopilot, après avoir constaté des lacunes en matière de sécurité dans la technologie du constructeur auto