Ralph Nader, un militant des droits des consommateurs et du grand public, a récemment sévèrement critiqué la technologie de conduite autonome de Tesla. Dans une lettre aux régulateurs, Nader a déclaré que l'Autopilot de Tesla et sa version améliorée, le Full Self-Driving (FSD), sont dangereux et ne devraient pas être autorisés sur les routes. Il a décrit le déploiement à grande échelle par Tesla du FSD comme étant "l'une des actions les plus dangereuses et les plus irresponsables menées par un constructeur automobile depuis des décennies". Nader demande aux régulateurs de rappeler cette technologie.
Ralph Nader est probablement le militant américain le plus célèbre pour les droits des consommateurs et du grand public, un rôle qui l'a amené à plusieurs reprises à entrer en conflit avec les entreprises et le gouvernement. Nader a fait la une des journaux en 1965 avec son livre "Unsafe at Any Speed", qui reprochait à l'industrie automobile de produire des véhicules dangereux. Il est devenu un héros aux yeux de plusieurs personnes lorsque des cadres de General Motors ont engagé des détectives privés pour le harceler, avant de lui présenter des excuses publiques lors d'une audition télévisée d'une commission sénatoriale.
Dans sa lettre aux régulateurs, postée sur son propre site Web, Nader critique vivement Tesla et reproche à la société d'avoir déployé à grande échelle une technologie encore expérimentale. « Le déploiement majeur par Tesla de la technologie dite d'autoconduite intégrale (FSD) est l'une des actions les plus dangereuses et les plus irresponsables menées par un constructeur automobile depuis des décennies. Tesla n'aurait jamais dû intégrer cette technologie dans ses véhicules. Aujourd'hui, plus de 100 000 propriétaires de Tesla utilisent une technologie dont les recherches montrent qu'elle fonctionne mal toutes les huit minutes », a-t-il écrit.
Tesla a toujours insisté sur le fait que les fonctions Autopilot et FSD de ses véhicules électriques sont sûres, plus sûres que la conduite humaine. « Les fonctions Autopilot et FSD de Tesla améliorent la capacité de nos clients à conduire de manière plus sûre que le conducteur moyen aux États-Unis », a écrit Rohan Patel, directeur principal de la politique publique chez Tesla, dans une lettre adressée le 4 mars 2022 à des sénateurs démocrates américains qui avaient demandé à la société des explications sur l'augmentation rapide du nombre d'accidents impliquant l'Autopilot. Cependant, les sénateurs et les activistes ne sont pas vraiment convaincus.
Elon Musk, PDG de Tesla, présente les voitures autonomes comme la prochaine grande nouveauté depuis des années. En 2015, il a déclaré que les véhicules autonomes seraient sur la route d'ici deux ans. Bien que ce calendrier n'ait pas été respecté, Musk n'a pas encore renoncé à son rêve ni tempéré ses ambitions. En mai 2022, il a une nouvelle fois déclaré que les voitures entièrement autonomes devraient être disponibles à la même époque l'année prochaine. Mais Nader, qui a été quatre fois candidat à l'élection présidentielle et précurseur des normes modernes de sécurité automobile, pense que Musk a causé assez de dégâts et qu'il faut l'arrêter.
« Je demande aux régulateurs fédéraux d'agir immédiatement afin d'empêcher la multiplication des décès et des blessures dus aux accidents provoqués par Tesla avec cette technologie. La National Highway Traffic Safety Administration (NHTSA) a le pouvoir d'agir rapidement pour prévenir de tels désastres. La NHTSA enquête depuis de nombreuses années sur Tesla et sa technologie de conduite entièrement autonome. La NHTSA doit utiliser son pouvoir de rappel de sécurité pour ordonner que la technologie FSD soit retirée de chaque Tesla », demande-t-il au régulateur. Nader estime que la responsabilité de Tesla devrait être engagée dans les accidents.
« Notre pays ne doit pas permettre que ce logiciel défectueux, dont Tesla elle-même prévient qu'il peut faire "la mauvaise chose au pire moment", circule dans les rues où les enfants vont à l'école. Ensemble, nous devons envoyer un message urgent aux autorités de réglementation soucieuses de la sécurité des victimes : les Américains ne doivent pas servir de cobayes à une entreprise puissante et très médiatisée et à son PDG célèbre. Personne n'est au-dessus des lois de l'homicide involontaire », a-t-il conclu. Rappelons que, pour ses contributions à la sécurité des véhicules, Nader a même été intronisé dans l'Automotive Hall of Fame en 2016.
La lettre de Nader est la dernière d'un chœur croissant de voix appelant le gouvernement à prendre une décision sur le FSD de Tesla, qui, selon les critiques, repousse les limites de ce qui devrait être disponible pour les conducteurs. La NHTSA enquête actuellement sur 16 accidents dans lesquels des propriétaires de véhicules Tesla utilisant Autopilot ont percuté des véhicules d'urgence à l'arrêt, faisant 15 blessés et un mort. La plupart de ces incidents ont eu lieu après la tombée de la nuit, le logiciel ignorant les mesures de contrôle de la scène, notamment les feux de signalisation, les fusées éclairantes, les cônes et un panneau fléché éclairé.
L'enquête a récemment été transformée en "analyse technique", qui constitue la deuxième et dernière phase d'une enquête avant un éventuel rappel. Dès la livraison, les véhicules Tesla sont équipés de l'Autopilot. Pour 12 000 dollars de plus, les propriétaires peuvent acheter l'option avancée FSD, dont Musk a promis à plusieurs reprises qu'elle offrirait un jour des capacités entièrement autonomes. Mais à ce jour, le FSD reste également un système avancé d'aide à la conduite de "niveau 2". Cela signifie que le conducteur doit rester pleinement impliqué dans le fonctionnement du véhicule lorsqu'il est en mouvement.
Outre les accidents impliquant des véhicules d'urgence, la NHTSA a également dressé une liste d'enquêtes spéciales sur d'autres accidents, dans le cadre desquelles l'agence recueille des données allant au-delà de ce que les autorités locales et les compagnies d'assurance collectent généralement sur les lieux. Fin juillet, 48 accidents figuraient sur la liste des enquêtes spéciales de l'agence, dont 39 impliquent des véhicules Tesla utilisant l'Autopilot. Selon les données de la NHTSA, dix-neuf personnes, dont des conducteurs, des passagers, des piétons, d'autres conducteurs et des motocyclistes, ont été tuées dans ces accidents de Tesla.
Début août, le DMV (Department of Motor Vehicles) de Californie a accusé Tesla de faire de la publicité mensongère pour ses fonctions Autopilot et FSD, alléguant que la société a fait des déclarations "fausses ou trompeuses" sur les capacités de conduite autonome de ses véhicules. L'action du DMV pourrait entraîner la suspension des licences de Tesla pour produire et vendre des voitures en Californie. Notons que Tesla a déjà fait face à des plaintes similaires par le passé. En 2016, l'Allemagne a demandé à l'entreprise de cesser d'utiliser le terme "Autopilot", craignant qu'il puisse suggérer que ses véhicules sont entièrement autonomes.
L'année dernière, les sénateurs américains Ed Markey (D-MA) et Richard Blumenthal (D-CT) ont demandé à la Federal Trade Commission (FTC) d'enquêter sur la façon dont Tesla fait la publicité de l'Autopilot et du FSD. Ils ont affirmé que le constructeur automobile a "exagéré les capacités de ses véhicules", ce qui pourrait "constituer une menace pour les automobilistes et les autres usagers de la route". Maintenant, Nader prête son expertise et sa réputation à la lutte. Le défenseur des consommateurs a déclaré que la NHTSA doit agir avant que quelqu'un d'autre ne soit tué.
Source : Ralph Nader
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des déclarations de l'activiste Ralph Nader ?
Pensez-vous que les régulateurs devraient suivre ses recommandations ?
Que pensez-vous des fonctions Autopilot et FSD des véhicules électriques de Tesla ?
Selon vous, que se passerait-il si l'Autopilot et le FSD venaient à être interdits par les régulateurs ?
Voir aussi
Un véhicule Tesla avec l'Autopilot activé percute une moto sur l'autoroute et tue le conducteur, l'accident remet à nouveau en cause la fiabilité du système d'aide à la conduite de Tesla
L'Autopilot de Tesla fait pratiquement foncer un Model 3 sur un tramway venant en sens inverse, l'option « Full Self-Driving » était activée
Tesla déclare aux législateurs américains que le système Autopilot nécessite une "surveillance constante", et conforte les critiques selon lesquelles le nom induit les conducteurs en erreur
Le tribunal de Munich ordonne à Tesla de rembourser un client suite à ses problèmes avec Autopilot, après avoir constaté des lacunes en matière de sécurité dans la technologie du constructeur auto
Autopilot de Tesla : les États-Unis enquêtent sur la fonctionnalité après que 11 Tesla se sont écrasées contre des véhicules d'urgence
« L'une des actions les plus dangereuses et irresponsables d'une entreprise automobile depuis des décennies »,
L'activiste Ralph Nader demande aux régulateurs de rappeler la technologie FSD de Tesla
« L'une des actions les plus dangereuses et irresponsables d'une entreprise automobile depuis des décennies »,
L'activiste Ralph Nader demande aux régulateurs de rappeler la technologie FSD de Tesla
Le , par Bill Fassinou
Une erreur dans cette actualité ? Signalez-nous-la !