La vidéo a été postée par le compte Whole Mars Catalog, un compte pro-Tesla très populaire avec plus de 300 000 abonnés. Le tweet, qui a été vu 1,7 million de fois, comportait un clip vidéo de sept secondes avec le texte suivant :
« L’une des choses les plus optimistes / excitantes que j’ai vues sur Tesla Full Self-Driving Beta 11.4.1. Il a détecté le piéton, mais au lieu de freiner brusquement, il a simplement continué comme un humain le ferait en sachant qu’il y avait assez de temps pour le faire ».
La personne qui a posté la vidéo a ensuite précisé qu’elle avait été filmée à San Francisco et que quiconque n’était pas d’accord avec ce comportement de conduite devait être ignorant de la vie urbaine :One of the most bullish / exciting things I've seen on Tesla Full Self-Driving Beta 11.4.1.
— Whole Mars Catalog (@WholeMarsBlog) May 14, 2023
It detected the pedestrian, but rather than slamming on the brakes it just proceeded through like a human would knowing there was enough time to do so. pic.twitter.com/8GISp4jYGp
Envoyé par Whole Mars Catalogue
La plupart des systèmes de conduite partiellement automatisés comme le Super Cruise de General Motors ou le BlueCruise de Ford sont géorestreints à un domaine opérationnel contrôlé (généralement des autoroutes à accès limité et à voies séparées). Tesla a adopté une approche différente et permet aux utilisateurs de tester son logiciel FSD beta sur les rues en surface.
Tout le monde n’est pas aussi à l’aise avec le fait que les conducteurs de Tesla testent des logiciels inachevés autour d’autres usagers de la route. En février, la National Highway Traffic Safety Administration (NHTSA) a demandé à Tesla de rappeler près de 363 000 véhicules équipés du logiciel.
L'agence avait quatre plaintes principales, notamment que « le système FSD Beta peut permettre au véhicule d'agir de manière dangereuse autour des intersections, comme traverser directement une intersection alors qu'il se trouve dans une voie réservée aux virages, entrer dans une intersection où est placé un panneau d'arrêt sans que le véhicule ne s'arrête ou s'engager dans une intersection sans la prudence nécessaire lorsque le feu de signalisation est jaune fixe ». Le feu jaune fixe annonçant un feu rouge, impose l'arrêt, sauf si cet arrêt comporte des risques, griller un feu orange ou un passer au rouge peut donc être tolérer dans une certaine mesure.
La mise à jour de la version 11.4 en avril était censée améliorer le comportement des voitures, mais il y a maintenant plus de preuves que la bêta FSD conduit toujours Tesla à enfreindre le code de la route. La section 7 du manuel du conducteur de Californie, qui traite des lois et des règles de la route, stipule que les piétons sont considérés comme des usagers de la route vulnérables et que « les piétons ont la priorité sur les passages pour piétons marqués ou non. S'il y a une limite avant le passage pour piétons, arrêtez-vous à la limite et laissez les piétons traverser la rue. »
Ce n'est pas non plus la première fois que le logiciel de Tesla est programmé pour enfreindre le code de la route.
Des accidents impliquant le « Full Self-Driving » de Tesla
Le « Full Self-Driving » de Tesla n’est pas sans risques. Les véhicules Tesla utilisant son système d'assistance à la conduite Autopilot ont été impliqués dans 273 accidents connus de juillet 2021 à juin de l'année dernière, selon les données de la NHTSA. Tesla représentait près de 70 % des 329 accidents dans lesquels des systèmes avancés d'assistance à la conduite étaient impliqués, ainsi qu'une majorité de décès et de blessures graves qui leur sont associés, selon les données. Depuis 2016, l'agence fédérale a enquêté sur un total de 35 accidents dans lesquels les systèmes "Full Self-Driving" ou "Autopilot" de Tesla étaient probablement utilisés. Ensemble, ces accidents ont conduit à la mort de 19 personnes.
Pour ceux qui se demandent quelle est la différence entre Autopilot et Full Self-Driving, voici quelques points clefs :
- Tesla Autopilot est un système d'aide à la conduite conçu pour la conduite sur autoroute. Full Self-Driving (FSD) est le système (supposé) entièrement autonome de Tesla conçu pour la conduite urbaine ;
- Autopilot est un système d'assistance à la conduite. Il utilise des capteurs et des caméras pour aider le conducteur à rester dans sa voie, à changer automatiquement de voie, à tourner dans les virages et à s'arrêter en toute sécurité en cas d'urgence. Autopilot peut également garer votre véhicule ou vous l'amener depuis une place de stationnement ;
- FSD fonctionne sur toutes les routes dans toutes les conditions (sur le papier), de jour comme de nuit. Il ne nécessite aucune intervention de votre part pour se conduire, mais il a besoin que vous soyez prêt à tout ce qui pourrait arriver, car il vous alertera si quelque chose se produit de manière inattendue afin que vous puissiez prendre le contrôle de votre véhicule si nécessaire ;
- FSD est une fonctionnalité plus récente qui vous permet de conduire votre voiture en mode mains libres. Il comprend la direction automatique améliorée, où vous pouvez définir une destination et la voiture vous y conduira automatiquement ;
- Autopilot est livré avec chaque Tesla et peut être utilisé directement. FSD est une mise à niveau de 15 000 $ disponible uniquement aux États-Unis et n'est actuellement pas légale.
Ces derniers mois, une vague de rapports est apparue dans laquelle les conducteurs de Tesla se sont plaints d'un « freinage fantôme » soudain lorsque le véhicule est à grande vitesse, provoquant presque des accidents dans de nombreux cas. Plus de 100 plaintes de ce type ont été déposées auprès de la NHTSA en trois mois, selon le Washington Post.
Le quotidien explique :
Tesla freine de manière inattendue en réponse à des dangers imaginaires – tels que la circulation venant en sens inverse sur des routes à deux voies – ce qui a incité leurs propriétaires terrifiés à déposer une vague de plaintes auprès de la National Highway Traffic Safety Administration au cours des trois derniers mois, selon une analyse du Washington Post des données fédérales sur la sécurité automobile.
Le phénomène, connu sous le nom de « freinage fantôme », est un problème persistant pour les véhicules Tesla.
Le constructeur automobile a été contraint de rappeler une version de son logiciel Full Self-Driving en octobre en raison de faux positifs de son système de freinage d'urgence automatique qui, selon lui, ont été déclenchés par la mise à jour logicielle. Les plaintes ont grimpé en flèche après le rappel et restent élevées, signalant l'inquiétude continue des propriétaires.
Les rapports de propriétaires de freinage fantôme à la NHTSA sont passés à 107 plaintes au cours des trois derniers mois, contre seulement 34 au cours des 22 mois précédents.
Le phénomène, connu sous le nom de « freinage fantôme », est un problème persistant pour les véhicules Tesla.
Le constructeur automobile a été contraint de rappeler une version de son logiciel Full Self-Driving en octobre en raison de faux positifs de son système de freinage d'urgence automatique qui, selon lui, ont été déclenchés par la mise à jour logicielle. Les plaintes ont grimpé en flèche après le rappel et restent élevées, signalant l'inquiétude continue des propriétaires.
Les rapports de propriétaires de freinage fantôme à la NHTSA sont passés à 107 plaintes au cours des trois derniers mois, contre seulement 34 au cours des 22 mois précédents.
Et vous ?
Pensez-vous que le « Full Self-Driving » de Tesla soit une technologie sûre et fiable ? Un danger pour les piétons ?
Quelles sont les responsabilités des conducteurs de Tesla qui utilisent le « Full Self-Driving » sur les routes publiques ?
Quelles sont les mesures que les régulateurs devraient prendre pour encadrer le développement et le déploiement du « Full Self-Driving » de Tesla ?
Quels sont les avantages et les inconvénients du « Full Self-Driving » de Tesla par rapport aux autres systèmes de conduite partiellement automatisés ?