En 2015, le milliardaire Elon Musk, PDG de Tesla, a lancé un défi : d'ici 2018, les voitures Tesla se conduiraient toutes seules. « Mon estimation de la date à laquelle nous aurons une autonomie complète est d'environ trois ans », a-t-il déclaré. En 2016, il a assuré sur Twitter que sa technologie d'assistance à la conduite permettrait à ses voitures de traverser le pays sans aide « d'ici l'année prochaine », et que les propriétaires pourraient appeler leurs voitures de « n'importe où connecté par terre et non bloqué par les frontières, par exemple si vous êtes à Los Angeles et que la voiture est à New York ». Une légion de fanboys rêvait de monétiser leurs Tesla en taxis robots et d'être à l'avant-garde de la révolution des transports.
Musk a encouragé les conducteurs à considérer Autopilot comme plus avancé qu'il ne l'était, déclarant en janvier 2016 qu'il était « probablement meilleur » qu'un conducteur humain. En novembre 2016, la société a publié une vidéo d'une Tesla naviguant sur les routes de la Bay Area avec l'indication suivante : « La personne à la place du conducteur n'est là que pour des raisons légales. Elle ne fait rien. La voiture se conduit toute seule ». Musk a également rejeté le nom « Copilot » en faveur « d'Autopilot ».
La vidéo datant de 2016 faisant la promotion de la conduite autonome de Tesla
Les petits caractères indiquaient clairement que la technologie était uniquement destinée à l'assistance au conducteur, mais ce message n'a reçu qu'une fraction de l'attention des annonces de Musk. Un grand nombre de conducteurs semblaient vraiment confus quant aux capacités d'Autopilot (d'ailleurs, Tesla a également refusé de divulguer que la voiture de la vidéo de 2016 s'est écrasée dans le parking de l'entreprise, ce qui a été souligné par un ingénieur de Tesla qui a reconnu que la vidéo de 2016 faisant la promo de la conduite autonome du véhicule était truquée).
« L'intention de la vidéo n'était pas de décrire avec précision ce qui était disponible pour les clients en 2016. [L'intention] était de décrire ce qu'il était possible d'intégrer au système », a déclaré l'ingénieur Tesla, selon une transcription de son témoignage. Pourtant, Musk a fait la promotion de la vidéo à l'époque, tweetant que les véhicules Tesla ne nécessitent « aucune intervention humaine » pour traverser les rues urbaines jusqu'aux autoroutes et éventuellement trouver une place de parking.
Néanmoins, Tesla a fait d'Autopilot une fonctionnalité standard de ses voitures et, plus récemment, a déployé un système « Full Self-Driving » (FSD) plus ambitieux sur des centaines de milliers de ses véhicules.
Un nombre d'accidents en augmentation
Le nombre de décès et de blessures graves associés à Autopilot a augmenté de manière significative, selon les données publiées par la NHTSA (National Highway Traffic Safety Administration, l'agence fédérale américaine des États-Unis chargée de la sécurité routière). En juin 2022, lorsque l'agence a fait un décompte partiel, elle a noté que le logiciel de Tesla était impliqué dans 273 accidents en 2021. Il faut préciser que, depuis 2021, les constructeurs automobiles sont tenus d'informer la NHTSA si l'un de leurs véhicules est impliqué dans un accident alors qu'ils utilisent des systèmes de conduite partiellement automatisés, également appelés systèmes SAE de niveau 2. Comme beaucoup le soupçonnaient, le système Autopilot de Tesla était à l'origine de la majorité des accidents depuis le début de la période de référence. En fait, Tesla représentait les trois quarts de tous les accidents ADAS, soit 273 accidents sur 367 signalés entre juillet 2021 et le 15 mai 2022.
Mais ce n'est pas tout. Sur les six décès répertoriés dans l'ensemble de données publié par la NHTSA en juin 2022, cinq étaient liés à des véhicules Tesla – dont un accident de juillet 2021 impliquant un piéton à Flushing, dans le Queens, et un accident mortel en mars à Castro Valley, en Californie. Certains remontaient à 2019. Les données les plus récentes de l'agence américaine incluent au moins 17 incidents mortels, dont 11 depuis mai dernier, et cinq blessés graves.
La NHTSA a déclaré qu'un rapport d'accident impliquant une assistance à la conduite n'impliquait pas en soi que la technologie en était la cause. « La NHTSA mène une enquête active sur Autopilot de Tesla, y compris Full Self-Driving », a déclaré la porte-parole Veronica Morales, notant que l'agence ne commente pas les enquêtes ouvertes. « La NHTSA rappelle au public que tous les systèmes avancés d'aide à la conduite exigent que le conducteur humain soit en contrôle et pleinement engagé dans la tâche de conduite à tout moment. En conséquence, toutes les lois des États tiennent le conducteur humain responsable du fonctionnement de ses véhicules. »
La réaction du public
Néanmoins, certains estiment que cette technologie n'aurait jamais dû être autorisée sur la route. Ryan Cooper, éditeur en chef d'un magazine, note par exemple que : « les régulateurs devraient examiner de plus près les fonctions d'assistance à la conduite en général, obligeant les fabricants à prouver qu'ils améliorent réellement la sécurité, plutôt que de faire confiance à la parole d'un oligarque fourbe ».
Il continue en disant que :
« La principale défense de FSD est l'hypothèse technologique utopique selon laquelle, quels que soient ses problèmes, elle ne peut pas être pire que les conducteurs humains. Tesla a affirmé que le taux d'accident FSD est un cinquième de celui des conducteurs humains, et Musk a fait valoir qu'il est donc moralement obligatoire de l'utiliser : "Au point où vous pensez que l'ajout d'autonomie réduit les blessures et la mort, je pense que vous avez une obligation morale de le déployer même si vous allez être poursuivi et blâmé par beaucoup de gens.
« Pourtant, si les propres données de Musk sur l'utilisation du FSD sont exactes, cela ne peut pas être vrai. En avril, il a affirmé qu'il y avait eu 150 millions de miles parcourus avec FSD lors d'un appel à un investisseur, un chiffre raisonnable étant donné que ce ne serait que 375 miles pour chacune des 400 000 voitures dotées de la technologie. En supposant que tous ces accidents impliquaient des FSD - une hypothèse plausible étant donné que les FSD ont été considérablement étendus au cours de la dernière année et que les deux tiers des accidents dans les données se sont produits pendant cette période - cela implique un taux d'accidents mortels de 11,3 décès pour 100 millions de kilomètres parcourus. Le taux global d'accidents mortels pour les voyages en voiture, selon la NHTSA, était de 1,35 décès pour 100 millions de kilomètres parcourus en 2022.
« En d'autres termes, le système FSD de Tesla est probablement de l'ordre de dix fois plus dangereux à conduire que les humains ».
Pour nuancer ses propos, il faut rappeler que la NHTSA n'en est encore qu'aux études préliminaires, donc les chiffres exacts d'accidents impliquant les logiciels de Tesla seront quelque peu différents.
Toutefois, le même internaute estime que « même si seulement la moitié des décès découverts par la NHTSA étaient dus au FSD, cela le rendrait encore beaucoup plus meurtrier que les humains. En effet, le chiffre réel pourrait être plus élevé, car il n'y a aucun moyen de savoir si Tesla rapporte chaque crash avec précision ».
Elon Musk a progressivement fait retirer du matériel des Tesla pour une meilleure rentabilité
Au fil du temps, Tesla s'est progressivement débarrassé de certains composants de sa voiture. L'entreprise a par exemple décidé de se débarrasser du radar puis, en octobre 2022, a annoncé sa décision de se séparer des capteurs ultrasons, principalement utilisés pour détecter des obstacles proches (notamment pour les systèmes de stationnement autonome), dans un premier temps sur les Model 3 et Model Y, puis du Model S et du Model X cette année. Tesla a d'ailleurs amorcé la transition vers son système Tesla Vision, qui repose uniquement sur des caméras et ses logiciels de vision par ordinateur, en retirant progressivement le radar de ses véhicules électriques dès 2021.
Tesla a donc supprimé les capteurs de stationnement à ultrasons traditionnels, qui utilisent des ondes ultrasonores pour détecter la distance des objets à l'avant ou à l'arrière d'un véhicule, et s'appuie désormais uniquement sur la vision de la caméra pour créer une image de l'environnement du véhicule.
Cette image est ensuite destinée à donner au véhicule une évaluation précise de sa proximité avec les objets.
Un concessionnaire indépendant de véhicules électriques et propriétaire de Tesla au Royaume-Uni a tourné une vidéo et a démontré à quel point la vision de Tesla est mauvaise lorsqu'un Tesla Model Y mis à jour est soumis à un certain nombre de situations de stationnement de base.
Les noms Autopilot et Full Self-Driving donnent aux utilisateurs un faux sentiment de sécurité
Marques Brownlee, un éminent journaliste technologique sur YouTube qui est assez positif à propos de Tesla, a publié il y a quelques mois une vidéo explorant comment le système FSD fonctionnerait pour amener son modèle S Plaid au bureau. Il a dû intervenir à quelques reprises lorsque la voiture a raté une sortie et a tenté d'emprunter une voie de péage bloquée par un cône. « C'est stressant », a-t-il déclaré. « Ce n'est pas ce que vous espériez, ce qui élimine le stress de la conduite… vous devez être beaucoup plus attentif pour vous assurer que la voiture ne fait pas de choses bizarres ».
Malgré l'insistance de Tesla pour que les conducteurs soient toujours vigilants lorsqu'ils utilisent le FSD, beaucoup ne le sont pas. Un rapport du Washington Post indique plusieurs accidents qu'un conducteur humain aurait dû pouvoir éviter, comme percuter une moto que le système automatique n'a apparemment pas reconnue. D'autres conducteurs peuvent être somnolents ou ivres, espérant que le système pourra les ramener chez eux.
D'autres, peut-être séduits par le battage médiatique de Musk sur la qualité de la technologie Tesla, font simplement confiance au système sans réfléchir. Deux hommes sont morts en 2019 lorsqu'ils ont laissé leur Tesla rouler sans personne à la place du conducteur et qu'elle s'est écrasée dans un arbre. Un autre jouait avec son téléphone lorsque sa Tesla a raté un panneau d'arrêt et a heurté une autre voiture à l'arrière, tuant le conducteur.
Sources : NHTSA, NYT (deux hommes morts en 2019 sans personne à la place du conducteur, un homme mort dans sa Tesla alors qu'il avait laissé le contrôle à Autopilot), Ryan Cooper
Et vous ?
Qu'en pensez-vous ?
Avez-vous déjà utilisé l’Autopilot ou le FSD dans une Tesla ? Si oui, quelle a été votre expérience ?
Full Self-Driving étant encore en bêta, devrait-il néanmoins être autorisé sur les routes ? Pourquoi ?
Que pensez-vous du nom “Full Self-Driving” ? Trouvez-vous qu’il est approprié ou trompeur ?
Que pensez-vous du calcul de Ryan Cooper ayant conduit à 10 fois plus de morts pour les systèmes de conduite autonome de Tesla que pour une voiture ordinaire ? Êtes-vous d'accord avec sa façon de calculer ? Pourquoi ?