Dans cette vidéo, le conducteur teste le système Autopilot, avec l'option Full Self-Driving, dans les rues de Denver, Colorado. Au cours de la vidéo de près de 18 minutes, le Model 3 touche presque plusieurs obstacles, ce qui amène le conducteur à donner une mauvaise note au logiciel de Tesla. Deux des erreurs commises par le logiciel étaient plus flagrantes que les autres et l'une d'elles a failli voir la Tesla se faire heurter par l'un des trains légers sur rail de Denver, alors qu'elle tentait de tourner à gauche sur la trajectoire du train.
Avant de presque percuter le train, la Model 3 a été arrêtée à un feu rouge, avec son clignotant gauche allumé. Cet évènement a indiqué à la voiture que le conducteur voulait tourner à gauche et, après que le feu est passé au vert, la voiture était censée attendre que le passage soit dégagé pour tourner. Cependant, au lieu d'attendre, soit la Tesla a calculé qu'elle avait suffisamment d'espace et de temps pour faire le virage avant que le train n'arrive, soit elle n'a pas reconnu correctement le train. Toutefois, ce qui est étrange c'est que l'affichage d'Autopilot sur l'écran d'infodivertissement, qui montre l'environnement reconnu de la voiture, a matérialisé le train. Vous pouvez réellement le voir sur l'écran avant que la voiture ne commence à tourner. La raison pour laquelle la Tesla a décidé de tourner à gauche devant le train, bien qu'elle l'ait remarqué, n'est pas claire ; le conducteur a été obligé de prendre le relais et de modifier la trajectoire de la voiture. Si la voiture pensait pouvoir faire le tour à temps, sa programmation est trop agressive. Même l'opérateur du train a klaxonné, estimant aussi qu'un virage était la mauvaise décision dans cette situation.
Plus tard dans la vidéo, vers la fin, le Model 3 a tenté de faire un virage à gauche de routine, mais a pris le virage trop large et a presque percuté deux piétons debout au coin. À la fin, le conducteur a indiqué qu'il était « super déçu de Tesla », ce qui est compréhensible au vu des attentes qu'il avait et des résultats sur le terrain. Toutefois, pour la défense de Tesla, il y a un bouton pour signaler tout problème qui survient lors de l'utilisation d'Autopilot. Le hic c'est qu'il suffit d'appuyer sur un seul bouton et il n'est pas exigé au conducteur d'ajouter des détails sur la situation, il n'est donc pas clair à quel point la fonction de rapport à Tesla est vraiment utile.
Il y a une conversation beaucoup plus large à avoir sur l'éthique du test bêta de Tesla son option d'Autopilot Full Self-Driving sur les routes publiques, en utilisant des clients - et non des professionnels formés - pour le tester. Bien que Tesla ne soit absolument pas la seule entreprise à proposer son véhicule en ville, en ce qui concerne les systèmes avancés d'aide à la conduite, d'autres marques sont beaucoup plus prudentes dans leur approche et ne publient pas de logiciel tant qu'il n'a pas été entièrement testé par des professionnels dans des environnements contrôlés. Heureusement, personne n'a été blessé cette fois-ci et il a pu éloigner sa voiture du train et des piétons venant en sens inverse, mais cela ne signifie pas que tout le monde pourra réagir à temps à l'avenir.
En dehors de ces deux éléments, il faut signaler également quelques autres. En fait, se diriger vers le train qui arrive n'est qu'un des nombreux cas graves de cette vidéo :
- la Tesla a pratiquement foncé sur une barrière (qui indiquait que la route est bloquée)*(07:06) ;
- la Tesla a choisi la mauvaise voie et s'embrouille visiblement (confère l'affichage sur le tableau de bord, 11:06) ;
- la Tesla a essayé de griller un feu rouge, pendant que les voitures circulaient (12:12) ;
- la Tesla s'est arrêtée au milieu d'une intersection sans raison (13:09) ;
- la Tesla a choisi la mauvaise voie pour un virage à gauche (13:25) ;
- la Tesla a activé et désactivé constamment le clignotant gauche sans raison (dans un endroit où il n'était même pas permis de tourner à gauche, 15:02) ;
- la Tesla n'a pas réussi à tourner correctement à gauche et a presque heurté des piétons (17:13).
Tout cela au cours d'une expérience de conduite qui a duré peut-être 30 minutes (à certains moments, la vidéo est accélérée). De plus, ce ne sont que les cas les plus graves, la Tesla roule très maladroitement. Elle change de voie trop souvent (également aux intersections) sans raison et elle avance bizarrement aux feux rouges, se rapprochant très près du trafic croisé, sans aucune raison.
Dans l'ensemble, le conducteur estime qu'il s'agit là d'une performance incroyablement médiocre.
Un internaute s'est tout de même demandé : « Je ne comprends tout simplement pas pourquoi vous donneriez le contrôle à un système qui est clairement encore en version bêta. Le coût de l'échec est bien trop élevé pour prendre le risque ».
« Ne soyez pas un mannequin de test de collision pour Tesla »
La voiture électrique, généralement munie d'un système d'aide à la conduite, se popularise davantage et un grand nombre de nouveaux acteurs sont arrivés sur le marché pendant la dernière décennie, certains étant des filiales de grands groupes existant déjà sur le marché des véhicules à combustion. Cela a engendré une concurrence accrue et les entreprises semblent user désormais de tous les moyens pour mettre en avant leurs produits. C'est peut-être ce qui s'est passé début janvier avec Dan O'Dowd, qui a publié une « critique sévère » sur le logiciel Full Self-Driving (FSD) de Tesla sous la forme d'une publicité dans le New York Times.
Dan est le cofondateur et PDG de Green Hills Software. Green Hills est une société privée qui construit des systèmes d'exploitation et des outils de programmation pour les systèmes embarqués, mais avec l'avènement de la voiture électrique, elle s'est également lancée dans le développement de systèmes d'aide à la conduite (ADAS - Advanced Driver Assistance Systems). Intitulée Don't be a Tesla crash test dummy (« ne soyez pas un mannequin de test de collision pour Tesla »), la publicité de Dan affirme que dans sa version actuelle, le FSD tuerait des millions de personnes chaque jour s'il alimentait un plus grand nombre de voitures.
Dan a fondé sa critique sur une étude des vidéos mises en ligne qui montrent des propriétaires de Tesla utilisant la fonction Full Self-Driving complète, qui, selon Tesla, est en phase bêta et ne permet qu'une autonomie limitée sous la supervision du conducteur. Selon son étude, les vidéos montrent que FSD commet une « erreur de conduite critique » toutes les huit minutes et une « erreur involontaire » toutes les 36 minutes qui « causerait probablement une collision ». Sur la bannière publicitaire, Dan estime que le FSD est le « pire logiciel commercial » qu'il ait jamais vu et pense qu'il est toujours dans une phase alpha.
De ce fait, il pense qu'il devrait être testé par des employés de Tesla en interne plutôt que par des propriétaires de Tesla. « Le logiciel qui pilote les voitures à conduite autonome dont des millions de vies vont dépendre doit être le meilleur logiciel », a-t-il déclaré. Bien qu'une version restreinte du FSD soit accessible à toute personne possédant une Tesla, les propriétaires peuvent également demander à devenir des bêta-testeurs d'une version plus avancée s'ils ont un score de sécurité de conduite suffisamment élevé, tel que déterminé par le logiciel de leur voiture. Dan fait en effet campagne pour interdire le FSD de Tesla.
Il a déclaré avoir placé l'annonce sous les auspices du Dawn Project, un groupe de pression qui milite dans ce sens. Il s'agit d'une organisation qui se décrit elle-même comme « dédiée à rendre les ordinateurs vraiment sûrs pour l'humanité ». Selon certains critiques, l'annonce publiée par Dan apparaît en partie comme un coup de publicité destiné à attirer l'attention sur sa propre entreprise. Green Hills Software a déclaré au début dudit mois que sa technologie était utilisée pour développer un logiciel d'aide à la conduite pour la BMW iX entièrement électrique, un SUV sportif présenté par BMW au CES 2022.
En réaction, Elon Musk, PDG de Tesla, s'est attaqué au logiciel de Green Hills Software. Musk a tweeté : « le logiciel de Green Hills est un tas d'ordures », et a approuvé un commentaire selon lequel « les critiques du FSD ont toujours un énorme intérêt financier dans une solution concurrente ». Mais de son côté, Dan a déclaré que les meilleures sources d'information sur un produit sont ses concurrents. « Ils les mettent en pièces, ils découvrent ce qu'ils font bien, ils découvrent ce qu'ils font mal. Ils savent mieux que quiconque, et ils vous le diront. Le vendeur ne vous dira jamais ces choses-là », a-t-il déclaré.
De plus, il a également allégué que la version originale de l'Autopilot de Tesla, qui était un précurseur du FSD, a été construite en utilisant Green Hills Software. « Je me suis retiré du projet et j'ai dit : "je ne sais pas si c'est bien, si c'est ce que nous devrions faire ici, ça ne va pas marcher », a déclaré Dan. Musk n'a pas eu d'autres réactions en dehors de celle-ci et Tesla, qui ne dispose pas d'un bureau des affaires médiatiques opérationnel, n'a pas apporté de commentaires sur les allégations de Dan selon lesquelles il y aurait un lien entre la technologie d'aide à la conduite de Green Hills Software et le FSD.
Quoi qu'il en soit, sur la toile, certains commentaires ont noté qu'il est « tout à fait ridicule » d'utiliser des vidéos YouTube de tiers - au lieu de tester directement la technologie - pour extraire des « preuves » que le FSD tuerait des millions de personnes chaque jour si elle était installée sur toutes les voitures du monde. Un autre signal d'alarme serait le fait que la publicité n'utilise pas une seule fois le nom complet du logiciel Full Self-Driving Beta. Elle ne mentionne pas la partie « Beta », ce qui peut amener certains lecteurs à croire que le FSD Beta est un produit fini alors qu'il est encore en phase de test de développement.
Source : vidéo dans le texte
Et vous ?
Qu'en pensez-vous ?
Que pensez-vous des propos de l'internaute qui pense que comme FSD est encore en phase bêta, les conducteurs ne devraient pas lui donner le contrôle ?
Que pensez-vous de l'approche de Tesla qui donne à ses utilisateurs la possibilité de tester une version bêta contrairement à la concurrence qui fait tester ses véhicules uniquement par des professionnels lorsque ses logiciels sont encore en phase bêta ?