Mais le Model X ne se conduisait pas avec la technologie que Tesla avait déployée, a déclaré Ashok Elluswamy, directeur du logiciel Autopilot chez Tesla, dans la transcription d'une déposition de juillet prise comme preuve dans un procès contre Tesla pour un accident mortel en 2018 impliquant un ancien ingénieur d'Apple. Le témoignage précédemment non rapporté d'Elluswamy représente la première fois qu'un employé de Tesla confirme et détaille comment la vidéo a été produite.
Le système Autopilot de Tesla, avec son option « Full Self-Driving », n'est rien de ce que son nom l'indique : ce n'est ni un véritable pilote automatique, ni un véhicule capable de se conduire entièrement. Au lieu de cela, il s'agit d'un système avancé d'aide à la conduite qui peut aider à alléger la charge de travail du conducteur lorsqu'il se trouve sur une autoroute ou dans des rues urbaines clairement marquées.
Dans une vidéo promotionnelle vantant les prouesses technologiques de Tesla, une Tesla Model X est présentée en train de rouler, s'arrêter à un feu rouge et accélérer au feu vert. Elle est toujours sur le site Web de Tesla et porte le slogan : « la personne qui occupe le siège du conducteur n'est là que pour des raisons légales. Elle ne fait rien. La voiture se conduit toute seule ».
La vidéo datant de 2016 faisant la promotion de la conduite autonome de Tesla
Que nenni, a clamé Ashok Elluswamy dans un témoignage en juillet dont la transcription vient de fuiter. Il a expliqué que l'équipe d'Autopilot de Tesla avait entrepris de concevoir et d'enregistrer une « démonstration des capacités du système » à la demande d'Elon Musk.
Pour créer la vidéo, la Tesla a utilisé la cartographie 3D sur un itinéraire prédéterminé entre une maison de Menlo Park, en Californie, et le siège social de Tesla à Palo Alto, une fonctionnalité qui n'est pas disponible pour les clients. Il faut dire que lorsqu'il lui a été demandé si la vidéo de 2016 montrait les performances du système Tesla Autopilot disponible dans une voiture de série à l'époque, Elluswamy a répondu : « Ce n'est pas le cas ».
Et d'expliquer que les conducteurs sont intervenus pour prendre le contrôle lors des essais. En essayant de montrer que le Model X pouvait se garer sans conducteur, une voiture d'essai s'est écrasée contre une clôture dans le parking de Tesla, a-t-il reconnu.
Cependant, « l'intention de la vidéo n'était pas de décrire avec précision ce qui était disponible pour les clients en 2016. [L'intention] était de décrire ce qu'il était possible d'intégrer au système », a déclaré Elluswamy, selon une transcription de son témoignage vue par Reuters. Pourtant, Musk a fait la promotion de la vidéo à l'époque, tweetant que les véhicules Tesla ne nécessitent « aucune intervention humaine » pour traverser les rues urbaines jusqu'aux autoroutes et éventuellement trouver une place de parking.
Dans sa déposition de juillet, qui a été prise comme preuve dans un procès contre Tesla pour un accident en 2018 qui a coûté la vie à l'ancien ingénieur d'Apple Walter Huang, Elluswamy a déclaré que Musk voulait que l'équipe Autopilot enregistre « une démonstration des capacités du système ».
Andrew McDevitt, l'avocat qui représente la femme de Huang et qui a interrogé Elluswamy en juillet, a déclaré à Reuters qu'il était « manifestement trompeur de présenter cette vidéo sans aucun avertissement ni astérisque ». Le National Transportation Safety Board a conclu en 2020 que l'accident mortel de Huang était probablement causé par sa distraction et les limites de l'Autopilot. Il a déclaré que la « surveillance inefficace de l'engagement du conducteur" de Tesla avait contribué à l'accident.
Elluswamy a déclaré que les conducteurs pouvaient « tromper le système », faisant croire à un système Tesla qu'ils prêtaient attention en fonction des commentaires du volant alors qu'ils ne le faisaient pas. Mais il a dit qu'il ne voyait aucun problème de sécurité avec Autopilot si les conducteurs étaient attentifs.
Walter Huang s'était déjà plaint du mauvais fonctionnement de sa voiture
Walter Huang, l'ancien ingénieur logiciel d’Apple mort dans un accident de circulation en mars 2018 lorsque son véhicule Tesla Model X a heurté un mur Jersey, s’était déjà plaint du mauvais fonctionnement de sa voiture sur le même tronçon de l’autoroute de la Silicon Valley où il a trouvé la mort. Un mur Jersey ou barrière Jersey est une barrière en béton utilisée pour séparer des voies de circulation. Il est conçu pour minimiser les dommages au véhicule en cas de contact accidentel, tout en empêchant sa traversée en cas de collision frontale.
Ses plaintes ont été détaillées dans des documents publiés en février 2020 par les enquêteurs fédéraux dans le cadre d’une investigation concernant deux accidents de Tesla impliquant Autopilot, l’un en Californie et l’autre en Floride.
Les documents publiés par le NTSB (National Transportation Safety Board, l’agence américaine indépendante responsable des enquêtes sur les accidents aéronautiques, routiers, maritimes, ferroviaires, ainsi que ceux concernant les pipelines [gazoducs et oléoducs]) indiquent que Walter Huang avait confié à sa femme, à son frère, à un ami qui possède un modèle X et à l’avocat familial que, sur le même tronçon près de Mountain View, l'Autopilot de sa Tesla avait déjà dirigé son 4x4 vers le mur Jersey où il s’est écrasé par la suite. Selon l’avocat de la famille de Huang, après ce premier incident, Huang avait confié à son ami avoir noté que l’application d’une mise à jour du logiciel Autopilot a affecté les performances de son véhicule et probablement causé le comportement kamikaze étrange de ce dernier.
Les enregistrements d’un iPhone récupéré sur le lieu de l’accident ont montré que Huang l’utilisait peut-être avant l’accident. Les enregistrements obtenus d’AT&T ont montré que les données avaient été utilisées alors que le véhicule était en mouvement, mais la source des transmissions n’a pas pu être déterminée, a écrit le NTSB. Une transmission a eu lieu moins d’une minute avant l’accident.
Lors de l’accident en Floride, Jeremy Banner, qui est décédé environ un an plus tard à Delray Beach, a activé la fonction Autopilot de sa berline Model 3 10 secondes avant l’accident, puis a retiré ses mains du volant, selon des documents du NTSB. La voiture est alors passée sous un semi-remorque qui traversait devant lui, faisant une embardée sur le toit de la voiture et tuant Banner. Cet accident était étrangement similaire à un autre survenu en Floride en 2016 dans lequel un véhicule Tesla sur pilote automatique est passé sous une semi-remorque. Dans un rapport préliminaire, le NTSB a toutefois précisé que les causes de l’accident mortel de Banner n’ont pas encore été élucidées.
De toute évidence, selon les experts, Huang et Banner sont morts parce qu’ils ont confié la direction des opérations de conduite à l’Autopilot et ont pensé, peut-être juste l’espace d’un instant, que le système d’assistance à la conduite de Tesla était vraiment autonome et infaillible.
Le nom donné par Tesla au système Autopilot embarqué dans les voitures autonomes de la marque peut prêter à confusion, car à l’heure actuelle, l’Autopilot est un système partiellement automatisé conçu pour maintenir un véhicule sur sa voie et garder une distance de sécurité avec les véhicules qui le précèdent. Il peut également changer de voie avec l’accord du conducteur. Selon les dernières recommandations du constructeur, l’Autopilot est au stade de son développement actuel destiné à être utilisé uniquement pour l’assistance à la conduite et les conducteurs doivent être prêts à intervenir à tout moment. Signalons également que le logiciel Autopilot de Tesla a été bridé sur le marché européen pour se conformer aux nouvelles réglementations de l’UE, mais que l’entreprise a promis de se battre pour lever ces restrictions qui empêcheraient d’offrir une expérience de conduite autonome complète.
Quoi qu’il en soit, depuis le drame, la famille Huang a poursuivi Tesla ainsi que Caltrans (l’entreprise en charge de l’entretien routier sur la voie où a eu lieu l’accident) pour avoir prétendument négligé d’entretenir l’autoroute. Il faut souligner que la portion du mur Jersey au niveau de laquelle la Model X de Huang s’est écrasée avait été endommagée et réparée plus fréquemment que toutes les autres. Au cours des trois années qui ont précédé l'accident de Huang, cette portion a été cognée au moins cinq fois, dont une fois lors d'un accident mortel.
La poursuite allègue que le système d'aide à la conduite Autopilot de Tesla a mal interprété les lignes de voie, n'a pas détecté la glissière de sécurité en béton, a échoué dans le freinage et a plutôt accéléré dans la médiane.
« Mme Huang a perdu son mari et deux enfants ont perdu leur père parce que Tesla est en train de tester son logiciel Autopilot sur des pilotes actifs ». « La famille Huang veut empêcher cette tragédie d'arriver à d'autres conducteurs utilisant des véhicules Tesla ou des véhicules semi-autonomes », a-t-il ajouté.
Les véhicules Tesla ont été impliqués dans plusieurs autres accidents qui ont fait l’objet de poursuite judiciaire au cours de ces dernières années. Ce qui pourrait avoir des conséquences plus larges pour l'entreprise qui tente de convaincre davantage de consommateurs d'acheter ses véhicules. Ces poursuites qui impliquent des problèmes présumés au niveau d'Autopilot pourraient également entraîner des obstacles réglementaires plus importants pour l'entreprise.
Les véhicules Tesla utilisant son système d'assistance à la conduite Autopilot ont été impliqués dans 273 accidents connus de juillet 2021 à juin de l'année dernière, selon les données de la NHTSA. Teslas représentait près de 70% des 329 accidents dans lesquels des systèmes avancés d'assistance à la conduite étaient impliqués, ainsi qu'une majorité de décès et de blessures graves qui leur sont associés, selon les données. Depuis 2016, l'agence fédérale a enquêté sur un total de 35 accidents dans lesquels les systèmes "Full Self-Driving" ou "Autopilot" de Tesla étaient probablement utilisés. Ensemble, ces accidents ont conduit à la mort de 19 personnes.
Le terme Full Self-Driving critiqué par d'autres constructeurs automobiles
Le terme "Full Self-Driving" a été critiqué par d'autres fabricants et groupes industriels comme trompeur et même dangereux. L'année dernière, la société de technologie de conduite autonome Waymo, détenue par la société mère de Google, a annoncé qu'elle n'utiliserait plus le terme.
« Malheureusement, nous constatons que certains constructeurs automobiles utilisent le terme 'self-driving' [ndlr. auto-conduite] de manière inexacte, donnant aux consommateurs et au grand public une fausse impression des capacités de la technologie d'assistance à la conduite (pas entièrement autonome) », a écrit Waymo dans un billet de blog. « Cette fausse impression peut amener quelqu'un à prendre sans le savoir des risques (comme retirer ses mains du volant) qui pourraient mettre en péril non seulement sa propre sécurité, mais aussi celle des personnes qui l'entourent ».
Bien que Waymo ne nomme aucun nom, la déclaration semble clairement motivée par la décision controversée de Musk d'utiliser le terme Full Self Driving.
Dans le même ordre d'idées, le premier groupe de pression pour les voitures autonomes est récemment passé de l'appellation « Self-Driving Coalition for Safer Streets » à « Autonomous Vehicle Industry Association ». Le changement, a déclaré le groupe industriel, reflétait son « engagement envers la précision et la cohérence dans la façon dont l'industrie, les décideurs, les journalistes et le public parlent de la technologie de conduite autonome ».
Le secrétaire aux Transports, Pete Buttigieg, a également critiqué les technologies émergentes d'assistance à la conduite, qui, selon lui, n'ont pas remplacé le besoin d'un conducteur humain alerte : « Je n'arrête pas de le dire ; tout ce que vous pouvez acheter sur le marché aujourd'hui est une technologie d'assistance à la conduite, pas une technologie de remplacement du conducteur », a déclaré Buttigieg. « Je me fiche de comment ça s'appelle. Nous devons nous assurer que nous sommes parfaitement clairs à ce sujet, même si les entreprises ne le sont pas ».
Bien que le langage puisse évoluer, il n'y a toujours pas de restrictions fédérales sur les essais de véhicules autonomes sur la voie publique, bien que les États aient imposé des limites dans certains cas. Tesla n'a annoncé aucun changement au programme ou à son image de marque, mais le crash était l'un des multiples ce mois-là. Plusieurs jours avant l'accident de Bay Bridge, le 18 novembre dans l'Ohio, une Tesla Model 3 s'est écrasée contre un SUV de l'Ohio State Highway Patrol arrêté dont les feux de détresse clignotaient. La Tesla est également soupçonnée d'avoir été en mode Full Self-Driving et fait également l'objet d'une enquête de la NHTSA.
Sources : transcriptions de la déposition d'Ashok Elluswamy, Tesla
Et vous ?
Quelle lecture en faites-vous ?
Êtes-vous surpris par le témoignage de l'ingénieur Tesla qui reconnait que la vidéo utilisée pour la promotion était truquée ?
Que pensez-vous alors des propos d'Elon Musk sur son compte Twitter ? Était-il, selon vous, au courant ? Quelles implications potentielles cela peut-il avoir ?
Voir aussi :
Les rapports évoquant un « freinage fantôme » des Tesla qui détectent des « incidents imaginaires » se multiplient : une Tesla en mode Full Self-Driving freine brusquement, entraînant un carambolage