IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un ingénieur Tesla témoigne que la vidéo de 2016 faisant la promo de la conduite autonome du véhicule était truquée
Pendant un procès impliquant la mort d'un individu suite aux erreurs d'Autopilot

Le , par Stéphane le calme

564PARTAGES

26  0 
Une vidéo de 2016 que Tesla a utilisée pour promouvoir sa technologie Autopilot a été mise en scène pour montrer des capacités telles que s'arrêter à un feu rouge et accélérer à un feu vert que le système n'avait pas, selon le témoignage d'un ingénieur principal. La vidéo, qui reste archivée sur le site Web de Tesla, a été publiée en octobre 2016 et promue sur Twitter par le directeur général Elon Musk comme preuve que « Tesla se conduit toute seule ».

Mais le Model X ne se conduisait pas avec la technologie que Tesla avait déployée, a déclaré Ashok Elluswamy, directeur du logiciel Autopilot chez Tesla, dans la transcription d'une déposition de juillet prise comme preuve dans un procès contre Tesla pour un accident mortel en 2018 impliquant un ancien ingénieur d'Apple. Le témoignage précédemment non rapporté d'Elluswamy représente la première fois qu'un employé de Tesla confirme et détaille comment la vidéo a été produite.


Le système Autopilot de Tesla, avec son option « Full Self-Driving », n'est rien de ce que son nom l'indique : ce n'est ni un véritable pilote automatique, ni un véhicule capable de se conduire entièrement. Au lieu de cela, il s'agit d'un système avancé d'aide à la conduite qui peut aider à alléger la charge de travail du conducteur lorsqu'il se trouve sur une autoroute ou dans des rues urbaines clairement marquées.

Dans une vidéo promotionnelle vantant les prouesses technologiques de Tesla, une Tesla Model X est présentée en train de rouler, s'arrêter à un feu rouge et accélérer au feu vert. Elle est toujours sur le site Web de Tesla et porte le slogan : « la personne qui occupe le siège du conducteur n'est là que pour des raisons légales. Elle ne fait rien. La voiture se conduit toute seule ».


La vidéo datant de 2016 faisant la promotion de la conduite autonome de Tesla

Que nenni, a clamé Ashok Elluswamy dans un témoignage en juillet dont la transcription vient de fuiter. Il a expliqué que l'équipe d'Autopilot de Tesla avait entrepris de concevoir et d'enregistrer une « démonstration des capacités du système » à la demande d'Elon Musk.

Pour créer la vidéo, la Tesla a utilisé la cartographie 3D sur un itinéraire prédéterminé entre une maison de Menlo Park, en Californie, et le siège social de Tesla à Palo Alto, une fonctionnalité qui n'est pas disponible pour les clients. Il faut dire que lorsqu'il lui a été demandé si la vidéo de 2016 montrait les performances du système Tesla Autopilot disponible dans une voiture de série à l'époque, Elluswamy a répondu : « Ce n'est pas le cas ».

Et d'expliquer que les conducteurs sont intervenus pour prendre le contrôle lors des essais. En essayant de montrer que le Model X pouvait se garer sans conducteur, une voiture d'essai s'est écrasée contre une clôture dans le parking de Tesla, a-t-il reconnu.

Cependant, « l'intention de la vidéo n'était pas de décrire avec précision ce qui était disponible pour les clients en 2016. [L'intention] était de décrire ce qu'il était possible d'intégrer au système », a déclaré Elluswamy, selon une transcription de son témoignage vue par Reuters. Pourtant, Musk a fait la promotion de la vidéo à l'époque, tweetant que les véhicules Tesla ne nécessitent « aucune intervention humaine » pour traverser les rues urbaines jusqu'aux autoroutes et éventuellement trouver une place de parking.

Dans sa déposition de juillet, qui a été prise comme preuve dans un procès contre Tesla pour un accident en 2018 qui a coûté la vie à l'ancien ingénieur d'Apple Walter Huang, Elluswamy a déclaré que Musk voulait que l'équipe Autopilot enregistre « une démonstration des capacités du système ».

Andrew McDevitt, l'avocat qui représente la femme de Huang et qui a interrogé Elluswamy en juillet, a déclaré à Reuters qu'il était « manifestement trompeur de présenter cette vidéo sans aucun avertissement ni astérisque ». Le National Transportation Safety Board a conclu en 2020 que l'accident mortel de Huang était probablement causé par sa distraction et les limites de l'Autopilot. Il a déclaré que la « surveillance inefficace de l'engagement du conducteur" de Tesla avait contribué à l'accident.

Elluswamy a déclaré que les conducteurs pouvaient « tromper le système », faisant croire à un système Tesla qu'ils prêtaient attention en fonction des commentaires du volant alors qu'ils ne le faisaient pas. Mais il a dit qu'il ne voyait aucun problème de sécurité avec Autopilot si les conducteurs étaient attentifs.

Walter Huang s'était déjà plaint du mauvais fonctionnement de sa voiture

Walter Huang, l'ancien ingénieur logiciel d’Apple mort dans un accident de circulation en mars 2018 lorsque son véhicule Tesla Model X a heurté un mur Jersey, s’était déjà plaint du mauvais fonctionnement de sa voiture sur le même tronçon de l’autoroute de la Silicon Valley où il a trouvé la mort. Un mur Jersey ou barrière Jersey est une barrière en béton utilisée pour séparer des voies de circulation. Il est conçu pour minimiser les dommages au véhicule en cas de contact accidentel, tout en empêchant sa traversée en cas de collision frontale.


Ses plaintes ont été détaillées dans des documents publiés en février 2020 par les enquêteurs fédéraux dans le cadre d’une investigation concernant deux accidents de Tesla impliquant Autopilot, l’un en Californie et l’autre en Floride.

Les documents publiés par le NTSB (National Transportation Safety Board, l’agence américaine indépendante responsable des enquêtes sur les accidents aéronautiques, routiers, maritimes, ferroviaires, ainsi que ceux concernant les pipelines [gazoducs et oléoducs]) indiquent que Walter Huang avait confié à sa femme, à son frère, à un ami qui possède un modèle X et à l’avocat familial que, sur le même tronçon près de Mountain View, l'Autopilot de sa Tesla avait déjà dirigé son 4x4 vers le mur Jersey où il s’est écrasé par la suite. Selon l’avocat de la famille de Huang, après ce premier incident, Huang avait confié à son ami avoir noté que l’application d’une mise à jour du logiciel Autopilot a affecté les performances de son véhicule et probablement causé le comportement kamikaze étrange de ce dernier.

Les enregistrements d’un iPhone récupéré sur le lieu de l’accident ont montré que Huang l’utilisait peut-être avant l’accident. Les enregistrements obtenus d’AT&T ont montré que les données avaient été utilisées alors que le véhicule était en mouvement, mais la source des transmissions n’a pas pu être déterminée, a écrit le NTSB. Une transmission a eu lieu moins d’une minute avant l’accident.

Lors de l’accident en Floride, Jeremy Banner, qui est décédé environ un an plus tard à Delray Beach, a activé la fonction Autopilot de sa berline Model 3 10 secondes avant l’accident, puis a retiré ses mains du volant, selon des documents du NTSB. La voiture est alors passée sous un semi-remorque qui traversait devant lui, faisant une embardée sur le toit de la voiture et tuant Banner. Cet accident était étrangement similaire à un autre survenu en Floride en 2016 dans lequel un véhicule Tesla sur pilote automatique est passé sous une semi-remorque. Dans un rapport préliminaire, le NTSB a toutefois précisé que les causes de l’accident mortel de Banner n’ont pas encore été élucidées.

De toute évidence, selon les experts, Huang et Banner sont morts parce qu’ils ont confié la direction des opérations de conduite à l’Autopilot et ont pensé, peut-être juste l’espace d’un instant, que le système d’assistance à la conduite de Tesla était vraiment autonome et infaillible.

Le nom donné par Tesla au système Autopilot embarqué dans les voitures autonomes de la marque peut prêter à confusion, car à l’heure actuelle, l’Autopilot est un système partiellement automatisé conçu pour maintenir un véhicule sur sa voie et garder une distance de sécurité avec les véhicules qui le précèdent. Il peut également changer de voie avec l’accord du conducteur. Selon les dernières recommandations du constructeur, l’Autopilot est au stade de son développement actuel destiné à être utilisé uniquement pour l’assistance à la conduite et les conducteurs doivent être prêts à intervenir à tout moment. Signalons également que le logiciel Autopilot de Tesla a été bridé sur le marché européen pour se conformer aux nouvelles réglementations de l’UE, mais que l’entreprise a promis de se battre pour lever ces restrictions qui empêcheraient d’offrir une expérience de conduite autonome complète.

Quoi qu’il en soit, depuis le drame, la famille Huang a poursuivi Tesla ainsi que Caltrans (l’entreprise en charge de l’entretien routier sur la voie où a eu lieu l’accident) pour avoir prétendument négligé d’entretenir l’autoroute. Il faut souligner que la portion du mur Jersey au niveau de laquelle la Model X de Huang s’est écrasée avait été endommagée et réparée plus fréquemment que toutes les autres. Au cours des trois années qui ont précédé l'accident de Huang, cette portion a été cognée au moins cinq fois, dont une fois lors d'un accident mortel.

La poursuite allègue que le système d'aide à la conduite Autopilot de Tesla a mal interprété les lignes de voie, n'a pas détecté la glissière de sécurité en béton, a échoué dans le freinage et a plutôt accéléré dans la médiane.

« Mme Huang a perdu son mari et deux enfants ont perdu leur père parce que Tesla est en train de tester son logiciel Autopilot sur des pilotes actifs ». « La famille Huang veut empêcher cette tragédie d'arriver à d'autres conducteurs utilisant des véhicules Tesla ou des véhicules semi-autonomes », a-t-il ajouté.

Les véhicules Tesla ont été impliqués dans plusieurs autres accidents qui ont fait l’objet de poursuite judiciaire au cours de ces dernières années. Ce qui pourrait avoir des conséquences plus larges pour l'entreprise qui tente de convaincre davantage de consommateurs d'acheter ses véhicules. Ces poursuites qui impliquent des problèmes présumés au niveau d'Autopilot pourraient également entraîner des obstacles réglementaires plus importants pour l'entreprise.

Les véhicules Tesla utilisant son système d'assistance à la conduite Autopilot ont été impliqués dans 273 accidents connus de juillet 2021 à juin de l'année dernière, selon les données de la NHTSA. Teslas représentait près de 70% des 329 accidents dans lesquels des systèmes avancés d'assistance à la conduite étaient impliqués, ainsi qu'une majorité de décès et de blessures graves qui leur sont associés, selon les données. Depuis 2016, l'agence fédérale a enquêté sur un total de 35 accidents dans lesquels les systèmes "Full Self-Driving" ou "Autopilot" de Tesla étaient probablement utilisés. Ensemble, ces accidents ont conduit à la mort de 19 personnes.

Le terme Full Self-Driving critiqué par d'autres constructeurs automobiles

Le terme "Full Self-Driving" a été critiqué par d'autres fabricants et groupes industriels comme trompeur et même dangereux. L'année dernière, la société de technologie de conduite autonome Waymo, détenue par la société mère de Google, a annoncé qu'elle n'utiliserait plus le terme.

« Malheureusement, nous constatons que certains constructeurs automobiles utilisent le terme 'self-driving' [ndlr. auto-conduite] de manière inexacte, donnant aux consommateurs et au grand public une fausse impression des capacités de la technologie d'assistance à la conduite (pas entièrement autonome) », a écrit Waymo dans un billet de blog. « Cette fausse impression peut amener quelqu'un à prendre sans le savoir des risques (comme retirer ses mains du volant) qui pourraient mettre en péril non seulement sa propre sécurité, mais aussi celle des personnes qui l'entourent ».

Bien que Waymo ne nomme aucun nom, la déclaration semble clairement motivée par la décision controversée de Musk d'utiliser le terme Full Self Driving.

Dans le même ordre d'idées, le premier groupe de pression pour les voitures autonomes est récemment passé de l'appellation « Self-Driving Coalition for Safer Streets » à « Autonomous Vehicle Industry Association ». Le changement, a déclaré le groupe industriel, reflétait son « engagement envers la précision et la cohérence dans la façon dont l'industrie, les décideurs, les journalistes et le public parlent de la technologie de conduite autonome ».

Le secrétaire aux Transports, Pete Buttigieg, a également critiqué les technologies émergentes d'assistance à la conduite, qui, selon lui, n'ont pas remplacé le besoin d'un conducteur humain alerte : « Je n'arrête pas de le dire ; tout ce que vous pouvez acheter sur le marché aujourd'hui est une technologie d'assistance à la conduite, pas une technologie de remplacement du conducteur », a déclaré Buttigieg. « Je me fiche de comment ça s'appelle. Nous devons nous assurer que nous sommes parfaitement clairs à ce sujet, même si les entreprises ne le sont pas ».

Bien que le langage puisse évoluer, il n'y a toujours pas de restrictions fédérales sur les essais de véhicules autonomes sur la voie publique, bien que les États aient imposé des limites dans certains cas. Tesla n'a annoncé aucun changement au programme ou à son image de marque, mais le crash était l'un des multiples ce mois-là. Plusieurs jours avant l'accident de Bay Bridge, le 18 novembre dans l'Ohio, une Tesla Model 3 s'est écrasée contre un SUV de l'Ohio State Highway Patrol arrêté dont les feux de détresse clignotaient. La Tesla est également soupçonnée d'avoir été en mode Full Self-Driving et fait également l'objet d'une enquête de la NHTSA.

Sources : transcriptions de la déposition d'Ashok Elluswamy, Tesla

Et vous ?

Quelle lecture en faites-vous ?
Êtes-vous surpris par le témoignage de l'ingénieur Tesla qui reconnait que la vidéo utilisée pour la promotion était truquée ?
Que pensez-vous alors des propos d'Elon Musk sur son compte Twitter ? Était-il, selon vous, au courant ? Quelles implications potentielles cela peut-il avoir ?

Voir aussi :

Les rapports évoquant un « freinage fantôme » des Tesla qui détectent des « incidents imaginaires » se multiplient : une Tesla en mode Full Self-Driving freine brusquement, entraînant un carambolage

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
9  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 17/10/2023 à 23:40
Citation Envoyé par Ryu2000 Voir le message
Ben justement...

Pilote automatique

Autopilot ça ne veut pas dire que ça se conduit tout seul.
Tu mets la définition de "autopilot", mais pourquoi pas la définition de "Full Self-Driving"?
Non, parce qu'il parle de ça aussi. Littéralement "Conduite autonome complète/totale"...

Tesla aurait appelé ça "Self-driving", encore, on aurait pu chipoter, et faire comme tous les constructeurs et parler de niveau 1, 2, 3, 4, 5. Mais là, c'est du foutage de gueule.
Je ré-itère: cet ingénieur est soit un menteur, soit quelqu'un qui devrait ouvrir un dictionnaire.
8  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 18/10/2023 à 22:34
Citation Envoyé par Ryu2000 Voir le message
Ça ne parle pas que de Full Self-Driving ça parle aussi d'Autopilot !
Et autopilot ça ne veut pas dire que ça se conduit tout seul.
C'est un dialogue de sourds

Citation Envoyé par Ryu2000 Voir le message
Pour Full Self-Driving je ne sais pas.
Bon après Tesla aurait du choisir des expressions plus précise pour que les gens comprennent que la voiture ne se conduit pas toute seule.
Quand une entreprise te vend son accès bêta sous le nom de Full Self-Driving, je pense que c'est fait exprès.
7  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
6  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/07/2023 à 23:21
Je ne suis pas un fan de Musk, mais là franchement, il y a de quoi se marrer.

La totalité, je dis bien la totalité des fabricants de voiture falsifient la consommation réelle de leur véhicules!

Les acteurs du secteur automobile se sont mis d'accord pour établir un test de roulement pour établir la consommation moyenne au 100 km qui ne correspond en rien à l'usage normal d'une voiture... Le test a été établi pour s'assurer que la consommation au 100 km soit très inférieure à la réalité.

Tout le monde en a d'ailleurs fait la constatation: Vous achetez un voiture écolo qui indique une consommation de 4,5 litres au 100km? Quand vous vérifiez votre consommation, il s'avère que vous frôlez les 10 litres/100km. Facile ensuite pour votre concessionnaire de vous dire "Mais monsieur, madame, vous avez un usage de votre véhicule qui ne correspond pas à un usage moyen, vous faites trop de trajets en ville ou roulez trop vite sur autoroute".

Idem pour l'autonomie des véhicules électriques, l'autonomie annoncée ne correspond jamais à la réalité "Mais monsieur, madame, vous faites trop de dénivelés... Vous roulez de manière trop sportive, blablabla..."

Et je ne parle pas de la période hivernale, un jour de grand froid et l'autonomie officiellement annoncée est divisée par 2 et puis et puis... Très vite, vous êtes confronté à l'usure de vos batteries dont la capacité de charge baisse de mois en mois...
9  3 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 28/06/2023 à 15:20
Le problème est même pire en fait, car dans ce cas, même le simple régulateur de vitesse avec détection de véhicule de la voiture de mon papa, aurait stoppé la voiture !
5  0 
Avatar de escartefigue
Modérateur https://www.developpez.com
Le 22/08/2023 à 9:49
La meilleure bagnole au monde, ça ne veut rien dire, tout dépend du critère : prix d'achat, consommation en carburant, coût de l'assurance, capacité de chargement, facilité de revente, performances, image... chacun ses priorités
6  1 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 12/12/2023 à 21:37
Que Tesla utilise l'argument de la liberté d'expression pour se défendre sur un dossier d'escroquerie dangereuse comme cela est sidérant mais ce n'est pas la première fois qu'ils nous montrent que les gens les intéressent bien peu.
5  0