IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un conducteur de Tesla a déclaré qu'il était toujours un utilisateur fidèle du Full Self-Driving
Même après avoir percuté un autre véhicule alors qu'il utilisait Autopilot

Le , par Stéphane le calme

320PARTAGES

8  0 
Le conducteur de Tesla, Dave Key, n'a pas tardé à défendre le logiciel d'assistance à la conduite du constructeur de voitures électriques, même des années après avoir eu un accident en utilisant Autopilot, selon un récent rapport du New York Times.

L'ancien entrepreneur en logiciels de 69 ans a déclaré au quotidien que malgré l'accident, il pense que le logiciel Full Self-Driving, qui est encore en bêta, a le potentiel de sauver des vies, ajoutant que même les accidents mortels ne devraient pas nuire à la vision plus large des véhicules autonomes. « En tant que société, nous choisissons la voie pour sauver le plus de vies », a-t-il déclaré au New York Times.


Le 29 mai 2018, la Tesla Model S 2015 de Dave Key le ramenait chez le dentiste en mode Autopilot. C'était un itinéraire que Key avait suivi d'innombrables fois auparavant : une autoroute à deux voies menant aux collines au-dessus de Laguna Beach, en Californie. Mais lors de ce voyage, alors que Key était distrait, la voiture a dérivé hors de sa voie et a percuté l'arrière d'un S.U.V. de police garé, faisant tourner la voiture et poussant le S.U.V. jusqu'au trottoir. Personne n'a été blessé, mais la Tesla était en piteux état.

Key, un ancien entrepreneur en logiciels de 69 ans, a opté pour une perspective impartiale sur son propre accident, revêtant sa casquette d'ingénieur : « Le problème avec les objets fixes - je suis désolé, cela semble stupide - c'est qu'ils ne bougent pas », a-t-il déclaré. Pendant des années, l'intelligence artificielle de Tesla a eu du mal à séparer les objets immobiles de l'arrière-plan. Plutôt que de se sentir frustré que l'ordinateur n'ait pas compris un problème aussi élémentaire, Key s'est rassuré en apprenant qu'il y avait une raison derrière l'accident : une limitation logicielle connue, plutôt qu'une sorte d'événement de cygne noir.

En clair, c'était un problème auquel d'autres utilisateurs d'Autopilot ont été confrontés.

L'année dernière, la National Highway and Traffic Safety Administration (NHTSA) a mis à niveau son enquête sur plus d'une douzaine de véhicules Tesla qui se sont écrasés contre des véhicules d'urgence alors qu'ils utilisaient Autopilot. L'agence a déclaré que la fonction d'assistance au conducteur avait du mal à identifier les véhicules en stationnement.

Pourtant, depuis l'accident, Key a acheté trois autres Teslas et continue d'utiliser à la fois Autopilot et le FSD, ajoutant que le logiciel s'est amélioré pour surveiller l'attention du conducteur sur la route grâce à une fonction de rappel qui suit la pression sur le volant et le mouvement des yeux du conducteur.

Citation Envoyé par New York Times
Pendant que nous roulions, Key a comparé FSD à l'Autopilot qui était sur sa Tesla de 2015. Autopilot, a-t-il dit, était comme un régulateur de vitesse sophistiqué : vitesse, direction, évitement des collisions. Bien que dans son cas, il ait dit : « Je suppose que cela n'a pas vraiment permis d'éviter les accidents ». Il avait été bien plus impressionné par le FSD. Il était capable de gérer à peu près toutes les situations qu'il lui présentait. « Mon seul vrai reproche est qu'il ne sélectionne pas toujours la voie que je choisirais ».

Au bout d'une minute, la voiture avertit Key de garder les mains sur le volant et les yeux sur la route. « Tesla est maintenant une sorte de nounou à ce sujet », s'est-il plaint. Si Autopilot était autrefois dangereusement permissif envers les conducteurs inattentifs – leur permettant même de s'endormir derrière le volant – cette faille, comme le bogue de l'objet stationnaire, avait été corrigée. « Entre le volant et le suivi des yeux, c'est juste un problème résolu », a déclaré Key(...).

Key avait apporté des notes, qui tenaient sur quatre pages, qu'il avait rédigées pour notre entretien, énumérant les faits sur les accidents, organisés en sous-titres tels que Tesla Full Self-Driving Technology (Discussion). C'est le genre d'homme qui se promène avec une batterie d'opinions bien formées sur les sujets les plus importants de la vie - ordinateurs, logiciels, exercice, argent - et une volonté de les partager. Il tenait particulièrement à ce que je comprenne que l'Autopilot et le FSD sauvaient des vies : « les données montrent que leur taux d'accidents pendant la bêta est bien inférieur à celui des autres voitures », lit-on dans ses notes. « Ralentir le [développement de la] bêta FSD entraînera plus d'accidents et de pertes de vie sur la base de données statistiques solides.

Des accidents comme le sien – et même les plus mortels – sont malheureux, a-t-il soutenu, mais ils ne pouvaient pas détourner la société de l'objectif plus large d'une adoption généralisée des véhicules autonomes. Key a fait une analogie avec les vaccins contre le coronavirus, qui ont empêché des centaines de milliers de décès, mais ont également causé de rares décès et blessures dus à des effets indésirables. « En tant que société », a-t-il conclu, « nous choisissons la voie pour sauver le plus de vies ».
Depuis la sortie d'Autopilot en octobre 2015, Musk a encouragé les conducteurs à le considérer comme plus avancé qu'il ne l'était, déclarant en janvier 2016 qu'il était « probablement meilleur » qu'un conducteur humain. En novembre de la même année, la société a publié une vidéo d'une Tesla naviguant sur les routes de la Bay Area avec l'indication suivante : « La personne à la place du conducteur n'est là que pour des raisons légales. Elle ne fait rien. La voiture se conduit toute seule ». Musk a également rejeté le nom « Copilot » en faveur « d'Autopilot ».


La vidéo datant de 2016 faisant la promotion de la conduite autonome de Tesla

Les petits caractères indiquaient clairement que la technologie était uniquement destinée à l'assistance au conducteur, mais ce message n'a reçu qu'une fraction de l'attention des annonces de Musk. Un grand nombre de conducteurs semblaient vraiment confus quant aux capacités d'Autopilot (d'ailleurs, Tesla a également refusé de divulguer que la voiture de la vidéo de 2016 s'est écrasée dans le parking de l'entreprise, ce qui a été souligné par un ingénieur de Tesla qui a reconnu que la vidéo de 2016 faisant la promo de la conduite autonome du véhicule était truquée).

Tesla fait face à plusieurs plaintes

Malheureusement pour Musk, le court terme passe avant tout et son entreprise fait face à quelques mois difficiles. En février, le premier procès contre Tesla pour un accident impliquant Autopilot sera jugé. Quatre autres suivront coup sur coup. Donald Slavik, qui représentera les plaignants dans pas moins de trois de ces affaires, affirme qu'un constructeur automobile normal aurait déjà choisi de régler l'affaire à l'amiable : « Ils considèrent cela comme un coût pour faire des affaires ». Musk a juré de se battre devant les tribunaux, quels que soient les dangers que cela pourrait présenter pour Tesla. « Les dollars peuvent vite s'additionner », a déclaré Slavik, « surtout s'il y a des dommages-intérêts punitifs ».

Dans l'une des plaintes qu'il a déposées contre Tesla, Slavik a répertorié les principaux accidents impliquant Autopilot de A à WW. En Chine, une Tesla a percuté une balayeuse. En Floride, une Tesla a heurté un semi-remorque sur une autoroute. Lors d'une averse dans l'Indiana, une Tesla Model 3 a quitté la route et s'est enflammée. Dans les Florida Keys, une Model S a traversé une intersection et a tué un piéton. À New York, une Model Y a heurté un homme qui changeait son pneu sur l'accotement de la Long Island Expressway. Dans le Montana, une Tesla a percuté de manière inattendue une barrière d'autoroute. Puis la même chose s'est produite à Dallas, à Mountain View et à San Jose.

En fait, les nombreuses revendications des poursuites en cours reviennent à un seul thème : Tesla a constamment gonflé les attentes des consommateurs et minimisé les dangers encourus. Les voitures n'étaient pas suffisamment surveillées par le conducteur, car Musk ne voulait pas que les conducteurs pensent que la voiture avait besoin d'une surveillance humaine.

Pour mémoire, en avril 2019, Musk a déclaré : « Si vous avez un système dont la fiabilité est égale ou inférieure au niveau humain, alors la surveillance du conducteur a du sens. Mais si votre système est nettement meilleur, plus fiable qu'un humain, alors la surveillance n'aide pas beaucoup ».

Les conducteurs n'ont pas été avertis des problèmes de freinage automatique ou des « changements de voie non commandés ». La société a fini par admettre les limites de la technologie dans son manuel d'utilisation, mais a publié des vidéos virales d'une Tesla conduisant sur un itinéraire compliqué sans intervention humaine.


« La raison de votre accident ou la raison de votre incident retombe toujours sur vous »

Le client idéal de Musk est quelqu'un comme Key, prêt à accepter le blâme quand quelque chose ne va pas, mais possédant une foi presque illimitée dans la prochaine mise à jour. Dans une déposition, un ingénieur de Tesla l'a dit de manière tout à fait explicite : « Nous voulons faire savoir au client que, tout d'abord, vous devez avoir confiance en votre véhicule : tout fonctionne comme il se doit. Ensuite, la raison de votre accident ou la raison de votre incident retombe toujours sur vous ».

Comme pour illustrer ces propos, pendant qu'ils [Key et le journaliste] roulaient et que sa Tesla a raté un virage à gauche, Key a rapidement diagnostiqué le problème : si seulement le système avait été mis à niveau vers FSD 10.69, a-t-il soutenu, la voiture aurait sûrement réussi le virage en toute sécurité.

Malheureusement pour Musk, tous les propriétaires de Tesla ne sont pas comme Dave Key. Les plaignants dans les procès Autopilot pourraient convenir que l'IA s'améliore, mais seulement sur le dos des premiers utilisateurs et des passants qui pourraient être tués en cours de route.

En ligne, il y a une bataille entre les factions pro-Musk et anti-Musk à propos d'Autopilot et du FSD.

Key est loin d'être le seul conducteur Tesla à signaler des problèmes avec le logiciel, mais à continuer de soutenir la vision d'Elon Musk pour l'entreprise. Par exemple, un autre quotidien a précédemment rapporté qu'un conducteur de Tesla avait effectué un trajet sur 6 392 miles (environ 10 286 kilomètres) en utilisant principalement Autopilot et FSD et continuait de considérer le programme comme une « bouée de sauvetage » malgré la rencontre de bogues dans le logiciel.

Source : The New York Times Magazine

Et vous ?

Comprenez-vous la perspective de Dave Key ? Partagez-vous son point de vue ? Dans quelle mesure ?
« La raison de votre accident ou la raison de votre incident retombe toujours sur vous », êtes-vous d'accord avec les propos tenus par cet ingénieur de Tesla ? Pourquoi ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
9  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 22/04/2024 à 12:23
Il ne fait pas de réduction sur son outil de conduite autonome, il ne fait que donner un prix plus raisonnable à un truc inutile et pas du tout autonome.
Il ne lui reste plus qu'à en changer le nom pour ne plus mentir.
10  1 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 17/10/2023 à 23:40
Citation Envoyé par Ryu2000 Voir le message
Ben justement...

Pilote automatique

Autopilot ça ne veut pas dire que ça se conduit tout seul.
Tu mets la définition de "autopilot", mais pourquoi pas la définition de "Full Self-Driving"?
Non, parce qu'il parle de ça aussi. Littéralement "Conduite autonome complète/totale"...

Tesla aurait appelé ça "Self-driving", encore, on aurait pu chipoter, et faire comme tous les constructeurs et parler de niveau 1, 2, 3, 4, 5. Mais là, c'est du foutage de gueule.
Je ré-itère: cet ingénieur est soit un menteur, soit quelqu'un qui devrait ouvrir un dictionnaire.
8  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 18/10/2023 à 22:34
Citation Envoyé par Ryu2000 Voir le message
Ça ne parle pas que de Full Self-Driving ça parle aussi d'Autopilot !
Et autopilot ça ne veut pas dire que ça se conduit tout seul.
C'est un dialogue de sourds

Citation Envoyé par Ryu2000 Voir le message
Pour Full Self-Driving je ne sais pas.
Bon après Tesla aurait du choisir des expressions plus précise pour que les gens comprennent que la voiture ne se conduit pas toute seule.
Quand une entreprise te vend son accès bêta sous le nom de Full Self-Driving, je pense que c'est fait exprès.
7  0 
Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 22/04/2024 à 14:03
Tu peux jouer sur les mots mais dans les faits les études ont montré que l'autopilot de Tesla n'est pas du tout à la hauteur, et les réseaux sociaux regorgent de milliers de témoignages dans ce sens, et qu'il y a déjà eu des accidents mortels, principalement du à la bêtise des gens qui ont vraiment cru qu'ils peuvent dormir, regarder un film, faire des jeux vidéos, ou faire l'amour pendant que le FSD conduisait leur Tesla.

Dans les faits d'autres constructeurs ont un FSD qui est mieux coté que celui de Tesla, le problème de Tesla c'est qu'Elon Musk a fait le buzz, hors maintenant c'est le retour à la réalité : leur voitures sont pourries, elle ne sont pas fiables, certains composants ont étés montés avec du ruban adhésif, les réparations coutent une fortune, Tesla à menti sur l'autonomie réelle, et quand c'est l’hiver ces voitures ne marchent plus, les voitures et les stations de charges tombent en panne, et le FSD Tesla est totalement moisi et dangereux. Donc une fois la Hype passée c'est un désastre.
En Chine les Tesla ne se vendent plus du tout, car les chinois fabriquent des autos plus fiables et moins chères. Elon ne solde pas seulement le FSD mais aussi le prix de plusieurs modèles, qui ne se vendent plus à cause de la réputation horrible, et du fait que les chinois proposent bien mieux.
8  1 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/07/2023 à 23:21
Je ne suis pas un fan de Musk, mais là franchement, il y a de quoi se marrer.

La totalité, je dis bien la totalité des fabricants de voiture falsifient la consommation réelle de leur véhicules!

Les acteurs du secteur automobile se sont mis d'accord pour établir un test de roulement pour établir la consommation moyenne au 100 km qui ne correspond en rien à l'usage normal d'une voiture... Le test a été établi pour s'assurer que la consommation au 100 km soit très inférieure à la réalité.

Tout le monde en a d'ailleurs fait la constatation: Vous achetez un voiture écolo qui indique une consommation de 4,5 litres au 100km? Quand vous vérifiez votre consommation, il s'avère que vous frôlez les 10 litres/100km. Facile ensuite pour votre concessionnaire de vous dire "Mais monsieur, madame, vous avez un usage de votre véhicule qui ne correspond pas à un usage moyen, vous faites trop de trajets en ville ou roulez trop vite sur autoroute".

Idem pour l'autonomie des véhicules électriques, l'autonomie annoncée ne correspond jamais à la réalité "Mais monsieur, madame, vous faites trop de dénivelés... Vous roulez de manière trop sportive, blablabla..."

Et je ne parle pas de la période hivernale, un jour de grand froid et l'autonomie officiellement annoncée est divisée par 2 et puis et puis... Très vite, vous êtes confronté à l'usure de vos batteries dont la capacité de charge baisse de mois en mois...
9  3 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 28/06/2023 à 15:20
Le problème est même pire en fait, car dans ce cas, même le simple régulateur de vitesse avec détection de véhicule de la voiture de mon papa, aurait stoppé la voiture !
5  0 
Avatar de escartefigue
Modérateur https://www.developpez.com
Le 22/08/2023 à 9:49
La meilleure bagnole au monde, ça ne veut rien dire, tout dépend du critère : prix d'achat, consommation en carburant, coût de l'assurance, capacité de chargement, facilité de revente, performances, image... chacun ses priorités
6  1 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 12/12/2023 à 21:37
Que Tesla utilise l'argument de la liberté d'expression pour se défendre sur un dossier d'escroquerie dangereuse comme cela est sidérant mais ce n'est pas la première fois qu'ils nous montrent que les gens les intéressent bien peu.
5  0