IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un conducteur de Tesla a déclaré qu'il était toujours un utilisateur fidèle du Full Self-Driving
Même après avoir percuté un autre véhicule alors qu'il utilisait Autopilot

Le , par Stéphane le calme

253PARTAGES

8  0 
Le conducteur de Tesla, Dave Key, n'a pas tardé à défendre le logiciel d'assistance à la conduite du constructeur de voitures électriques, même des années après avoir eu un accident en utilisant Autopilot, selon un récent rapport du New York Times.

L'ancien entrepreneur en logiciels de 69 ans a déclaré au quotidien que malgré l'accident, il pense que le logiciel Full Self-Driving, qui est encore en bêta, a le potentiel de sauver des vies, ajoutant que même les accidents mortels ne devraient pas nuire à la vision plus large des véhicules autonomes. « En tant que société, nous choisissons la voie pour sauver le plus de vies », a-t-il déclaré au New York Times.


Le 29 mai 2018, la Tesla Model S 2015 de Dave Key le ramenait chez le dentiste en mode Autopilot. C'était un itinéraire que Key avait suivi d'innombrables fois auparavant : une autoroute à deux voies menant aux collines au-dessus de Laguna Beach, en Californie. Mais lors de ce voyage, alors que Key était distrait, la voiture a dérivé hors de sa voie et a percuté l'arrière d'un S.U.V. de police garé, faisant tourner la voiture et poussant le S.U.V. jusqu'au trottoir. Personne n'a été blessé, mais la Tesla était en piteux état.

Key, un ancien entrepreneur en logiciels de 69 ans, a opté pour une perspective impartiale sur son propre accident, revêtant sa casquette d'ingénieur : « Le problème avec les objets fixes - je suis désolé, cela semble stupide - c'est qu'ils ne bougent pas », a-t-il déclaré. Pendant des années, l'intelligence artificielle de Tesla a eu du mal à séparer les objets immobiles de l'arrière-plan. Plutôt que de se sentir frustré que l'ordinateur n'ait pas compris un problème aussi élémentaire, Key s'est rassuré en apprenant qu'il y avait une raison derrière l'accident : une limitation logicielle connue, plutôt qu'une sorte d'événement de cygne noir.

En clair, c'était un problème auquel d'autres utilisateurs d'Autopilot ont été confrontés.

L'année dernière, la National Highway and Traffic Safety Administration (NHTSA) a mis à niveau son enquête sur plus d'une douzaine de véhicules Tesla qui se sont écrasés contre des véhicules d'urgence alors qu'ils utilisaient Autopilot. L'agence a déclaré que la fonction d'assistance au conducteur avait du mal à identifier les véhicules en stationnement.

Pourtant, depuis l'accident, Key a acheté trois autres Teslas et continue d'utiliser à la fois Autopilot et le FSD, ajoutant que le logiciel s'est amélioré pour surveiller l'attention du conducteur sur la route grâce à une fonction de rappel qui suit la pression sur le volant et le mouvement des yeux du conducteur.

Citation Envoyé par New York Times
Pendant que nous roulions, Key a comparé FSD à l'Autopilot qui était sur sa Tesla de 2015. Autopilot, a-t-il dit, était comme un régulateur de vitesse sophistiqué : vitesse, direction, évitement des collisions. Bien que dans son cas, il ait dit : « Je suppose que cela n'a pas vraiment permis d'éviter les accidents ». Il avait été bien plus impressionné par le FSD. Il était capable de gérer à peu près toutes les situations qu'il lui présentait. « Mon seul vrai reproche est qu'il ne sélectionne pas toujours la voie que je choisirais ».

Au bout d'une minute, la voiture avertit Key de garder les mains sur le volant et les yeux sur la route. « Tesla est maintenant une sorte de nounou à ce sujet », s'est-il plaint. Si Autopilot était autrefois dangereusement permissif envers les conducteurs inattentifs – leur permettant même de s'endormir derrière le volant – cette faille, comme le bogue de l'objet stationnaire, avait été corrigée. « Entre le volant et le suivi des yeux, c'est juste un problème résolu », a déclaré Key(...).

Key avait apporté des notes, qui tenaient sur quatre pages, qu'il avait rédigées pour notre entretien, énumérant les faits sur les accidents, organisés en sous-titres tels que Tesla Full Self-Driving Technology (Discussion). C'est le genre d'homme qui se promène avec une batterie d'opinions bien formées sur les sujets les plus importants de la vie - ordinateurs, logiciels, exercice, argent - et une volonté de les partager. Il tenait particulièrement à ce que je comprenne que l'Autopilot et le FSD sauvaient des vies : « les données montrent que leur taux d'accidents pendant la bêta est bien inférieur à celui des autres voitures », lit-on dans ses notes. « Ralentir le [développement de la] bêta FSD entraînera plus d'accidents et de pertes de vie sur la base de données statistiques solides.

Des accidents comme le sien – et même les plus mortels – sont malheureux, a-t-il soutenu, mais ils ne pouvaient pas détourner la société de l'objectif plus large d'une adoption généralisée des véhicules autonomes. Key a fait une analogie avec les vaccins contre le coronavirus, qui ont empêché des centaines de milliers de décès, mais ont également causé de rares décès et blessures dus à des effets indésirables. « En tant que société », a-t-il conclu, « nous choisissons la voie pour sauver le plus de vies ».
Depuis la sortie d'Autopilot en octobre 2015, Musk a encouragé les conducteurs à le considérer comme plus avancé qu'il ne l'était, déclarant en janvier 2016 qu'il était « probablement meilleur » qu'un conducteur humain. En novembre de la même année, la société a publié une vidéo d'une Tesla naviguant sur les routes de la Bay Area avec l'indication suivante : « La personne à la place du conducteur n'est là que pour des raisons légales. Elle ne fait rien. La voiture se conduit toute seule ». Musk a également rejeté le nom « Copilot » en faveur « d'Autopilot ».


La vidéo datant de 2016 faisant la promotion de la conduite autonome de Tesla

Les petits caractères indiquaient clairement que la technologie était uniquement destinée à l'assistance au conducteur, mais ce message n'a reçu qu'une fraction de l'attention des annonces de Musk. Un grand nombre de conducteurs semblaient vraiment confus quant aux capacités d'Autopilot (d'ailleurs, Tesla a également refusé de divulguer que la voiture de la vidéo de 2016 s'est écrasée dans le parking de l'entreprise, ce qui a été souligné par un ingénieur de Tesla qui a reconnu que la vidéo de 2016 faisant la promo de la conduite autonome du véhicule était truquée).

Tesla fait face à plusieurs plaintes

Malheureusement pour Musk, le court terme passe avant tout et son entreprise fait face à quelques mois difficiles. En février, le premier procès contre Tesla pour un accident impliquant Autopilot sera jugé. Quatre autres suivront coup sur coup. Donald Slavik, qui représentera les plaignants dans pas moins de trois de ces affaires, affirme qu'un constructeur automobile normal aurait déjà choisi de régler l'affaire à l'amiable : « Ils considèrent cela comme un coût pour faire des affaires ». Musk a juré de se battre devant les tribunaux, quels que soient les dangers que cela pourrait présenter pour Tesla. « Les dollars peuvent vite s'additionner », a déclaré Slavik, « surtout s'il y a des dommages-intérêts punitifs ».

Dans l'une des plaintes qu'il a déposées contre Tesla, Slavik a répertorié les principaux accidents impliquant Autopilot de A à WW. En Chine, une Tesla a percuté une balayeuse. En Floride, une Tesla a heurté un semi-remorque sur une autoroute. Lors d'une averse dans l'Indiana, une Tesla Model 3 a quitté la route et s'est enflammée. Dans les Florida Keys, une Model S a traversé une intersection et a tué un piéton. À New York, une Model Y a heurté un homme qui changeait son pneu sur l'accotement de la Long Island Expressway. Dans le Montana, une Tesla a percuté de manière inattendue une barrière d'autoroute. Puis la même chose s'est produite à Dallas, à Mountain View et à San Jose.

En fait, les nombreuses revendications des poursuites en cours reviennent à un seul thème : Tesla a constamment gonflé les attentes des consommateurs et minimisé les dangers encourus. Les voitures n'étaient pas suffisamment surveillées par le conducteur, car Musk ne voulait pas que les conducteurs pensent que la voiture avait besoin d'une surveillance humaine.

Pour mémoire, en avril 2019, Musk a déclaré : « Si vous avez un système dont la fiabilité est égale ou inférieure au niveau humain, alors la surveillance du conducteur a du sens. Mais si votre système est nettement meilleur, plus fiable qu'un humain, alors la surveillance n'aide pas beaucoup ».

Les conducteurs n'ont pas été avertis des problèmes de freinage automatique ou des « changements de voie non commandés ». La société a fini par admettre les limites de la technologie dans son manuel d'utilisation, mais a publié des vidéos virales d'une Tesla conduisant sur un itinéraire compliqué sans intervention humaine.


« La raison de votre accident ou la raison de votre incident retombe toujours sur vous »

Le client idéal de Musk est quelqu'un comme Key, prêt à accepter le blâme quand quelque chose ne va pas, mais possédant une foi presque illimitée dans la prochaine mise à jour. Dans une déposition, un ingénieur de Tesla l'a dit de manière tout à fait explicite : « Nous voulons faire savoir au client que, tout d'abord, vous devez avoir confiance en votre véhicule : tout fonctionne comme il se doit. Ensuite, la raison de votre accident ou la raison de votre incident retombe toujours sur vous ».

Comme pour illustrer ces propos, pendant qu'ils [Key et le journaliste] roulaient et que sa Tesla a raté un virage à gauche, Key a rapidement diagnostiqué le problème : si seulement le système avait été mis à niveau vers FSD 10.69, a-t-il soutenu, la voiture aurait sûrement réussi le virage en toute sécurité.

Malheureusement pour Musk, tous les propriétaires de Tesla ne sont pas comme Dave Key. Les plaignants dans les procès Autopilot pourraient convenir que l'IA s'améliore, mais seulement sur le dos des premiers utilisateurs et des passants qui pourraient être tués en cours de route.

En ligne, il y a une bataille entre les factions pro-Musk et anti-Musk à propos d'Autopilot et du FSD.

Key est loin d'être le seul conducteur Tesla à signaler des problèmes avec le logiciel, mais à continuer de soutenir la vision d'Elon Musk pour l'entreprise. Par exemple, un autre quotidien a précédemment rapporté qu'un conducteur de Tesla avait effectué un trajet sur 6 392 miles (environ 10 286 kilomètres) en utilisant principalement Autopilot et FSD et continuait de considérer le programme comme une « bouée de sauvetage » malgré la rencontre de bogues dans le logiciel.

Source : The New York Times Magazine

Et vous ?

Comprenez-vous la perspective de Dave Key ? Partagez-vous son point de vue ? Dans quelle mesure ?
« La raison de votre accident ou la raison de votre incident retombe toujours sur vous », êtes-vous d'accord avec les propos tenus par cet ingénieur de Tesla ? Pourquoi ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de totozor
Membre chevronné https://www.developpez.com
Le 23/01/2023 à 8:31
Citation Envoyé par Stéphane le calme Voir le message
Key, un ancien entrepreneur en logiciels de 69 ans, a opté pour une perspective impartiale sur son propre accident, revêtant sa casquette d'ingénieur : « Le problème avec les objets fixes - je suis désolé, cela semble stupide - c'est qu'ils ne bougent pas »
Et après on s'étonne que les gens se foutent de nous.
M. Key a fait des études supérieures pour déclarer que les objets fixes ne bougent pas. Merci pour cette sagesse infinie.
s'est rassuré en apprenant qu'il y avait une raison derrière l'accident : une limitation logicielle connue, plutôt qu'une sorte d'événement de cygne noir.
M. Key était rassuré parce que Tesla savait qu'elle risquait de tuer des gens parce qu'elle connait les limites de son logiciel.
Mais il ne s'inquiète pas que la société a identifié un risque de tuer mais a décidé de le mettre "en prod" malgré tout sans prévenir le bêta testeur.
Pourtant, depuis l'accident, Key a acheté trois autres Teslas et continue d'utiliser à la fois Autopilot et le FSD
Il en a crashé 2 autres ou il les collectionne? C'est un peu plus cher qu'une majorette ces engins.
Le client idéal de Musk est quelqu'un comme Key, prêt à accepter le blâme quand quelque chose ne va pas mais possédant une foi presque illimitée dans la prochaine mise à jour. Dans une déposition, un ingénieur de Tesla l'a dit de manière tout à fait explicite*: « Nous voulons faire savoir au client que, tout d'abord, vous devez avoir confiance en votre véhicule*: tout fonctionne comme il se doit. Ensuite, la raison de votre accident ou la raison de votre incident retombe toujours sur vous ».
Donc Musk lui meme se définit comme gourou, et les gens le suivent malgré tout.
Comprenez-vous la perspective de Dave Key ? Partagez-vous son point de vue ? Dans quelle mesure ?
« La raison de votre accident ou la raison de votre incident retombe toujours sur vous », êtes-vous d'accord avec les propos tenus par cet ingénieur de Tesla ? Pourquoi ?
On ne parle pas d'un logiciel inoffensif dont les bugs ne font que perdre des heures aux utilisateurs, on parle d'un logiciel qui peut tuer des gens qui ne l'utilisent pas.
On parle d'un logiciel qui est mis sur les routes alors que son développeur sait qu'il risque de tuer des gens mais rassure les ingénieurs mentaux en disant "tkt, la prochaine version diminue la léthalité de 0.001% en étant capable de faire la différence entre une ambulance et un fond d'écran"
Oui je suis d'accord avec l'avis de cet ingénieur mais je ne suis pas d'accord que l'argument soit utilisé après que son employeur ait dit que le système est plus fiable qu'un conducteur humain.

Le cynisme de certains ingénieur me fait sincèrement peur.
3  0 
Avatar de marc.collin
Membre chevronné https://www.developpez.com
Le 21/01/2023 à 14:59
jouer avec la vie des gens ne devrait pas être toléré

difficile de comprendre ses propos, il changera surement d'avis la journée que ses enfants, femme, famille mourront à cause d'un tel système...

il n'est pas question ici d'un bug qui fait en sorte que les données sont effacé..... et qu'une mauvaise image est mis dans la page....... mais de bug qui cause des accidents dans le monde réel....
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 23/01/2023 à 18:00
Citation Envoyé par Ryu2000 Voir le message
Si ça se trouve il a une connaissance profonde des algorithmes de détection d'objet et il sait que c'est cette chose précise est compliqué à gérer.
Mouais, ou alors le gars y connaît que dalle... Il a plusieurs Tesla, fait un accident avec le FSD et continue de croire en la communication de Tesla... Je dirais plutôt que ce type est la définition même du fanboy. En plus, il est "entrepreneur en logiciels". Rien ne prouve donc qu'il sait de quoi il parle. Il peut juste être bon en management et avoir fait travailler des devs toute sa carrière sans jamais avoir touché ne serait qu'une spécification technique ou une ligne de code.

Si un objet fixe est si difficile à détecter pour une caméra, il suffirait par exemple de rajouter des capteurs comme des sonars. Ah, on me dit dans l'oreillette que Tesla a décidé en 2021 de les virer des modèles 3 et Y pour ne mettre que des caméras, pour des histoires de petits sous!
1  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 27/01/2023 à 16:12
Citation Envoyé par jbrosset Voir le message
* Il est en effet inadmissible de disposer d'un logiciel dont on connaît des bugs, des limitations, qui peuvent entrainer des accidents graves, sans en informer leur utilisateur. Il faut lui demander la vigilance, et ne pas l'illusionner d'un système totalement autonome.
* Et en même temps, le point de vue statistique ne peut pas être balayé non plus d'un revers de main : la technologie devient plus fiable que l'humain. Probablement dès aujourd'hui, et sûrement dans un avenir assez proche. Et donc, statistiquement, il y a moins d'accidents avec le logiciel qu'avec l'humain.
Je propose un mix des deux : il y a moins d'accidents avec le logiciel qu'avec l'humain, mais on connaît des bugs, des limitations, qui peuvent entrainer des accidents graves, on en informer leur utilisateur. et on lui demander la vigilance, et ne pas l'illusionner

Citation Envoyé par jbrosset Voir le message
Lorsque le conducteur est humain, on est fataliste : oui, il a fait une erreur, il n'a pas vu, il a été distrait.
Lorsque le conducteur est un logiciel, on sait qu'il ne peut pas être distrait, alors on est impitoyable. Et en effet, il n'est jamais distrait, mais son intelligence est limitée, il peut se tromper.
Je ne suis pas tout à fait d'accord, j'ai passé des heures en vélo sans respecter le code de la route (parfois par survie) dans une circulation hostile (Toulouse) et je n'ai eu que 2 accidents qui auraient pu être graves.
Pourquoi?
Je voit le chauffeur et je sais anticiper ce qu'il va/pourrait faire et donc je sais anticiper et y réagir. (D'ailleurs dans les deux cas, je ne voyais pas le chauffeur, une fois derrière la voiture, une fois son visage était caché par une planche).
Le pilote automatique peut mettre un clignotant, allumer ses feu de freinage avant de freiner mais ne pourra jamais me signaler qu'il m'a vu ou non, s'il veut passer devant/derrière/à travers moi. etc.

J'ai vu des chauffeurs qui ne m'avaient pas vu et qui auraient pu m'écraser, j'ai réagi en fonction. Si une IA ne me voit pas et ne donne pas de signe de ce qu'elle va faire, je partais directement aux urgences ou à la morgue.
Avec une IA plus chauffeur, il voit qu'elle m'a identifié ou pas, il voit qu'elle compte me passer dessus et dans 95% des cas je lit son visage et je me sauve la vie s'il réagit trop tard.

Le truc est que peut être que le FSD est moins dangereux que le chauffeur moyen MAIS en tant que victime potentielle des deux, je sais éviter un accident avec un chauffeur et pas avec un FSD. Et je refuse d'être la statistique involontaire et impuissante du FSD.
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 23/01/2023 à 9:28
Citation Envoyé par totozor Voir le message
M. Key a fait des études supérieures pour déclarer que les objets fixes ne bougent pas.
Si ça se trouve il a une connaissance profonde des algorithmes de détection d'objet et il sait que c'est cette chose précise est compliqué à gérer.
0  1 
Avatar de jbrosset
Membre du Club https://www.developpez.com
Le 27/01/2023 à 11:42
La problématique exposée ici est non pas compliquée, mais complexe.

[Note : compliqué, c'est comme un mécanisme d'horloge, il y a plein de petits roues dentées, c'est compliqué mais ça se décompose toujours en éléments simples... Complexe, c'est comme un plat de spaghettis : allez prévoir la position de chaque spaghetti... il y a une part de non-maîtrisable]

Et donc il y a ici deux points de vue tout à fait respectables tous deux et cependant contradictoires, qui s'expriment :

* Il est en effet inadmissible de disposer d'un logiciel dont on connaît des bugs, des limitations, qui peuvent entrainer des accidents graves, sans en informer leur utilisateur. Il faut lui demander la vigilance, et ne pas l'illusionner d'un système totalement autonome.

* Et en même temps, le point de vue statistique ne peut pas être balayé non plus d'un revers de main : la technologie devient plus fiable que l'humain. Probablement dès aujourd'hui, et sûrement dans un avenir assez proche. Et donc, statistiquement, il y a moins d'accidents avec le logiciel qu'avec l'humain.

Le problème c'est que quand il y a un accident à cause d'une erreur ou d'une limite de la technologie, c'est toujours un de trop. Et la victime se fiche des statistiques : c'est LUI qui est blessé... ou mort. Les autres blessés ou morts qui ont été évités, ce n'est pas son problème.
Lorsque le conducteur est humain, on est fataliste : oui, il a fait une erreur, il n'a pas vu, il a été distrait.
Lorsque le conducteur est un logiciel, on sait qu'il ne peut pas être distrait, alors on est impitoyable. Et en effet, il n'est jamais distrait, mais son intelligence est limitée, il peut se tromper.

Donc sans être un fan d'Elon Musk (j'en suis très très loin, je vous assure) ce qu'il fait avec Tesla est remarquable.
Il faudrait seulement un peu d'humilité dans tout cela, pour communiquer de façon responsable sur le chemin qui reste à parcourir et que la vigilance du conducteur reste un élément de sécurité complémentaire et nécessaire.
0  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 21/01/2023 à 8:11
Citation Envoyé par Stéphane le calme Voir le message
Comprenez-vous la perspective de Dave Key ? Partagez-vous son point de vue ? Dans quelle mesure ?
J'ai l'impression qu'il se dit "le logiciel est en version béta, il est donc normal qu'il déconne un peu".
Je comprend ce point de vue.
0  2 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 21/01/2023 à 15:28
Citation Envoyé par marc.collin Voir le message
il n'est pas question ici d'un bug qui fait en sorte que les données sont effacé.....
Ouais mais les utilisateurs de voiture Tesla installent le logiciel en connaissance de cause.
Ils doivent se dire "le logiciel est en version béta, si je l'utilise un accident peut avoir lieu".
0  2