IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des emails révèlent qu'Elon Musk a supervisé la mise en scène de la vidéo sur la technologie de conduite autonome de Tesla
Visant à faire croire qu'une voiture Tesla pouvait se conduire toute seule

Le , par Bill Fassinou

256PARTAGES

14  0 
Elon Musk, PDG de Tesla, aurait supervisé une vidéo de 2016 qui exagérait les capacités de l'Autopilot, le système d'aide à la conduite du constructeur automobile. Des courriels de l'époque révèlent que Musk a même dicté le titre d'ouverture de la vidéo qui prétendait que la voiture se conduisait toute seule. Il aurait dit aux ingénieurs qu'"ils n'étaient pas tenus de coder en dur toutes les étapes de la fonction de conduite autonome juste pour les besoins de ladite vidéo". La déposition d'un ingénieur a révélé la semaine dernière que la voiture ne se conduisait pas toute seule et qu'elle suivait plutôt un itinéraire prédéterminé sur une carte haute définition.

S'il subsistait un doute sur le fait que Musk savait que la vidéo sur la démonstration de l'Autopilot de Tesla en 2016 était une mise en scène, il vient peut-être d'être dissipé. Bloomberg dit avoir eu accès à des emails internes de Tesla qui révèlent que Musk a lui-même supervisé la supercherie. « Je veux juste être absolument clair sur le fait que la priorité absolue de tout le monde est de réaliser une incroyable démonstration de la conduite de l'Autopilot. Vu qu'il s'agit d'une démo, il n'y a pas de problème à coder en dur une partie de celle-ci, puisque nous la compléterons avec du code de production plus tard dans une mise à jour OTA », a dit Musk dans un courriel.

Musk a publié un billet de blogue sur le site Web de Tesla la veille de la diffusion de la vidéo, le 19 octobre. Dedans, il indiquait que toutes les voitures Tesla seraient livrées à partir de ce jour avec le matériel nécessaire à une capacité de conduite autonome complète. Dans les courriels qu'il a envoyés à son personnel ce mois-là, il a souligné l'importance d'une démonstration pour promouvoir le système. Musk n'a pas vu d'inconvénient à cette stratégie : « je vais dire au monde que c'est ce que la voiture *va* pouvoir faire, et non ce qu'elle peut le faire dès la réception », a-t-il écrit. Malgré ces propos, la vidéo n'a pas fait preuve de clarté lorsqu'elle a été publiée.


Les emails internes montrent que Musk lui-même a demandé à l'équipe Autopilot d'ouvrir la vidéo avec les mots : « la personne sur le siège du conducteur n'est là que pour des raisons juridiques. Elle ne fait rien du tout. La voiture se conduit toute seule ». Puis, lorsque Musk a fait la promotion de la vidéo sur Twitter, il a écrit : « Tesla se conduit toute seule (sans aucune intervention humaine) à travers les rues urbaines, l'autoroute et les rues, puis trouve une place de stationnement ». Et lorsque la technologie a été mise à la disposition des conducteurs de Tesla trois ans plus tard, le résultat a été plutôt décevant, car le système a eu du mal à naviguer tout seul.

Ces nouvelles révélations ont suscité un tollé sur la toile, plusieurs internautes reprochant à Tesla de les avoir menés en bateau depuis au moins 2016. Tesla savait que ses voitures ne pouvaient pas se conduire toutes seules, mais a pourtant présenté les choses comme telles. Selon ses propres employés, Tesla aurait dû le révéler afin de ne pas induire les clients en erreur en leur faisant croire que sa technologie était plus avancée qu'elle ne l'était. « Tesla aurait également pu mentionner que, lors du tournage de la vidéo, le Model X s'est écrasé contre une clôture », a déclaré Ashok Elluswamy, directeur du logiciel Autopilot chez Tesla, qui a donné des détails sur la vidéo.

La déposition d'Elluswamy a été prise comme preuve dans un procès contre Tesla pour un accident mortel de 2018 impliquant l'ancien ingénieur d'Apple Walter Huang. Le procès allègue que les erreurs de l'Autopilot, et la confiance mal placée de Huang dans les capacités du système ont causé l'accident. Des agences fédérales et d'État, ainsi que des clients ont également reproché à Tesla de promouvoir à tort les capacités de ses systèmes d'aide à la conduite l'Autopilot et le Full Self-Driving (qui n'est pas du tout ce que son nom semble vouloir indiquer). En fait, Tesla conseille à ses conducteurs de rester vigilants et concentrés lorsque les systèmes sont activés.

En juillet dernier, le département des véhicules à moteur (DMV) de Californie a accusé Tesla de faire de la publicité mensongère pour ses systèmes, ce qu'une poignée de clients de Tesla ont également allégué dans un procès intenté en septembre contre la société. En outre, la National Highway Traffic Safety Administration des États-Unis enquête activement sur deux accidents liés au système Autopilot. Tesla pourrait également faire l'objet d'une enquête criminelle de la part du ministère américain de la Justice concernant ses affirmations sur la conduite autonome. Ces déclarations, et même les noms Autopilot et Full Self-Driving, sont considérées comme trompeuses.

En 2019, les analystes ont découvert que les affirmations répétées de l'entreprise selon lesquelles l'Autopilot réduisait les accidents d'environ 40 % étaient fausses, et qu'en fait, le système pourrait avoir augmenté les accidents de 59 %. La même année, la NHTSA a dû dire à Tesla qu'il trompait les clients en affirmant que l'agence avait qualifié la Tesla Model 3 de voiture la plus sûre qu'elle ait jamais testée. Face aux allégations, Tesla s'est défendu dans une motion de novembre visant à rejeter la plainte de clients qui le poursuivent pour marketing mensonger. Il a déclaré : « notre incapacité à réaliser un objectif ambitieux à long terme n'est pas une fraude ».

Dans une conversation sur Twitter Spaces en décembre, l'entreprise a déclaré que son avantage sur les autres constructeurs automobiles, alors qu'elle vise à résoudre le problème de la conduite autonome complète, est que "la voiture Tesla est évolutive vers l'autonomie, ce qu'aucun autre constructeur automobile ne peut faire". Ce qui reste à prouver. Dans des conditions réelles, les performances de l'Autopilot et de sa version améliorée, le Full Self-Driving, restent médiocres. La NHTSA a ouvert plusieurs enquêtes pour déterminer si ces systèmes sont sûrs, notamment à la suite de centaines de signalements de comportements de freinage fantôme.

Une autre de la NHTSA cherche à savoir si les voitures Tesla sont capables de détecter la présence de motocyclistes après qu'au moins deux motocyclistes ont été tués après avoir été percutés par des Teslas. L'agence enquête également sur la propension des voitures Tesla à percuter des véhicules d'urgence. La société peut également faire face à des poursuites pénales. Le fait de tromper intentionnellement ses investisseurs ou ses clients reste un crime aux États-Unis, et les procureurs fédéraux ont cherché à savoir si les nombreuses affirmations de Tesla et de Musk concernant ces systèmes d'aide à la conduite répondaient à cette exigence.

Le témoignage d'Elluswamy n'aide sûrement pas Tesla. Et l'implication directe de Musk dans la vidéo et la promotion subséquente de la capacité des véhicules Tesla à se conduire eux-mêmes surviennent à un moment où la réputation et la fiabilité du dirigeant sont de plus en plus remises en cause. En plus de ses distractions sur Twitter, Musk a également promis, lors de la conférence téléphonique avec les investisseurs de Tesla au le troisième trimestre, que la société connaîtrait "une fin d'année épique", mais Tesla a fini par manquer les estimations concernant les livraisons du quatrième trimestre. En plus de cela, l'action de la société a chuté de 65 % en 2022.

Musk est jugé actuellement aux États-Unis pour un tweet de 2018 dans lequel il affirme avoir trouvé les fonds nécessaires pour privatiser Tesla. Le jury est chargé de déterminer si le tweet a trompé ou non les investisseurs. En effet, le rachat ne s'est jamais concrétisé, mais à l'époque, le tweet de Musk avait alimenté une hausse du prix de l'action Tesla qui s'est brusquement terminée une semaine plus tard, lorsqu'il est apparu qu'il n'avait pas les fonds nécessaires pour un rachat. Peu après, la valeur des actions a grimpé en flèche, ce qui a fait de Musk la personne la plus riche du monde jusqu'à ce qu'il rachète Twitter à la fin du mois d'octobre 2022.

Et vous ?

Quel est votre avis sur le sujet ?
Selon vous, quelles sanctions pourraient encourir Musk et Tesla dans cette affaire ?
Que pensez-vous des controverses entourant Musk ? Nuit-il à l'image de ses entreprises ?
Selon vous, Musk a-t-il fait son temps à la tête de Tesla ? Doit-il passer le flambeau à un nouveau PDG ?
Quelles comparaisons faites-vous entre le système Autopilot de Tesla et les systèmes concurrents ?

Voir aussi

Elon Musk est jugé aux États-Unis pour un tweet de 2018 dans lequel il affirme avoir trouvé les fonds nécessaires pour privatiser Tesla, il perdra le procès si le tweet est reconnu comme "trompeur"

Elon Musk : « Ce n'est pas parce que je tweete quelque chose que les gens y croient », dans un procès suite à un de ses tweets de 2018 qui aurait coûté des millions de dollars aux investisseurs Tesla

Les investisseurs concluent que Tesla est un constructeur automobile et non une entreprise technologique, l'achat de Twitter par Elon Musk a précipité la chute de l'action Tesla qui a baissé de 71 %

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de totozor
Membre chevronné https://www.developpez.com
Le 27/01/2023 à 16:12
Citation Envoyé par jbrosset Voir le message
* Il est en effet inadmissible de disposer d'un logiciel dont on connaît des bugs, des limitations, qui peuvent entrainer des accidents graves, sans en informer leur utilisateur. Il faut lui demander la vigilance, et ne pas l'illusionner d'un système totalement autonome.
* Et en même temps, le point de vue statistique ne peut pas être balayé non plus d'un revers de main : la technologie devient plus fiable que l'humain. Probablement dès aujourd'hui, et sûrement dans un avenir assez proche. Et donc, statistiquement, il y a moins d'accidents avec le logiciel qu'avec l'humain.
Je propose un mix des deux : il y a moins d'accidents avec le logiciel qu'avec l'humain, mais on connaît des bugs, des limitations, qui peuvent entrainer des accidents graves, on en informer leur utilisateur. et on lui demander la vigilance, et ne pas l'illusionner

Citation Envoyé par jbrosset Voir le message
Lorsque le conducteur est humain, on est fataliste : oui, il a fait une erreur, il n'a pas vu, il a été distrait.
Lorsque le conducteur est un logiciel, on sait qu'il ne peut pas être distrait, alors on est impitoyable. Et en effet, il n'est jamais distrait, mais son intelligence est limitée, il peut se tromper.
Je ne suis pas tout à fait d'accord, j'ai passé des heures en vélo sans respecter le code de la route (parfois par survie) dans une circulation hostile (Toulouse) et je n'ai eu que 2 accidents qui auraient pu être graves.
Pourquoi?
Je voit le chauffeur et je sais anticiper ce qu'il va/pourrait faire et donc je sais anticiper et y réagir. (D'ailleurs dans les deux cas, je ne voyais pas le chauffeur, une fois derrière la voiture, une fois son visage était caché par une planche).
Le pilote automatique peut mettre un clignotant, allumer ses feu de freinage avant de freiner mais ne pourra jamais me signaler qu'il m'a vu ou non, s'il veut passer devant/derrière/à travers moi. etc.

J'ai vu des chauffeurs qui ne m'avaient pas vu et qui auraient pu m'écraser, j'ai réagi en fonction. Si une IA ne me voit pas et ne donne pas de signe de ce qu'elle va faire, je partais directement aux urgences ou à la morgue.
Avec une IA plus chauffeur, il voit qu'elle m'a identifié ou pas, il voit qu'elle compte me passer dessus et dans 95% des cas je lit son visage et je me sauve la vie s'il réagit trop tard.

Le truc est que peut être que le FSD est moins dangereux que le chauffeur moyen MAIS en tant que victime potentielle des deux, je sais éviter un accident avec un chauffeur et pas avec un FSD. Et je refuse d'être la statistique involontaire et impuissante du FSD.
1  0 
Avatar de jbrosset
Membre du Club https://www.developpez.com
Le 27/01/2023 à 11:42
La problématique exposée ici est non pas compliquée, mais complexe.

[Note : compliqué, c'est comme un mécanisme d'horloge, il y a plein de petits roues dentées, c'est compliqué mais ça se décompose toujours en éléments simples... Complexe, c'est comme un plat de spaghettis : allez prévoir la position de chaque spaghetti... il y a une part de non-maîtrisable]

Et donc il y a ici deux points de vue tout à fait respectables tous deux et cependant contradictoires, qui s'expriment :

* Il est en effet inadmissible de disposer d'un logiciel dont on connaît des bugs, des limitations, qui peuvent entrainer des accidents graves, sans en informer leur utilisateur. Il faut lui demander la vigilance, et ne pas l'illusionner d'un système totalement autonome.

* Et en même temps, le point de vue statistique ne peut pas être balayé non plus d'un revers de main : la technologie devient plus fiable que l'humain. Probablement dès aujourd'hui, et sûrement dans un avenir assez proche. Et donc, statistiquement, il y a moins d'accidents avec le logiciel qu'avec l'humain.

Le problème c'est que quand il y a un accident à cause d'une erreur ou d'une limite de la technologie, c'est toujours un de trop. Et la victime se fiche des statistiques : c'est LUI qui est blessé... ou mort. Les autres blessés ou morts qui ont été évités, ce n'est pas son problème.
Lorsque le conducteur est humain, on est fataliste : oui, il a fait une erreur, il n'a pas vu, il a été distrait.
Lorsque le conducteur est un logiciel, on sait qu'il ne peut pas être distrait, alors on est impitoyable. Et en effet, il n'est jamais distrait, mais son intelligence est limitée, il peut se tromper.

Donc sans être un fan d'Elon Musk (j'en suis très très loin, je vous assure) ce qu'il fait avec Tesla est remarquable.
Il faudrait seulement un peu d'humilité dans tout cela, pour communiquer de façon responsable sur le chemin qui reste à parcourir et que la vigilance du conducteur reste un élément de sécurité complémentaire et nécessaire.
1  1