IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le PDG de Green Hills accuse Tesla de traiter les utilisateurs du Full Self-Driving comme des "mannequins de test de collision",
Et qualifie le FSD du pire logiciel commercial qu'il ait jamais vu

Le , par Bill Fassinou

390PARTAGES

9  1 
Dan O'Dowd, cofondateur et PDG de Green Hills Software, s'est attiré les foudres d'Elon Musk ce week-end après avoir posté une annonce provocatrice et "dénigrante" sur le système d'aide à la conduite FSD (Full Self-Driving) de Tesla. Il a allégué dans une publicité d'une page entière parue dans le New York Times que des millions de gens mourraient chaque jour si la version actuelle du FSD contrôlait pleinement chaque véhicule sur la route. Il a ajouté que Tesla prenait les utilisateurs du FSD comme des "mannequins de test de collision". En réponse, Elon Musk, PDG de Tesla, a déclaré : "le logiciel de Green Hills est un tas d'ordures".

La voiture électrique, généralement munie d'un système d'aide à la conduite, se popularise davantage et un grand nombre de nouveaux acteurs sont arrivés sur le marché pendant la dernière décennie, certains étant des filiales de grands groupes existant déjà sur le marché des véhicules à combustion. Cela a engendré une concurrence accrue et les entreprises semblent user désormais de tous les moyens pour mettre en avant leurs produits. C'est peut-être ce qui s'est passé dimanche avec Dan O'Dowd, qui a publié dimanche une "critique sévère" sur le logiciel FSD de Tesla sous la forme d'une publicité dans le New York Times.



Dan est le cofondateur et PDG de Green Hills Software. Green Hills est une société privée qui construit des systèmes d'exploitation et des outils de programmation pour les systèmes embarqués, mais avec l'avènement de la voiture électrique, elle s'est également lancée dans le développement de systèmes d'aide à la conduite (ADAS - Advanced Driver Assistance Systems). Intitulée "Don't be a Tesla crash test dummy" ("ne soyez pas un mannequin de test de collision pour Tesla"), la publicité de Dan affirme que dans sa version actuelle, le FSD tuerait des millions de personnes chaque jour s'il alimentait un plus grand nombre de voitures.

Dan a fondé sa critique sur une étude des vidéos mises en ligne qui montrent des propriétaires de Tesla utilisant la fonction de conduite autonome complète, qui, selon Tesla, est en phase bêta et ne permet qu'une autonomie limitée sous la supervision du conducteur. Selon son étude, les vidéos montrent que FSD commet une "erreur de conduite critique" toutes les huit minutes et une "erreur involontaire" toutes les 36 minutes qui "causerait probablement une collision". Sur la bannière publicitaire, Dan estime que le FSD est le "pire logiciel commercial" qu'il ait jamais vu et pense qu'il est toujours dans une phase alpha.

De ce fait, il pense qu'il devrait être testé par des employés de Tesla en interne plutôt que par des propriétaires de Tesla. « Le logiciel qui pilote les voitures à conduite autonome dont des millions de vies vont dépendre doit être le meilleur logiciel », a-t-il déclaré. Bien qu'une version restreinte du FSD soit accessible à toute personne possédant une Tesla, les propriétaires peuvent également demander à devenir des bêta-testeurs d'une version plus avancée s'ils ont un score de sécurité de conduite suffisamment élevé, tel que déterminé par le logiciel de leur voiture. Dan fait en effet campagne pour interdire le FSD de Tesla.



Il a déclaré avoir placé l'annonce sous les auspices du Dawn Project, un groupe de pression qui milite dans ce sens. Il s'agit d'une organisation qui se décrit elle-même comme "dédiée à rendre les ordinateurs vraiment sûrs pour l'humanité". Selon certains critiques, l'annonce publiée par Dan dimanche apparaît en partie comme un coup de publicité destiné à attirer l'attention sur sa propre entreprise. Green Hills Software a déclaré au début du mois que sa technologie était utilisée pour développer un logiciel d'aide à la conduite pour la BMW iX entièrement électrique, un SUV sportif présenté par BMW au CES 2022.

En réaction, Elon Musk, PDG de Tesla, s'est attaqué au logiciel de Green Hills Software. Musk a tweeté dimanche : « le logiciel de Green Hills est un tas d'ordures », et a approuvé un commentaire selon lequel "les critiques du FSD ont toujours un énorme intérêt financier dans une solution concurrente". Mais de son côté, Dan a déclaré que les meilleures sources d'information sur un produit sont ses concurrents. « Ils les mettent en pièces, ils découvrent ce qu'ils font bien, ils découvrent ce qu'ils font mal. Ils savent mieux que quiconque, et ils vous le diront. Le vendeur ne vous dira jamais ces choses-là », a-t-il déclaré à Fox Business.

De plus, il a également allégué que la version originale de l'Autopilot de Tesla, qui était un précurseur du FSD, a été construite en utilisant Green Hills Software. « Je me suis retiré du projet et j'ai dit : "je ne sais pas si c'est bien, si c'est ce que nous devrions faire ici, ça ne va pas marcher », a déclaré Dan. Musk n'a pas eu d'autres réactions en dehors de celle-ci et Tesla, qui ne dispose pas d'un bureau des affaires médiatiques opérationnel, n'a pas apporté de commentaires sur les allégations de Dan selon lesquelles il y aurait un lien entre la technologie d'aide à la conduite de Green Hills Software et le FSD.



Sur la toile, certains commentaires notent qu'il est "tout à fait ridicule" d'utiliser des vidéos YouTube de tiers - au lieu de tester directement la technologie - pour extraire des "preuves" que le FSD tuerait des millions de personnes chaque jour si elle était installée sur toutes les voitures du monde. Un autre signal d'alarme serait le fait que la publicité n'utilise pas une seule fois le nom complet du logiciel Full Self-Driving Beta. Elle ne mentionne pas la partie "Beta", ce qui peut amener certains lecteurs à croire que le FSD Beta est un produit fini alors qu'il est encore en phase de test de développement.

Par ailleurs, Tesla traverse une période trouble en ce moment en raison du FSD, car le logiciel serait impliqué dans plusieurs accidents mortels ces dernières années, et fait actuellement l'objet d'une surveillance accrue de la part des régulateurs. Par exemple, la National Highway Traffic Safety Administration (NHTSA) des États-Unis est en train d'enquêter pour savoir si le système FSD a été impliqué dans un accident qui s'est produit à Brea, en Californie, le 3 novembre.

Cependant, Musk a déclaré que le commentaire fait par Ross Gerber, un fan incontesté de Tesla, sur Twitter selon lequel "il n'y a pas eu un seul accident ou une seule blessure depuis le lancement de la version bêta du système FSD" était correct. Afin d'insister sur le manque de sécurité de FSD, Dan offre maintenant une récompense de 10 000 dollars à quiconque trouvera un autre produit commercial vendu par une entreprise du Fortune 500 qui présente un dysfonctionnement critique toutes les huit minutes.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des allégations de Dan O'Dowd sur le FSD ?
Pensez-vous qu'il cherche simplement à attirer les regards sur son propre système d'aide à la conduite ?
Que pensez-vous du FSD ? Les utilisateurs devraient-ils être autorisés à tester les versions bêta du FSD sur les routes ? Le logiciel devrait-il être interdit ?

Voir aussi

Les accusations de crime impliquent pour une première une technologie automatisée largement utilisée, l'accusé utilisait Autopilot de Tesla dans l'incident qui a tué deux personnes

Tesla : un testeur note que son mode Full Self-Driving est loin d'être au point et dangereux, mais Elon Musk l'accuse d'avoir rédigé son billet avant même d'avoir vécu l'expérience

Tesla retire la MAJ de son logiciel Full Self-Driving, après un freinage soudain qui a effrayé les conducteurs

Autopilot de Tesla : les États-Unis enquêtent sur la fonctionnalité après que 11 Tesla se sont écrasées contre des véhicules d'urgence

Les États-Unis ouvrent une enquête sur 580 000 véhicules Tesla, en raison de la fonction 'Passenger Play', qui peut distraire le conducteur et augmenter le risque d'accident

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Doatyn
Membre habitué https://www.developpez.com
Le 22/08/2022 à 17:07
C'est de la folie de mettre de tels systèmes défaillants sur la voie publique, presque criminel.
Quand je vois la sécurité qui est exigé pour des transports autonomes en site propre, tel que des métros ou des téléphériques, ... Tesla n'aurais jamais la moindre autorisation.
10  2 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/08/2022 à 11:24
La vraie question intéressante à mon sens est la suivante:

Est-ce que les USA appliquent une loi "Musk"?

Alors qu'un simple café-restaurant américain peut se voir condamner à des millions de dollar d'amende pour un client qui se serait brûlé la langue en buvant un café servi trop chaud, Tesla qui est déjà responsable de plusieurs dizaines de morts avec son pseudo auto-pilote n'est jamais inquiété.

Et devinez quoi? Pas une seule condamnation, pas un seul juge pour prononcer une interdiction de poursuivre des essais sur route qui ne sont d'ailleurs plus des essais puisque réalisés dans la circulation normale par des clients lambda.
10  2 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 05/07/2022 à 19:21
Citation Envoyé par Stéphane le calme Voir le message
Qu'en pensez-vous ?
Que le titre de sa vidéo Youtube est "marrant": le gars lance un programme en beta (il met même la version dans la vidéo) sur la voie publique, et sa voiture veut traverser devant un tram qui est prioritaire et le gars écrit "train almost hits my tesla"

C'est lui et sa voiture qui font de la m..., pas le train! Et c'est sa voiture qui a failli percuter le train, et pas l'inverse
6  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 26/07/2022 à 7:27
Citation Envoyé par Bill Fassinou Voir le message
Quel est votre avis sur le sujet ?
Que pensez-vous de l'Autopilot de Tesla ?
Je ne comprends pas pourquoi un système qui ne serait pas capable de passer l'examen du permis de conduire peut être testé sur les routes par autre chose que des professionnels.
Selon vous, le logiciel est-il fiable ? Améliore-t-il réellement la sécurité sur la route ?
Un logiciel qui a tué deux motards en 1 mois?
Selon vous, qu'est-ce qui explique la grande confiance des conducteurs de Tesla dans l'Autopilot ?
Elon Musk est un gourou que certains suivent aveuglément.
Probablement l'attrait de la technologie et l'envie d'être le premier à avoir utiliser ce système fantasmé par la SF depuis des décennies.
Et peut être aussi la charge mentale dont le système libère : Certains soir je serais bien heureux que quelqu'un conduise ma voiture à ma place.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 06/07/2022 à 11:47
Citation Envoyé par Stéphane le calme Voir le message
Qu'en pensez-vous ?
Que le FSD conduit plus mal qu'une personne qui apprend à conduire.
Que les clients du FSD sont moins bien payés (ils ne le sont pas) qu'un instructeur d'auto école.
Qu'il n'y a même pas de signe visuel sur la voiture signalant aux autres usagers de la route que ce véhicule risque d'avoir des réactions imprévisibles.

Que cette voiture a fait au moins 3 erreurs qui auraient pu tuer des gens en 30 minutes.
Que le client semble penser que la meilleure décision est d'en faire une vidéo.
Que Tesla ne semble pas penser que c'est un problème.
Que les autorités ne semblent pas penser nécessaire d'interdire à la circulation un système qui fait rentrer un voiture dans un obstacle identifié.

Je fais partie d'une équipe qui teste les nouvelles version d'un logiciel, nous ne couvrons pas toujours tous les scénarios mais comment peut on mettre sur la route un logiciel qui fait qu'une voiture grille un feu rouge dans un carrefour avec de la circulation. Il devrait y avoir deux signaux bloquants et le scénario est très loin d'être une exception.
7  2 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 30/07/2022 à 8:18
Tesla produit des véhicules électriques. Ils semblent agréables et en général appréciés de leurs propriétaires. Personnellement j'ai toujours eu deux réticences, la première venant de l'origine du courant consommé, l'autre motivée par la présence d'une immense télé en manière de tableau de bord. Quand je conduis, je regarde la route et le trafic.

Pourquoi s'obstiner a promettre des fonctions qui ne marchent manifestement pas, et aux dépens de vies humaines ?
Il y a quelques années Audi démontrait un système de conduite quasi-autonome sur autoroute en zone de trafic dense. C'était impressionnant et convaincant. Pourtant à ma connaissance ce système n'est toujours pas proposé à la vente et on n'en parle plus beaucoup. Pourquoi ? Peut-être sont-ils plus lucides que les gens de Tesla, peut-être que n'ayant pas de gourou pour les abriter des conséquences de leurs erreurs les ingénieurs font leur boulot ?

Lorsque je constate le comportement de mon correcteur orthographique, je me dis qu'il y a encore du chemin pour qu'un automate de prédiction basé sur des statistiques atteignent un niveau approchant l'intelligence. Alors pour conduire une voiture en milieu ouvert, avec plein de choses vivantes autour, à moi la peur !
6  1 
Avatar de Eric80
Membre confirmé https://www.developpez.com
Le 18/08/2022 à 23:45
et pendant ce temps, Mercedes a obtenu le niveau 3 pour son Drive Pilot en Allemagne, dispo sur ses classes S et EQS:
https://journalauto.com/constructeur...e-de-niveau-3/
le niveau 3 n est toutefois validé QUE sur les autoroutes et QUE < 60 km/h, et exclu en cas de pluie, donc que ds les bouchons en fait.

il est évident que le AutoPilot/FSD de Tesla est un logiciel beta depuis des années: il est surtout scandaleux que Tesla fasse son marketing dessus alors qu il n a jamais obtenu + que le niveau 2.
5  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 28/11/2022 à 11:21
Citation Envoyé par Nancy Rey Voir le message
Que pensez-vous du FSD ? Les utilisateurs devraient-ils être autorisés à tester les versions bêta du FSD sur les routes ? Le logiciel devrait-il être interdit ?
Comment appréciez-vous les progrès technologiques en matière de véhicules autonomes ? Quelles sont les entreprises qui se démarquent selon vous ?
Je pense qu'il est regrettable que le plus gros obstacle à la mise en circulation d'un projet automobile peu abouti est un projet privé. Et qu'il faille passer par ce genre de lobbying pour éviter des morts.
Ils ont aussi une communication efficace, ils attaquent par la corde la plus sensible : la sécurité des enfants. Mais je suis même surpris que Tesla ne soit pas allé plus loin sur le sujet. Le premier enfant qui meure à cause du système pourrait provoquer la fin pure et simple du FSD, d'autant plus quand on voit le manque de délicatesse de communication de Musk.
On analyse trop les clés de réussite pas assez les clés d'échec.

Je pense que le FSD ne devrait être mis sur les routes qu'avec des pilotes professionnels ayant connaissances complètes de ce qu'ils font. Cette phase de test ne devrait pas être réalisé par des amateurs, d'autant plus des clients qui ont payé ce gadget, et le considèrent comme tel.
5  0 
Avatar de Darkzinus
Expert éminent sénior https://www.developpez.com
Le 05/01/2023 à 15:46
Ce que je trouve dingue dans le modèle économique de Tesla c'est que les gens achètent une voiture et un abonnement pour être bêta testeurs.
5  0