IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'Autopilot de Tesla fait pratiquement foncer un Model 3 sur un tramway venant en sens inverse
L'option « Full Self-Driving » était activée

Le , par Stéphane le calme

335PARTAGES

8  1 
Le système Autopilot de Tesla, avec son option « Full Self-Driving », n'est rien de ce que son nom l'indique : ce n'est ni un véritable pilote automatique, ni un véhicule capable de se conduire entièrement. Au lieu de cela, il s'agit d'un système avancé d'aide à la conduite qui peut aider à alléger la charge de travail du conducteur lorsqu'il se trouve sur une autoroute ou dans des rues urbaines clairement marquées. Cependant, c'est loin d'être un système parfait, comme le montre cette nouvelle vidéo de la chaîne YouTube Beta Tech OG, lorsque son Model 3 a failli foncer sur un train venant en sens inverse.

Dans cette vidéo, le conducteur teste le système Autopilot, avec l'option Full Self-Driving, dans les rues de Denver, Colorado. Au cours de la vidéo de près de 18 minutes, le Model 3 touche presque plusieurs obstacles, ce qui amène le conducteur à donner une mauvaise note au logiciel de Tesla. Deux des erreurs commises par le logiciel étaient plus flagrantes que les autres et l'une d'elles a failli voir la Tesla se faire heurter par l'un des trains légers sur rail de Denver, alors qu'elle tentait de tourner à gauche sur la trajectoire du train.


Avant de presque percuter le train, la Model 3 a été arrêtée à un feu rouge, avec son clignotant gauche allumé. Cet évènement a indiqué à la voiture que le conducteur voulait tourner à gauche et, après que le feu est passé au vert, la voiture était censée attendre que le passage soit dégagé pour tourner. Cependant, au lieu d'attendre, soit la Tesla a calculé qu'elle avait suffisamment d'espace et de temps pour faire le virage avant que le train n'arrive, soit elle n'a pas reconnu correctement le train. Toutefois, ce qui est étrange c'est que l'affichage d'Autopilot sur l'écran d'infodivertissement, qui montre l'environnement reconnu de la voiture, a matérialisé le train. Vous pouvez réellement le voir sur l'écran avant que la voiture ne commence à tourner. La raison pour laquelle la Tesla a décidé de tourner à gauche devant le train, bien qu'elle l'ait remarqué, n'est pas claire ; le conducteur a été obligé de prendre le relais et de modifier la trajectoire de la voiture. Si la voiture pensait pouvoir faire le tour à temps, sa programmation est trop agressive. Même l'opérateur du train a klaxonné, estimant aussi qu'un virage était la mauvaise décision dans cette situation.


Plus tard dans la vidéo, vers la fin, le Model 3 a tenté de faire un virage à gauche de routine, mais a pris le virage trop large et a presque percuté deux piétons debout au coin. À la fin, le conducteur a indiqué qu'il était « super déçu de Tesla », ce qui est compréhensible au vu des attentes qu'il avait et des résultats sur le terrain. Toutefois, pour la défense de Tesla, il y a un bouton pour signaler tout problème qui survient lors de l'utilisation d'Autopilot. Le hic c'est qu'il suffit d'appuyer sur un seul bouton et il n'est pas exigé au conducteur d'ajouter des détails sur la situation, il n'est donc pas clair à quel point la fonction de rapport à Tesla est vraiment utile.

Il y a une conversation beaucoup plus large à avoir sur l'éthique du test bêta de Tesla son option d'Autopilot Full Self-Driving sur les routes publiques, en utilisant des clients - et non des professionnels formés - pour le tester. Bien que Tesla ne soit absolument pas la seule entreprise à proposer son véhicule en ville, en ce qui concerne les systèmes avancés d'aide à la conduite, d'autres marques sont beaucoup plus prudentes dans leur approche et ne publient pas de logiciel tant qu'il n'a pas été entièrement testé par des professionnels dans des environnements contrôlés. Heureusement, personne n'a été blessé cette fois-ci et il a pu éloigner sa voiture du train et des piétons venant en sens inverse, mais cela ne signifie pas que tout le monde pourra réagir à temps à l'avenir.

En dehors de ces deux éléments, il faut signaler également quelques autres. En fait, se diriger vers le train qui arrive n'est qu'un des nombreux cas graves de cette vidéo :
  • la Tesla a pratiquement foncé sur une barrière (qui indiquait que la route est bloquée)*(07:06) ;
  • la Tesla a choisi la mauvaise voie et s'embrouille visiblement (confère l'affichage sur le tableau de bord, 11:06) ;
  • la Tesla a essayé de griller un feu rouge, pendant que les voitures circulaient (12:12) ;
  • la Tesla s'est arrêtée au milieu d'une intersection sans raison (13:09) ;
  • la Tesla a choisi la mauvaise voie pour un virage à gauche (13:25) ;
  • la Tesla a activé et désactivé constamment le clignotant gauche sans raison (dans un endroit où il n'était même pas permis de tourner à gauche, 15:02) ;
  • la Tesla n'a pas réussi à tourner correctement à gauche et a presque heurté des piétons (17:13).

Tout cela au cours d'une expérience de conduite qui a duré peut-être 30 minutes (à certains moments, la vidéo est accélérée). De plus, ce ne sont que les cas les plus graves, la Tesla roule très maladroitement. Elle change de voie trop souvent (également aux intersections) sans raison et elle avance bizarrement aux feux rouges, se rapprochant très près du trafic croisé, sans aucune raison.

Dans l'ensemble, le conducteur estime qu'il s'agit là d'une performance incroyablement médiocre.

Un internaute s'est tout de même demandé : « Je ne comprends tout simplement pas pourquoi vous donneriez le contrôle à un système qui est clairement encore en version bêta. Le coût de l'échec est bien trop élevé pour prendre le risque ».

« Ne soyez pas un mannequin de test de collision pour Tesla »

La voiture électrique, généralement munie d'un système d'aide à la conduite, se popularise davantage et un grand nombre de nouveaux acteurs sont arrivés sur le marché pendant la dernière décennie, certains étant des filiales de grands groupes existant déjà sur le marché des véhicules à combustion. Cela a engendré une concurrence accrue et les entreprises semblent user désormais de tous les moyens pour mettre en avant leurs produits. C'est peut-être ce qui s'est passé début janvier avec Dan O'Dowd, qui a publié une « critique sévère » sur le logiciel Full Self-Driving (FSD) de Tesla sous la forme d'une publicité dans le New York Times.

Dan est le cofondateur et PDG de Green Hills Software. Green Hills est une société privée qui construit des systèmes d'exploitation et des outils de programmation pour les systèmes embarqués, mais avec l'avènement de la voiture électrique, elle s'est également lancée dans le développement de systèmes d'aide à la conduite (ADAS - Advanced Driver Assistance Systems). Intitulée Don't be a Tesla crash test dummy (« ne soyez pas un mannequin de test de collision pour Tesla »), la publicité de Dan affirme que dans sa version actuelle, le FSD tuerait des millions de personnes chaque jour s'il alimentait un plus grand nombre de voitures.

Dan a fondé sa critique sur une étude des vidéos mises en ligne qui montrent des propriétaires de Tesla utilisant la fonction Full Self-Driving complète, qui, selon Tesla, est en phase bêta et ne permet qu'une autonomie limitée sous la supervision du conducteur. Selon son étude, les vidéos montrent que FSD commet une « erreur de conduite critique » toutes les huit minutes et une « erreur involontaire » toutes les 36 minutes qui « causerait probablement une collision ». Sur la bannière publicitaire, Dan estime que le FSD est le « pire logiciel commercial » qu'il ait jamais vu et pense qu'il est toujours dans une phase alpha.


De ce fait, il pense qu'il devrait être testé par des employés de Tesla en interne plutôt que par des propriétaires de Tesla. « Le logiciel qui pilote les voitures à conduite autonome dont des millions de vies vont dépendre doit être le meilleur logiciel », a-t-il déclaré. Bien qu'une version restreinte du FSD soit accessible à toute personne possédant une Tesla, les propriétaires peuvent également demander à devenir des bêta-testeurs d'une version plus avancée s'ils ont un score de sécurité de conduite suffisamment élevé, tel que déterminé par le logiciel de leur voiture. Dan fait en effet campagne pour interdire le FSD de Tesla.

Il a déclaré avoir placé l'annonce sous les auspices du Dawn Project, un groupe de pression qui milite dans ce sens. Il s'agit d'une organisation qui se décrit elle-même comme « dédiée à rendre les ordinateurs vraiment sûrs pour l'humanité ». Selon certains critiques, l'annonce publiée par Dan apparaît en partie comme un coup de publicité destiné à attirer l'attention sur sa propre entreprise. Green Hills Software a déclaré au début dudit mois que sa technologie était utilisée pour développer un logiciel d'aide à la conduite pour la BMW iX entièrement électrique, un SUV sportif présenté par BMW au CES 2022.

En réaction, Elon Musk, PDG de Tesla, s'est attaqué au logiciel de Green Hills Software. Musk a tweeté : « le logiciel de Green Hills est un tas d'ordures », et a approuvé un commentaire selon lequel « les critiques du FSD ont toujours un énorme intérêt financier dans une solution concurrente ». Mais de son côté, Dan a déclaré que les meilleures sources d'information sur un produit sont ses concurrents. « Ils les mettent en pièces, ils découvrent ce qu'ils font bien, ils découvrent ce qu'ils font mal. Ils savent mieux que quiconque, et ils vous le diront. Le vendeur ne vous dira jamais ces choses-là », a-t-il déclaré.

De plus, il a également allégué que la version originale de l'Autopilot de Tesla, qui était un précurseur du FSD, a été construite en utilisant Green Hills Software. « Je me suis retiré du projet et j'ai dit : "je ne sais pas si c'est bien, si c'est ce que nous devrions faire ici, ça ne va pas marcher », a déclaré Dan. Musk n'a pas eu d'autres réactions en dehors de celle-ci et Tesla, qui ne dispose pas d'un bureau des affaires médiatiques opérationnel, n'a pas apporté de commentaires sur les allégations de Dan selon lesquelles il y aurait un lien entre la technologie d'aide à la conduite de Green Hills Software et le FSD.

Quoi qu'il en soit, sur la toile, certains commentaires ont noté qu'il est « tout à fait ridicule » d'utiliser des vidéos YouTube de tiers - au lieu de tester directement la technologie - pour extraire des « preuves » que le FSD tuerait des millions de personnes chaque jour si elle était installée sur toutes les voitures du monde. Un autre signal d'alarme serait le fait que la publicité n'utilise pas une seule fois le nom complet du logiciel Full Self-Driving Beta. Elle ne mentionne pas la partie « Beta », ce qui peut amener certains lecteurs à croire que le FSD Beta est un produit fini alors qu'il est encore en phase de test de développement.

Source : vidéo dans le texte

Et vous ?

Qu'en pensez-vous ?
Que pensez-vous des propos de l'internaute qui pense que comme FSD est encore en phase bêta, les conducteurs ne devraient pas lui donner le contrôle ?
Que pensez-vous de l'approche de Tesla qui donne à ses utilisateurs la possibilité de tester une version bêta contrairement à la concurrence qui fait tester ses véhicules uniquement par des professionnels lorsque ses logiciels sont encore en phase bêta ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de kain_tn
Expert confirmé https://www.developpez.com
Le 05/07/2022 à 19:21
Citation Envoyé par Stéphane le calme Voir le message
Qu'en pensez-vous ?
Que le titre de sa vidéo Youtube est "marrant": le gars lance un programme en beta (il met même la version dans la vidéo) sur la voie publique, et sa voiture veut traverser devant un tram qui est prioritaire et le gars écrit "train almost hits my tesla"

C'est lui et sa voiture qui font de la m..., pas le train! Et c'est sa voiture qui a failli percuter le train, et pas l'inverse
6  0 
Avatar de totozor
Membre éprouvé https://www.developpez.com
Le 26/07/2022 à 7:27
Citation Envoyé par Bill Fassinou Voir le message
Quel est votre avis sur le sujet ?
Que pensez-vous de l'Autopilot de Tesla ?
Je ne comprends pas pourquoi un système qui ne serait pas capable de passer l'examen du permis de conduire peut être testé sur les routes par autre chose que des professionnels.
Selon vous, le logiciel est-il fiable ? Améliore-t-il réellement la sécurité sur la route ?
Un logiciel qui a tué deux motards en 1 mois?
Selon vous, qu'est-ce qui explique la grande confiance des conducteurs de Tesla dans l'Autopilot ?
Elon Musk est un gourou que certains suivent aveuglément.
Probablement l'attrait de la technologie et l'envie d'être le premier à avoir utiliser ce système fantasmé par la SF depuis des décennies.
Et peut être aussi la charge mentale dont le système libère : Certains soir je serais bien heureux que quelqu'un conduise ma voiture à ma place.
6  1 
Avatar de totozor
Membre éprouvé https://www.developpez.com
Le 06/07/2022 à 11:47
Citation Envoyé par Stéphane le calme Voir le message
Qu'en pensez-vous ?
Que le FSD conduit plus mal qu'une personne qui apprend à conduire.
Que les clients du FSD sont moins bien payés (ils ne le sont pas) qu'un instructeur d'auto école.
Qu'il n'y a même pas de signe visuel sur la voiture signalant aux autres usagers de la route que ce véhicule risque d'avoir des réactions imprévisibles.

Que cette voiture a fait au moins 3 erreurs qui auraient pu tuer des gens en 30 minutes.
Que le client semble penser que la meilleure décision est d'en faire une vidéo.
Que Tesla ne semble pas penser que c'est un problème.
Que les autorités ne semblent pas penser nécessaire d'interdire à la circulation un système qui fait rentrer un voiture dans un obstacle identifié.

Je fais partie d'une équipe qui teste les nouvelles version d'un logiciel, nous ne couvrons pas toujours tous les scénarios mais comment peut on mettre sur la route un logiciel qui fait qu'une voiture grille un feu rouge dans un carrefour avec de la circulation. Il devrait y avoir deux signaux bloquants et le scénario est très loin d'être une exception.
7  3 
Avatar de totozor
Membre éprouvé https://www.developpez.com
Le 14/07/2022 à 7:32
Citation Envoyé par Bruno Voir le message
Êtes-vous surpris par ces licenciements chez Tesla ?
Ils étaient déjà annoncé, comment être surpris?
En plus Tesla a l'air habitué des vagues de licenciements, c'est un "bon" moyen de maitriser sa charge salariale:
On vire des gens --> plus besoin de les payer
Les restants ont l'impression d'être constamment sur la sellette --> ça calme les envies d'augmentation et permet de rajouter de la pression par les managers
On "purge" la société des contestataires réels, supposés, on prévient au passage l'arrivée d'un syndicat
Citation Envoyé par Bruno Voir le message
À votre avis, comment l'autopilot de Tesla va-t-il s'améliorer si Musk vire l'équipe ?
C'est une excellente question qu'il faudrait poser à M. Musk.
Lors du dernier accident évité entre une Tesla et un tram la voiture avait bien repérée l'obstacle mais à décidé de forcer le passage ou de rentrer dedans, donc ce n'est pas un problème d'étiquetage.

Sinon ma réponse est cynique : il suffit d'embaucher une autre équipe moins chère
4  0 
Avatar de smarties
Membre chevronné https://www.developpez.com
Le 14/07/2022 à 11:03
Pour moi la conduite autonome est une utopie :
- quand un avion se pose en urgence sur une autoroute, la voiture devrait ralentir et s'arrêter mais elle doit être capable de détecter tous les éléments aériens.
- comment détecter des personnes qui jettent des pierres sur les voitures depuis un pont ?
- ...

Donc même autonome il y aura toujours des accidents.

Si des choses pouvaient être autonome ça pourrait être les trains/trams/metros (et c'est en partie le cas)
4  0 
Avatar de TJ1985
Membre expérimenté https://www.developpez.com
Le 30/07/2022 à 8:18
Tesla produit des véhicules électriques. Ils semblent agréables et en général appréciés de leurs propriétaires. Personnellement j'ai toujours eu deux réticences, la première venant de l'origine du courant consommé, l'autre motivée par la présence d'une immense télé en manière de tableau de bord. Quand je conduis, je regarde la route et le trafic.

Pourquoi s'obstiner a promettre des fonctions qui ne marchent manifestement pas, et aux dépens de vies humaines ?
Il y a quelques années Audi démontrait un système de conduite quasi-autonome sur autoroute en zone de trafic dense. C'était impressionnant et convaincant. Pourtant à ma connaissance ce système n'est toujours pas proposé à la vente et on n'en parle plus beaucoup. Pourquoi ? Peut-être sont-ils plus lucides que les gens de Tesla, peut-être que n'ayant pas de gourou pour les abriter des conséquences de leurs erreurs les ingénieurs font leur boulot ?

Lorsque je constate le comportement de mon correcteur orthographique, je me dis qu'il y a encore du chemin pour qu'un automate de prédiction basé sur des statistiques atteignent un niveau approchant l'intelligence. Alors pour conduire une voiture en milieu ouvert, avec plein de choses vivantes autour, à moi la peur !
5  1 
Avatar de Eric80
Membre confirmé https://www.developpez.com
Le 18/08/2022 à 23:45
et pendant ce temps, Mercedes a obtenu le niveau 3 pour son Drive Pilot en Allemagne, dispo sur ses classes S et EQS:
https://journalauto.com/constructeur...e-de-niveau-3/
le niveau 3 n est toutefois validé QUE sur les autoroutes et QUE < 60 km/h, et exclu en cas de pluie, donc que ds les bouchons en fait.

il est évident que le AutoPilot/FSD de Tesla est un logiciel beta depuis des années: il est surtout scandaleux que Tesla fasse son marketing dessus alors qu il n a jamais obtenu + que le niveau 2.
4  0 
Avatar de kain_tn
Expert confirmé https://www.developpez.com
Le 26/07/2022 à 14:55
Citation Envoyé par totozor Voir le message
Je ne comprends pas pourquoi un système qui ne serait pas capable de passer l'examen du permis de conduire peut être testé sur les routes par autre chose que des professionnels.
Parce que le monde n'est pas le même selon que l'on est un plouc comme la plupart d'entre nous, ou l'homme le plus riche du monde...
5  2 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 26/07/2022 à 21:30
Citation Envoyé par Bill Fassinou Voir le message
Quel est votre avis sur le sujet ?
Qu'il est effrayant de voir un prototype testé par des amateurs sans la moindre formation ni méthodologie ni avertissement des autres usagers. Alors même que le véhicule a 50km/h a 74 fois l'énergie d'une balle de AK47 sortie de canon, 505 fois l’énergie du AK47 à 130km/h et 1200x à 200km/h, vitesse que le truc atteint en quelques secondes.

Qu'il est encore plus effrayant que nos sociétés démocratiques ne sachent pas interdire cette pratique plus rapidement.

Citation Envoyé par Bill Fassinou Voir le message
Que pensez-vous de l'Autopilot de Tesla ?
Que demander à un conducteur d’être attentif pour pallier aux erreurs du système alors que le système enlève 100% de l'attention au conducteur est fondamentalement une aberration. Ça renvoi au test par des amateurs dans leur vie de touts les jours. Un pro aurait un cadre, une concentration adaptée et même des équipements pour veiller au maintien de son attention ; un amateur qui rentre du boulot creuvé va dormir à moitié ou totalement s'il a rien à faire.

Citation Envoyé par Bill Fassinou Voir le message
Selon vous, le logiciel est-il fiable ? Améliore-t-il réellement la sécurité sur la route ?
L'article lui même témoigne qu'il n'est pas fiable. Les vidéos sont même effrayantes quand on voit des objets clignoter, un coup sur la route, un coup sur le trottoir. Le truc voit flou et cherche absolument à dire qu'il voit quelquechose sans rien changer à l'allure du véhicule.
Un être humain attaché à ne pas avoir d'accident va à minima ralentir quand il hésite sur ce qu'il voit, le temps d'être sur.

Citation Envoyé par Bill Fassinou Voir le message
Selon vous, qu'est-ce qui explique la grande confiance des conducteurs de Tesla dans l'Autopilot ?
Je crois qu'il y a qu'une poignée de gens qui sont concernés et qu'on doit parler d'attachement, pas de confiance. On parle surtout de ces gens parce que Musk est très habile en com.
4  1 
Avatar de totozor
Membre éprouvé https://www.developpez.com
Le 08/08/2022 à 15:58
Citation Envoyé par AoCannaille Voir le message
Mais je suis d'accord, pour beaucoup de chose, un bouton est vachement plus simple à utiliser et plus fiable dans le temps et moins cher à réparer.
Je suis un fervent défenseur des boutons, je ne comprend pas l'amour pour le tactile...
A moins que le tactile soit un autre moyen de faire de l'obsolescence programmée, mais je commence à être complotiste.
3  0