IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'Autopilot de Tesla fait pratiquement foncer un Model 3 sur un tramway venant en sens inverse
L'option « Full Self-Driving » était activée

Le , par Stéphane le calme

500PARTAGES

8  0 
Le système Autopilot de Tesla, avec son option « Full Self-Driving », n'est rien de ce que son nom l'indique : ce n'est ni un véritable pilote automatique, ni un véhicule capable de se conduire entièrement. Au lieu de cela, il s'agit d'un système avancé d'aide à la conduite qui peut aider à alléger la charge de travail du conducteur lorsqu'il se trouve sur une autoroute ou dans des rues urbaines clairement marquées. Cependant, c'est loin d'être un système parfait, comme le montre cette nouvelle vidéo de la chaîne YouTube Beta Tech OG, lorsque son Model 3 a failli foncer sur un train venant en sens inverse.

Dans cette vidéo, le conducteur teste le système Autopilot, avec l'option Full Self-Driving, dans les rues de Denver, Colorado. Au cours de la vidéo de près de 18 minutes, le Model 3 touche presque plusieurs obstacles, ce qui amène le conducteur à donner une mauvaise note au logiciel de Tesla. Deux des erreurs commises par le logiciel étaient plus flagrantes que les autres et l'une d'elles a failli voir la Tesla se faire heurter par l'un des trains légers sur rail de Denver, alors qu'elle tentait de tourner à gauche sur la trajectoire du train.


Avant de presque percuter le train, la Model 3 a été arrêtée à un feu rouge, avec son clignotant gauche allumé. Cet évènement a indiqué à la voiture que le conducteur voulait tourner à gauche et, après que le feu est passé au vert, la voiture était censée attendre que le passage soit dégagé pour tourner. Cependant, au lieu d'attendre, soit la Tesla a calculé qu'elle avait suffisamment d'espace et de temps pour faire le virage avant que le train n'arrive, soit elle n'a pas reconnu correctement le train. Toutefois, ce qui est étrange c'est que l'affichage d'Autopilot sur l'écran d'infodivertissement, qui montre l'environnement reconnu de la voiture, a matérialisé le train. Vous pouvez réellement le voir sur l'écran avant que la voiture ne commence à tourner. La raison pour laquelle la Tesla a décidé de tourner à gauche devant le train, bien qu'elle l'ait remarqué, n'est pas claire ; le conducteur a été obligé de prendre le relais et de modifier la trajectoire de la voiture. Si la voiture pensait pouvoir faire le tour à temps, sa programmation est trop agressive. Même l'opérateur du train a klaxonné, estimant aussi qu'un virage était la mauvaise décision dans cette situation.


Plus tard dans la vidéo, vers la fin, le Model 3 a tenté de faire un virage à gauche de routine, mais a pris le virage trop large et a presque percuté deux piétons debout au coin. À la fin, le conducteur a indiqué qu'il était « super déçu de Tesla », ce qui est compréhensible au vu des attentes qu'il avait et des résultats sur le terrain. Toutefois, pour la défense de Tesla, il y a un bouton pour signaler tout problème qui survient lors de l'utilisation d'Autopilot. Le hic c'est qu'il suffit d'appuyer sur un seul bouton et il n'est pas exigé au conducteur d'ajouter des détails sur la situation, il n'est donc pas clair à quel point la fonction de rapport à Tesla est vraiment utile.

Il y a une conversation beaucoup plus large à avoir sur l'éthique du test bêta de Tesla son option d'Autopilot Full Self-Driving sur les routes publiques, en utilisant des clients - et non des professionnels formés - pour le tester. Bien que Tesla ne soit absolument pas la seule entreprise à proposer son véhicule en ville, en ce qui concerne les systèmes avancés d'aide à la conduite, d'autres marques sont beaucoup plus prudentes dans leur approche et ne publient pas de logiciel tant qu'il n'a pas été entièrement testé par des professionnels dans des environnements contrôlés. Heureusement, personne n'a été blessé cette fois-ci et il a pu éloigner sa voiture du train et des piétons venant en sens inverse, mais cela ne signifie pas que tout le monde pourra réagir à temps à l'avenir.

En dehors de ces deux éléments, il faut signaler également quelques autres. En fait, se diriger vers le train qui arrive n'est qu'un des nombreux cas graves de cette vidéo :
  • la Tesla a pratiquement foncé sur une barrière (qui indiquait que la route est bloquée)*(07:06) ;
  • la Tesla a choisi la mauvaise voie et s'embrouille visiblement (confère l'affichage sur le tableau de bord, 11:06) ;
  • la Tesla a essayé de griller un feu rouge, pendant que les voitures circulaient (12:12) ;
  • la Tesla s'est arrêtée au milieu d'une intersection sans raison (13:09) ;
  • la Tesla a choisi la mauvaise voie pour un virage à gauche (13:25) ;
  • la Tesla a activé et désactivé constamment le clignotant gauche sans raison (dans un endroit où il n'était même pas permis de tourner à gauche, 15:02) ;
  • la Tesla n'a pas réussi à tourner correctement à gauche et a presque heurté des piétons (17:13).

Tout cela au cours d'une expérience de conduite qui a duré peut-être 30 minutes (à certains moments, la vidéo est accélérée). De plus, ce ne sont que les cas les plus graves, la Tesla roule très maladroitement. Elle change de voie trop souvent (également aux intersections) sans raison et elle avance bizarrement aux feux rouges, se rapprochant très près du trafic croisé, sans aucune raison.

Dans l'ensemble, le conducteur estime qu'il s'agit là d'une performance incroyablement médiocre.

Un internaute s'est tout de même demandé : « Je ne comprends tout simplement pas pourquoi vous donneriez le contrôle à un système qui est clairement encore en version bêta. Le coût de l'échec est bien trop élevé pour prendre le risque ».

« Ne soyez pas un mannequin de test de collision pour Tesla »

La voiture électrique, généralement munie d'un système d'aide à la conduite, se popularise davantage et un grand nombre de nouveaux acteurs sont arrivés sur le marché pendant la dernière décennie, certains étant des filiales de grands groupes existant déjà sur le marché des véhicules à combustion. Cela a engendré une concurrence accrue et les entreprises semblent user désormais de tous les moyens pour mettre en avant leurs produits. C'est peut-être ce qui s'est passé début janvier avec Dan O'Dowd, qui a publié une « critique sévère » sur le logiciel Full Self-Driving (FSD) de Tesla sous la forme d'une publicité dans le New York Times.

Dan est le cofondateur et PDG de Green Hills Software. Green Hills est une société privée qui construit des systèmes d'exploitation et des outils de programmation pour les systèmes embarqués, mais avec l'avènement de la voiture électrique, elle s'est également lancée dans le développement de systèmes d'aide à la conduite (ADAS - Advanced Driver Assistance Systems). Intitulée Don't be a Tesla crash test dummy (« ne soyez pas un mannequin de test de collision pour Tesla »), la publicité de Dan affirme que dans sa version actuelle, le FSD tuerait des millions de personnes chaque jour s'il alimentait un plus grand nombre de voitures.

Dan a fondé sa critique sur une étude des vidéos mises en ligne qui montrent des propriétaires de Tesla utilisant la fonction Full Self-Driving complète, qui, selon Tesla, est en phase bêta et ne permet qu'une autonomie limitée sous la supervision du conducteur. Selon son étude, les vidéos montrent que FSD commet une « erreur de conduite critique » toutes les huit minutes et une « erreur involontaire » toutes les 36 minutes qui « causerait probablement une collision ». Sur la bannière publicitaire, Dan estime que le FSD est le « pire logiciel commercial » qu'il ait jamais vu et pense qu'il est toujours dans une phase alpha.


De ce fait, il pense qu'il devrait être testé par des employés de Tesla en interne plutôt que par des propriétaires de Tesla. « Le logiciel qui pilote les voitures à conduite autonome dont des millions de vies vont dépendre doit être le meilleur logiciel », a-t-il déclaré. Bien qu'une version restreinte du FSD soit accessible à toute personne possédant une Tesla, les propriétaires peuvent également demander à devenir des bêta-testeurs d'une version plus avancée s'ils ont un score de sécurité de conduite suffisamment élevé, tel que déterminé par le logiciel de leur voiture. Dan fait en effet campagne pour interdire le FSD de Tesla.

Il a déclaré avoir placé l'annonce sous les auspices du Dawn Project, un groupe de pression qui milite dans ce sens. Il s'agit d'une organisation qui se décrit elle-même comme « dédiée à rendre les ordinateurs vraiment sûrs pour l'humanité ». Selon certains critiques, l'annonce publiée par Dan apparaît en partie comme un coup de publicité destiné à attirer l'attention sur sa propre entreprise. Green Hills Software a déclaré au début dudit mois que sa technologie était utilisée pour développer un logiciel d'aide à la conduite pour la BMW iX entièrement électrique, un SUV sportif présenté par BMW au CES 2022.

En réaction, Elon Musk, PDG de Tesla, s'est attaqué au logiciel de Green Hills Software. Musk a tweeté : « le logiciel de Green Hills est un tas d'ordures », et a approuvé un commentaire selon lequel « les critiques du FSD ont toujours un énorme intérêt financier dans une solution concurrente ». Mais de son côté, Dan a déclaré que les meilleures sources d'information sur un produit sont ses concurrents. « Ils les mettent en pièces, ils découvrent ce qu'ils font bien, ils découvrent ce qu'ils font mal. Ils savent mieux que quiconque, et ils vous le diront. Le vendeur ne vous dira jamais ces choses-là », a-t-il déclaré.

De plus, il a également allégué que la version originale de l'Autopilot de Tesla, qui était un précurseur du FSD, a été construite en utilisant Green Hills Software. « Je me suis retiré du projet et j'ai dit : "je ne sais pas si c'est bien, si c'est ce que nous devrions faire ici, ça ne va pas marcher », a déclaré Dan. Musk n'a pas eu d'autres réactions en dehors de celle-ci et Tesla, qui ne dispose pas d'un bureau des affaires médiatiques opérationnel, n'a pas apporté de commentaires sur les allégations de Dan selon lesquelles il y aurait un lien entre la technologie d'aide à la conduite de Green Hills Software et le FSD.

Quoi qu'il en soit, sur la toile, certains commentaires ont noté qu'il est « tout à fait ridicule » d'utiliser des vidéos YouTube de tiers - au lieu de tester directement la technologie - pour extraire des « preuves » que le FSD tuerait des millions de personnes chaque jour si elle était installée sur toutes les voitures du monde. Un autre signal d'alarme serait le fait que la publicité n'utilise pas une seule fois le nom complet du logiciel Full Self-Driving Beta. Elle ne mentionne pas la partie « Beta », ce qui peut amener certains lecteurs à croire que le FSD Beta est un produit fini alors qu'il est encore en phase de test de développement.

Source : vidéo dans le texte

Et vous ?

Qu'en pensez-vous ?
Que pensez-vous des propos de l'internaute qui pense que comme FSD est encore en phase bêta, les conducteurs ne devraient pas lui donner le contrôle ?
Que pensez-vous de l'approche de Tesla qui donne à ses utilisateurs la possibilité de tester une version bêta contrairement à la concurrence qui fait tester ses véhicules uniquement par des professionnels lorsque ses logiciels sont encore en phase bêta ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
9  0 
Avatar de Doatyn
Membre habitué https://www.developpez.com
Le 22/08/2022 à 17:07
C'est de la folie de mettre de tels systèmes défaillants sur la voie publique, presque criminel.
Quand je vois la sécurité qui est exigé pour des transports autonomes en site propre, tel que des métros ou des téléphériques, ... Tesla n'aurais jamais la moindre autorisation.
10  2 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/08/2022 à 11:24
La vraie question intéressante à mon sens est la suivante:

Est-ce que les USA appliquent une loi "Musk"?

Alors qu'un simple café-restaurant américain peut se voir condamner à des millions de dollar d'amende pour un client qui se serait brûlé la langue en buvant un café servi trop chaud, Tesla qui est déjà responsable de plusieurs dizaines de morts avec son pseudo auto-pilote n'est jamais inquiété.

Et devinez quoi? Pas une seule condamnation, pas un seul juge pour prononcer une interdiction de poursuivre des essais sur route qui ne sont d'ailleurs plus des essais puisque réalisés dans la circulation normale par des clients lambda.
10  2 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 17/10/2023 à 23:40
Citation Envoyé par Ryu2000 Voir le message
Ben justement...

Pilote automatique

Autopilot ça ne veut pas dire que ça se conduit tout seul.
Tu mets la définition de "autopilot", mais pourquoi pas la définition de "Full Self-Driving"?
Non, parce qu'il parle de ça aussi. Littéralement "Conduite autonome complète/totale"...

Tesla aurait appelé ça "Self-driving", encore, on aurait pu chipoter, et faire comme tous les constructeurs et parler de niveau 1, 2, 3, 4, 5. Mais là, c'est du foutage de gueule.
Je ré-itère: cet ingénieur est soit un menteur, soit quelqu'un qui devrait ouvrir un dictionnaire.
8  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 18/10/2023 à 22:34
Citation Envoyé par Ryu2000 Voir le message
Ça ne parle pas que de Full Self-Driving ça parle aussi d'Autopilot !
Et autopilot ça ne veut pas dire que ça se conduit tout seul.
C'est un dialogue de sourds

Citation Envoyé par Ryu2000 Voir le message
Pour Full Self-Driving je ne sais pas.
Bon après Tesla aurait du choisir des expressions plus précise pour que les gens comprennent que la voiture ne se conduit pas toute seule.
Quand une entreprise te vend son accès bêta sous le nom de Full Self-Driving, je pense que c'est fait exprès.
7  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 05/07/2022 à 19:21
Citation Envoyé par Stéphane le calme Voir le message
Qu'en pensez-vous ?
Que le titre de sa vidéo Youtube est "marrant": le gars lance un programme en beta (il met même la version dans la vidéo) sur la voie publique, et sa voiture veut traverser devant un tram qui est prioritaire et le gars écrit "train almost hits my tesla"

C'est lui et sa voiture qui font de la m..., pas le train! Et c'est sa voiture qui a failli percuter le train, et pas l'inverse
6  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 26/07/2022 à 7:27
Citation Envoyé par Bill Fassinou Voir le message
Quel est votre avis sur le sujet ?
Que pensez-vous de l'Autopilot de Tesla ?
Je ne comprends pas pourquoi un système qui ne serait pas capable de passer l'examen du permis de conduire peut être testé sur les routes par autre chose que des professionnels.
Selon vous, le logiciel est-il fiable ? Améliore-t-il réellement la sécurité sur la route ?
Un logiciel qui a tué deux motards en 1 mois?
Selon vous, qu'est-ce qui explique la grande confiance des conducteurs de Tesla dans l'Autopilot ?
Elon Musk est un gourou que certains suivent aveuglément.
Probablement l'attrait de la technologie et l'envie d'être le premier à avoir utiliser ce système fantasmé par la SF depuis des décennies.
Et peut être aussi la charge mentale dont le système libère : Certains soir je serais bien heureux que quelqu'un conduise ma voiture à ma place.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
6  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1