IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tesla déclare aux législateurs américains que le système Autopilot nécessite une "surveillance constante",
Et conforte les critiques selon lesquelles le nom induit les conducteurs en erreur

Le , par Bill Fassinou

446PARTAGES

4  0 
L'Autopilot et le Full Self-Driving (FSD) de Tesla continuent de susciter les craintes des autorités américaines, après les accidents mortels de ces dernières années et les comportements parfois dangereux des deux systèmes que rapportent les testeurs. Dans une lettre récente adressée à deux sénateurs démocrates, Tesla a défendu les avantages en matière de sécurité de l'Autopilot et du FSD, mais a reconnu que les deux systèmes nécessitent "une surveillance et une attention constantes de la part du conducteur". Les sénateurs avaient déclaré à l'entreprise le mois dernier que sa technologie mettait la vie des conducteurs en danger.

Tesla a étendu l'année dernière le déploiement du FSD à 60 000 utilisateurs, ce qui a suscité des critiques selon lesquelles la société mettrait en danger la sécurité en testant sa technologie avec des conducteurs non formés sur la voie publique. Ainsi, les sénateurs démocrates Richard Blumenthal et Ed Markey ont écrit à Elon Musk, PDG de la société, le 8 février pour lui faire part de leurs "préoccupations importantes" concernant ses systèmes Autopilot et FSD, qui ont suscité l'attention des régulateurs de la sécurité. Environ un mois après, Tesla a répondu aux sénateurs, avec des déclarations "très éloignées du point de vue de Musk".

Dans une lettre datée du 4 mars, Rohan Patel, directeur principal de Tesla chargé de la politique publique et du développement commercial, a déclaré que l'Autopilot et le FSD améliorent la capacité de ses clients à "conduire de manière plus sûre que le conducteur moyen aux États-Unis". Patel décrit l'Autopilot et le FSD comme des systèmes de niveau 2 "qui nécessitent une surveillance et une attention constantes de la part du conducteur". « Ces fonctions sont capables d'effectuer certaines, mais pas toutes, des tâches de conduite dynamique (DDT) qui peuvent être effectuées par des conducteurs humains », note-t-il dans la lettre.



Cette description semble en effet contredire l'image trop optimiste de Tesla qui présente le produit comme étant "entièrement autonome". Dans sa lettre, Patel donne un aperçu plus nuancé (et très probablement vérifié sur le plan juridique) de l'Autopilot et du FSD que ce que Musk fournit généralement sur Twitter et dans d'autres commentaires publics. Lors d'une récente conférence téléphonique sur les résultats, Musk a affirmé que le FSD sera plus sûr que la conduite humaine d'ici la fin de 2022. Patel n'applique pas la même échéance, mais il insiste sur le fait que les fonctions de conduite avancées de Tesla sont plus sûres que la conduite humaine.

Il note : « par exemple, au quatrième trimestre de 2021, Tesla a enregistré un accident pour 6, 96 millions de kilomètres parcourus au cours desquels nos conducteurs utilisaient la technologie Autopilot, alors que les données les plus récentes de la NHTSA montrent qu'un accident automobile se produit tous les 779 000 kilomètres ». Tesla publie souvent des rapports de sécurité qui reprennent ces mêmes statistiques afin de présenter l'Autopilot comme plus sûr que la conduite humaine. Mais les experts notent que ces statistiques sont en grande partie dénuées de sens, car l'Autopilot est principalement utilisé pour la conduite sur autoroute.

Selon eux, la comparaison avec les statistiques nationales qui incluent une grande variété d'environnements de conduite, y compris la conduite résidentielle et urbaine, donne à Tesla un avantage injuste. Patel poursuit en décrivant le système de surveillance du conducteur de Tesla, qui utilise des capteurs de couple dans le volant et (pour certains véhicules Model 3 et Model Y) des caméras dans l'habitacle pour surveiller l'attention du conducteur. Toutefois, il ne mentionne pas que les régulateurs et les experts en sécurité ont passé des années à supplier Tesla d'ajouter un meilleur système de surveillance du conducteur à ses voitures.

Musk a même admis que les accidents impliquant l'Autopilot sont dus à la complaisance, mais il a précédemment rejeté les appels de ses propres ingénieurs à ajouter une surveillance plus robuste du conducteur aux voitures de l'entreprise. Musk a déclaré à l'époque que cette technologie était "inefficace". Des entreprises telles que General Motors et Ford vendent actuellement des voitures équipées de systèmes de suivi des yeux par caméra, destinés à s'assurer que les conducteurs sont attentifs lorsqu'ils utilisent les fonctions de conduite mains libres. La lettre de Patel semble avoir révélé que Tesla se livre à un "marketing mensonger".

Et si le but de la lettre de Patel était d'apaiser les inquiétudes de Blumenthal et Markey quant à l'engagement de Tesla en matière de sécurité, cela ne semble pas avoir fonctionné. « Ce n'est qu'une nouvelle dérobade de la part de Tesla. Malgré son bilan troublant en matière de sécurité et ses accidents mortels, la société semble vouloir poursuivre ses activités comme si de rien n'était. Il est grand temps que Tesla reçoive le message : suivez la loi et donnez la priorité à la sécurité », ont-ils déclaré. Le constructeur automobile fait l'objet d'un certain nombre d'enquêtes, à la suite de plusieurs accidents mortels et reportages déroutants sur l'Autopilot.

Les sénateurs Blumenthal et Markey ont déclaré dans leur lettre que les plaintes et les enquêtes dressent un tableau troublant : « Tesla diffuse de façon répétée des logiciels sans tenir pleinement compte de leurs risques et de leurs implications, créant ainsi de graves dangers pour tous les usagers de la route ». Sous la pression des régulateurs, Tesla a accepté en janvier de rappeler environ 54 000 véhicules américains pour réviser un logiciel empêchant les véhicules de ne pas respecter les panneaux-stops. Il semble qu'il y a un écart entre les affirmations de Musk et les progrès réels sur l'Autopilot et le FSD.

Source : Lettre de Tesla aux sénateurs démocrates Richard Blumenthal et Ed Markey

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des déclarations du directeur principal de Tesla ?
Pensez-vous que Tesla ou Elon Musk se livre à un marketing mensonger ?
Pensez-vous que les noms Autopilot et FSD induisent les conducteurs en erreur ? Doivent-ils être changés ?

Voir aussi

Les accusations de crime impliquent pour une première une technologie automatisée largement utilisée, l'accusé utilisait Autopilot de Tesla dans l'incident qui a tué deux personnes

L'agence fédérale américaine NTSB accuse Tesla de commercialiser l'Autopilot, un système de conduite autonome, inachevé et défaillant, et appelle à une réglementation plus stricte du secteur

L'Autopilote des Tesla plus sûr que la conduite manuelle, d'après une enquête commandée par une société d'assurances

Trente accidents de Tesla liés au système de conduite assistée font l'objet d'une enquête aux États-Unis, les accidents ont fait 10 morts depuis 2016

Le Gouvernement américain demande à Tesla pourquoi les gens peuvent jouer à des jeux vidéo dans des voitures en mouvement, la fonctionnalité fait l'objet d'un examen

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Doatyn
Membre habitué https://www.developpez.com
Le 22/08/2022 à 17:07
C'est de la folie de mettre de tels systèmes défaillants sur la voie publique, presque criminel.
Quand je vois la sécurité qui est exigé pour des transports autonomes en site propre, tel que des métros ou des téléphériques, ... Tesla n'aurais jamais la moindre autorisation.
10  2 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/08/2022 à 11:24
La vraie question intéressante à mon sens est la suivante:

Est-ce que les USA appliquent une loi "Musk"?

Alors qu'un simple café-restaurant américain peut se voir condamner à des millions de dollar d'amende pour un client qui se serait brûlé la langue en buvant un café servi trop chaud, Tesla qui est déjà responsable de plusieurs dizaines de morts avec son pseudo auto-pilote n'est jamais inquiété.

Et devinez quoi? Pas une seule condamnation, pas un seul juge pour prononcer une interdiction de poursuivre des essais sur route qui ne sont d'ailleurs plus des essais puisque réalisés dans la circulation normale par des clients lambda.
10  2 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 05/07/2022 à 19:21
Citation Envoyé par Stéphane le calme Voir le message
Qu'en pensez-vous ?
Que le titre de sa vidéo Youtube est "marrant": le gars lance un programme en beta (il met même la version dans la vidéo) sur la voie publique, et sa voiture veut traverser devant un tram qui est prioritaire et le gars écrit "train almost hits my tesla"

C'est lui et sa voiture qui font de la m..., pas le train! Et c'est sa voiture qui a failli percuter le train, et pas l'inverse
6  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 26/07/2022 à 7:27
Citation Envoyé par Bill Fassinou Voir le message
Quel est votre avis sur le sujet ?
Que pensez-vous de l'Autopilot de Tesla ?
Je ne comprends pas pourquoi un système qui ne serait pas capable de passer l'examen du permis de conduire peut être testé sur les routes par autre chose que des professionnels.
Selon vous, le logiciel est-il fiable ? Améliore-t-il réellement la sécurité sur la route ?
Un logiciel qui a tué deux motards en 1 mois?
Selon vous, qu'est-ce qui explique la grande confiance des conducteurs de Tesla dans l'Autopilot ?
Elon Musk est un gourou que certains suivent aveuglément.
Probablement l'attrait de la technologie et l'envie d'être le premier à avoir utiliser ce système fantasmé par la SF depuis des décennies.
Et peut être aussi la charge mentale dont le système libère : Certains soir je serais bien heureux que quelqu'un conduise ma voiture à ma place.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 06/07/2022 à 11:47
Citation Envoyé par Stéphane le calme Voir le message
Qu'en pensez-vous ?
Que le FSD conduit plus mal qu'une personne qui apprend à conduire.
Que les clients du FSD sont moins bien payés (ils ne le sont pas) qu'un instructeur d'auto école.
Qu'il n'y a même pas de signe visuel sur la voiture signalant aux autres usagers de la route que ce véhicule risque d'avoir des réactions imprévisibles.

Que cette voiture a fait au moins 3 erreurs qui auraient pu tuer des gens en 30 minutes.
Que le client semble penser que la meilleure décision est d'en faire une vidéo.
Que Tesla ne semble pas penser que c'est un problème.
Que les autorités ne semblent pas penser nécessaire d'interdire à la circulation un système qui fait rentrer un voiture dans un obstacle identifié.

Je fais partie d'une équipe qui teste les nouvelles version d'un logiciel, nous ne couvrons pas toujours tous les scénarios mais comment peut on mettre sur la route un logiciel qui fait qu'une voiture grille un feu rouge dans un carrefour avec de la circulation. Il devrait y avoir deux signaux bloquants et le scénario est très loin d'être une exception.
7  2 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 30/07/2022 à 8:18
Tesla produit des véhicules électriques. Ils semblent agréables et en général appréciés de leurs propriétaires. Personnellement j'ai toujours eu deux réticences, la première venant de l'origine du courant consommé, l'autre motivée par la présence d'une immense télé en manière de tableau de bord. Quand je conduis, je regarde la route et le trafic.

Pourquoi s'obstiner a promettre des fonctions qui ne marchent manifestement pas, et aux dépens de vies humaines ?
Il y a quelques années Audi démontrait un système de conduite quasi-autonome sur autoroute en zone de trafic dense. C'était impressionnant et convaincant. Pourtant à ma connaissance ce système n'est toujours pas proposé à la vente et on n'en parle plus beaucoup. Pourquoi ? Peut-être sont-ils plus lucides que les gens de Tesla, peut-être que n'ayant pas de gourou pour les abriter des conséquences de leurs erreurs les ingénieurs font leur boulot ?

Lorsque je constate le comportement de mon correcteur orthographique, je me dis qu'il y a encore du chemin pour qu'un automate de prédiction basé sur des statistiques atteignent un niveau approchant l'intelligence. Alors pour conduire une voiture en milieu ouvert, avec plein de choses vivantes autour, à moi la peur !
6  1 
Avatar de Eric80
Membre confirmé https://www.developpez.com
Le 18/08/2022 à 23:45
et pendant ce temps, Mercedes a obtenu le niveau 3 pour son Drive Pilot en Allemagne, dispo sur ses classes S et EQS:
https://journalauto.com/constructeur...e-de-niveau-3/
le niveau 3 n est toutefois validé QUE sur les autoroutes et QUE < 60 km/h, et exclu en cas de pluie, donc que ds les bouchons en fait.

il est évident que le AutoPilot/FSD de Tesla est un logiciel beta depuis des années: il est surtout scandaleux que Tesla fasse son marketing dessus alors qu il n a jamais obtenu + que le niveau 2.
5  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 28/11/2022 à 11:21
Citation Envoyé par Nancy Rey Voir le message
Que pensez-vous du FSD ? Les utilisateurs devraient-ils être autorisés à tester les versions bêta du FSD sur les routes ? Le logiciel devrait-il être interdit ?
Comment appréciez-vous les progrès technologiques en matière de véhicules autonomes ? Quelles sont les entreprises qui se démarquent selon vous ?
Je pense qu'il est regrettable que le plus gros obstacle à la mise en circulation d'un projet automobile peu abouti est un projet privé. Et qu'il faille passer par ce genre de lobbying pour éviter des morts.
Ils ont aussi une communication efficace, ils attaquent par la corde la plus sensible : la sécurité des enfants. Mais je suis même surpris que Tesla ne soit pas allé plus loin sur le sujet. Le premier enfant qui meure à cause du système pourrait provoquer la fin pure et simple du FSD, d'autant plus quand on voit le manque de délicatesse de communication de Musk.
On analyse trop les clés de réussite pas assez les clés d'échec.

Je pense que le FSD ne devrait être mis sur les routes qu'avec des pilotes professionnels ayant connaissances complètes de ce qu'ils font. Cette phase de test ne devrait pas être réalisé par des amateurs, d'autant plus des clients qui ont payé ce gadget, et le considèrent comme tel.
5  0