IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tesla déclare aux législateurs américains que le système Autopilot nécessite une "surveillance constante",
Et conforte les critiques selon lesquelles le nom induit les conducteurs en erreur

Le , par Bill Fassinou

474PARTAGES

5  0 
L'Autopilot et le Full Self-Driving (FSD) de Tesla continuent de susciter les craintes des autorités américaines, après les accidents mortels de ces dernières années et les comportements parfois dangereux des deux systèmes que rapportent les testeurs. Dans une lettre récente adressée à deux sénateurs démocrates, Tesla a défendu les avantages en matière de sécurité de l'Autopilot et du FSD, mais a reconnu que les deux systèmes nécessitent "une surveillance et une attention constantes de la part du conducteur". Les sénateurs avaient déclaré à l'entreprise le mois dernier que sa technologie mettait la vie des conducteurs en danger.

Tesla a étendu l'année dernière le déploiement du FSD à 60 000 utilisateurs, ce qui a suscité des critiques selon lesquelles la société mettrait en danger la sécurité en testant sa technologie avec des conducteurs non formés sur la voie publique. Ainsi, les sénateurs démocrates Richard Blumenthal et Ed Markey ont écrit à Elon Musk, PDG de la société, le 8 février pour lui faire part de leurs "préoccupations importantes" concernant ses systèmes Autopilot et FSD, qui ont suscité l'attention des régulateurs de la sécurité. Environ un mois après, Tesla a répondu aux sénateurs, avec des déclarations "très éloignées du point de vue de Musk".

Dans une lettre datée du 4 mars, Rohan Patel, directeur principal de Tesla chargé de la politique publique et du développement commercial, a déclaré que l'Autopilot et le FSD améliorent la capacité de ses clients à "conduire de manière plus sûre que le conducteur moyen aux États-Unis". Patel décrit l'Autopilot et le FSD comme des systèmes de niveau 2 "qui nécessitent une surveillance et une attention constantes de la part du conducteur". « Ces fonctions sont capables d'effectuer certaines, mais pas toutes, des tâches de conduite dynamique (DDT) qui peuvent être effectuées par des conducteurs humains », note-t-il dans la lettre.



Cette description semble en effet contredire l'image trop optimiste de Tesla qui présente le produit comme étant "entièrement autonome". Dans sa lettre, Patel donne un aperçu plus nuancé (et très probablement vérifié sur le plan juridique) de l'Autopilot et du FSD que ce que Musk fournit généralement sur Twitter et dans d'autres commentaires publics. Lors d'une récente conférence téléphonique sur les résultats, Musk a affirmé que le FSD sera plus sûr que la conduite humaine d'ici la fin de 2022. Patel n'applique pas la même échéance, mais il insiste sur le fait que les fonctions de conduite avancées de Tesla sont plus sûres que la conduite humaine.

Il note : « par exemple, au quatrième trimestre de 2021, Tesla a enregistré un accident pour 6, 96 millions de kilomètres parcourus au cours desquels nos conducteurs utilisaient la technologie Autopilot, alors que les données les plus récentes de la NHTSA montrent qu'un accident automobile se produit tous les 779 000 kilomètres ». Tesla publie souvent des rapports de sécurité qui reprennent ces mêmes statistiques afin de présenter l'Autopilot comme plus sûr que la conduite humaine. Mais les experts notent que ces statistiques sont en grande partie dénuées de sens, car l'Autopilot est principalement utilisé pour la conduite sur autoroute.

Selon eux, la comparaison avec les statistiques nationales qui incluent une grande variété d'environnements de conduite, y compris la conduite résidentielle et urbaine, donne à Tesla un avantage injuste. Patel poursuit en décrivant le système de surveillance du conducteur de Tesla, qui utilise des capteurs de couple dans le volant et (pour certains véhicules Model 3 et Model Y) des caméras dans l'habitacle pour surveiller l'attention du conducteur. Toutefois, il ne mentionne pas que les régulateurs et les experts en sécurité ont passé des années à supplier Tesla d'ajouter un meilleur système de surveillance du conducteur à ses voitures.

Musk a même admis que les accidents impliquant l'Autopilot sont dus à la complaisance, mais il a précédemment rejeté les appels de ses propres ingénieurs à ajouter une surveillance plus robuste du conducteur aux voitures de l'entreprise. Musk a déclaré à l'époque que cette technologie était "inefficace". Des entreprises telles que General Motors et Ford vendent actuellement des voitures équipées de systèmes de suivi des yeux par caméra, destinés à s'assurer que les conducteurs sont attentifs lorsqu'ils utilisent les fonctions de conduite mains libres. La lettre de Patel semble avoir révélé que Tesla se livre à un "marketing mensonger".

Et si le but de la lettre de Patel était d'apaiser les inquiétudes de Blumenthal et Markey quant à l'engagement de Tesla en matière de sécurité, cela ne semble pas avoir fonctionné. « Ce n'est qu'une nouvelle dérobade de la part de Tesla. Malgré son bilan troublant en matière de sécurité et ses accidents mortels, la société semble vouloir poursuivre ses activités comme si de rien n'était. Il est grand temps que Tesla reçoive le message : suivez la loi et donnez la priorité à la sécurité », ont-ils déclaré. Le constructeur automobile fait l'objet d'un certain nombre d'enquêtes, à la suite de plusieurs accidents mortels et reportages déroutants sur l'Autopilot.

Les sénateurs Blumenthal et Markey ont déclaré dans leur lettre que les plaintes et les enquêtes dressent un tableau troublant : « Tesla diffuse de façon répétée des logiciels sans tenir pleinement compte de leurs risques et de leurs implications, créant ainsi de graves dangers pour tous les usagers de la route ». Sous la pression des régulateurs, Tesla a accepté en janvier de rappeler environ 54 000 véhicules américains pour réviser un logiciel empêchant les véhicules de ne pas respecter les panneaux-stops. Il semble qu'il y a un écart entre les affirmations de Musk et les progrès réels sur l'Autopilot et le FSD.

Source : Lettre de Tesla aux sénateurs démocrates Richard Blumenthal et Ed Markey

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des déclarations du directeur principal de Tesla ?
Pensez-vous que Tesla ou Elon Musk se livre à un marketing mensonger ?
Pensez-vous que les noms Autopilot et FSD induisent les conducteurs en erreur ? Doivent-ils être changés ?

Voir aussi

Les accusations de crime impliquent pour une première une technologie automatisée largement utilisée, l'accusé utilisait Autopilot de Tesla dans l'incident qui a tué deux personnes

L'agence fédérale américaine NTSB accuse Tesla de commercialiser l'Autopilot, un système de conduite autonome, inachevé et défaillant, et appelle à une réglementation plus stricte du secteur

L'Autopilote des Tesla plus sûr que la conduite manuelle, d'après une enquête commandée par une société d'assurances

Trente accidents de Tesla liés au système de conduite assistée font l'objet d'une enquête aux États-Unis, les accidents ont fait 10 morts depuis 2016

Le Gouvernement américain demande à Tesla pourquoi les gens peuvent jouer à des jeux vidéo dans des voitures en mouvement, la fonctionnalité fait l'objet d'un examen

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
9  0 
Avatar de Doatyn
Membre habitué https://www.developpez.com
Le 22/08/2022 à 17:07
C'est de la folie de mettre de tels systèmes défaillants sur la voie publique, presque criminel.
Quand je vois la sécurité qui est exigé pour des transports autonomes en site propre, tel que des métros ou des téléphériques, ... Tesla n'aurais jamais la moindre autorisation.
10  2 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/08/2022 à 11:24
La vraie question intéressante à mon sens est la suivante:

Est-ce que les USA appliquent une loi "Musk"?

Alors qu'un simple café-restaurant américain peut se voir condamner à des millions de dollar d'amende pour un client qui se serait brûlé la langue en buvant un café servi trop chaud, Tesla qui est déjà responsable de plusieurs dizaines de morts avec son pseudo auto-pilote n'est jamais inquiété.

Et devinez quoi? Pas une seule condamnation, pas un seul juge pour prononcer une interdiction de poursuivre des essais sur route qui ne sont d'ailleurs plus des essais puisque réalisés dans la circulation normale par des clients lambda.
10  2 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 17/10/2023 à 23:40
Citation Envoyé par Ryu2000 Voir le message
Ben justement...

Pilote automatique

Autopilot ça ne veut pas dire que ça se conduit tout seul.
Tu mets la définition de "autopilot", mais pourquoi pas la définition de "Full Self-Driving"?
Non, parce qu'il parle de ça aussi. Littéralement "Conduite autonome complète/totale"...

Tesla aurait appelé ça "Self-driving", encore, on aurait pu chipoter, et faire comme tous les constructeurs et parler de niveau 1, 2, 3, 4, 5. Mais là, c'est du foutage de gueule.
Je ré-itère: cet ingénieur est soit un menteur, soit quelqu'un qui devrait ouvrir un dictionnaire.
8  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 18/10/2023 à 22:34
Citation Envoyé par Ryu2000 Voir le message
Ça ne parle pas que de Full Self-Driving ça parle aussi d'Autopilot !
Et autopilot ça ne veut pas dire que ça se conduit tout seul.
C'est un dialogue de sourds

Citation Envoyé par Ryu2000 Voir le message
Pour Full Self-Driving je ne sais pas.
Bon après Tesla aurait du choisir des expressions plus précise pour que les gens comprennent que la voiture ne se conduit pas toute seule.
Quand une entreprise te vend son accès bêta sous le nom de Full Self-Driving, je pense que c'est fait exprès.
7  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 05/07/2022 à 19:21
Citation Envoyé par Stéphane le calme Voir le message
Qu'en pensez-vous ?
Que le titre de sa vidéo Youtube est "marrant": le gars lance un programme en beta (il met même la version dans la vidéo) sur la voie publique, et sa voiture veut traverser devant un tram qui est prioritaire et le gars écrit "train almost hits my tesla"

C'est lui et sa voiture qui font de la m..., pas le train! Et c'est sa voiture qui a failli percuter le train, et pas l'inverse
6  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 26/07/2022 à 7:27
Citation Envoyé par Bill Fassinou Voir le message
Quel est votre avis sur le sujet ?
Que pensez-vous de l'Autopilot de Tesla ?
Je ne comprends pas pourquoi un système qui ne serait pas capable de passer l'examen du permis de conduire peut être testé sur les routes par autre chose que des professionnels.
Selon vous, le logiciel est-il fiable ? Améliore-t-il réellement la sécurité sur la route ?
Un logiciel qui a tué deux motards en 1 mois?
Selon vous, qu'est-ce qui explique la grande confiance des conducteurs de Tesla dans l'Autopilot ?
Elon Musk est un gourou que certains suivent aveuglément.
Probablement l'attrait de la technologie et l'envie d'être le premier à avoir utiliser ce système fantasmé par la SF depuis des décennies.
Et peut être aussi la charge mentale dont le système libère : Certains soir je serais bien heureux que quelqu'un conduise ma voiture à ma place.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
6  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1