IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les législateurs californiens adoptent un projet de loi qui pourrait forcer Tesla à cesser d'appeler son logiciel "Full Self-Driving" dans l'État
Il ne manque plus que la signature du gouverneur

Le , par Stéphane le calme

218PARTAGES

7  1 
Tesla pourrait être contraint de cesser d'utiliser le terme "Full Self Driving" (FSD) en Californie. Mardi, les législateurs californiens ont adopté un projet de loi au Sénat qui pourrait rendre illégale l'utilisation par le constructeur de voitures électriques du nom actuel du logiciel. Le projet de loi, qui a été parrainé par la présidente du comité sénatorial des transports, Lena Gonzalez (Démocrate - Long Beach), nécessite désormais la signature du gouverneur Gavin Newsom.

Depuis 2016, Tesla commercialise une option coûteuse appelée Full Self-Driving. Une personne raisonnable pourrait déduire du nom que le progiciel permet à une voiture de se conduire entièrement.

Ce n'est pas le cas. Aucune voiture disponible à l'achat pour les consommateurs n'est capable de se conduire entièrement de manière autonome. Le California Department of Motor Vehicles (DMV) a des règles dans ses livres qui interdisent de faire la publicité de voitures comme étant «*autonomes*» lorsqu'elles ne le sont pas. Mais il n'a jamais appliqué ces règles.

Ainsi, suite à l'inaction de la DMV, la législature de l'État a décidé d'intervenir et d'établir un projet de loi concernant la publicité mensongère. Le projet de loi, parrainé par la présidente du comité sénatorial des transports, Lena Gonzalez (D-Long Beach), a été adopté par le Sénat mardi et se dirige maintenant vers le gouverneur Gavin Newsom pour sa signature.

Citation Envoyé par Projet de loi
La loi en vigueur exige que tous les véhicules automobiles neufs vendus dans l'État aient certains avis au consommateur soit apposés sur le véhicule, soit fournis à l'acheteur.

La loi existante réglemente les véhicules autonomes équipés d'une technologie capable de conduire un véhicule sans le contrôle physique actif ou la surveillance par un opérateur humain. En vertu de la législation en vigueur, cela n'inclut pas les systèmes d'évitement de collision, y compris, mais sans s'y limiter, l'assistance électronique aux angles morts, les systèmes de freinage d'urgence automatisés, l'assistance au stationnement, le régulateur de vitesse adaptatif, l'assistance au maintien de voie, l'avertissement de sortie de voie, les embouteillages et l'assistance à la file d'attente, ou d'autres systèmes similaires qui améliorent la sécurité ou fournissent une assistance à la conduite, mais ne sont pas capables, collectivement ou individuellement, de conduire le véhicule sans le contrôle actif ou la surveillance d'un opérateur humain.

Ce projet de loi obligerait un concessionnaire ou un fabricant qui vend un véhicule de tourisme neuf équipé d'une fonction d'automatisation de la conduite partielle, telle que définie, ou qui fournit une mise à jour logicielle ou une mise à niveau du véhicule qui ajoute une fonction d'automatisation de la conduite partielle, à fournir à l'acheteur ou au propriétaire avec un avis au consommateur qui décrit les fonctions et les limites de ces fonctionnalités.

Toute violation de ces exigences serait passible d'une infraction.

Le projet de loi interdirait en outre à un fabricant ou à un revendeur de nommer ou de commercialiser de manière trompeuse ces fonctionnalités, comme spécifié. En créant une nouvelle infraction, ce projet de loi imposerait un programme local mandaté par l'État.
Le projet de loi ne cible pas directement Tesla, mais Gonzalez a déclaré qu'elle pense que d'autres constructeurs automobiles, dont Ford, GM et BMW, ont été plus clairs sur les limites de leur technologie.

La fausse publicité sur la technologie de conduite autonome est un grave problème de sécurité, a déclaré Gonzalez. Au moins plusieurs décès ont été liés à l'Autopilot de Tesla, la version la moins chère et la plus basique de Full Self-Driving. « Allons-nous simplement attendre qu'une autre personne soit tuée en Californie ? », a-t-elle demandé.

Le nombre d'accidents, de blessures et de décès pouvant impliquer Full-Self Driving est inconnu. Le système national de signalement des accidents, vieux de plusieurs décennies, fracturé entre les villes et les États, est mal équipé pour déterminer des faits qui sont de plus en plus centraux à l'ère des véhicules routiers contrôlés par logiciel.

Une voiture moderne telle qu'une Tesla est dotée de minuscules ordinateurs qui collectent et traitent de grandes quantités de données qui peuvent être communiquées au fabricant via des connexions cellulaires et Wi-Fi. Tesla a résisté à la divulgation de ces données aux régulateurs ou aux chercheurs en sécurité.


La pression monte

Les régulateurs commencent à exercer plus de pression. La National Highway Traffic Safety Administration mène plusieurs enquêtes sur le bilan de sécurité de l’entreprise, notamment une série de voitures Tesla qui ont percuté des véhicules d’urgence garés sur le bord de la route.

Récemment, la NHTSA a ordonné à Tesla de lui fournir des données détaillées sur les accidents pouvant impliquer ses systèmes de conduite automatisés.

La Californie « interdit déjà la commercialisation trompeuse » des véhicules automatisés, a déclaré Bryant Walker Smith, professeur de droit à l'Université de Caroline du Sud. « L'adoption de ce projet de loi, cependant, fournirait certainement des preuves assez solides de l'intention législative d'une manière qui pourrait être significative pour une agence administrative d'État ou un juge d'État », a-t-il déclaré.

Le projet de loi ne répondrait à aucun problème de sécurité concernant le logiciel, mais ciblerait simplement sa commercialisation. Cela établirait également de nouvelles normes pour les constructeurs automobiles lorsqu'il s'agit d'expliquer les capacités de la technologie d'assistance à la conduite. Cependant, on ne sait pas comment la règle sera appliquée, car la California Department of Motor Vehicles serait chargée de prendre des mesures contre Tesla).

Les législateurs ont adopté le projet de loi quelques semaines seulement après que la DMV de l'État a accusé Tesla d'avoir utilisé un marketing trompeur pour faire la publicité de ses logiciels Autopilot et FSD.

Le logiciel Autopilot agit comme une fonction d'assistance au conducteur qui permet à la Tesla de se diriger, d'accélérer et de freiner automatiquement dans sa voie, tandis que le FSD est un module complémentaire en option qui peut changer de voie et s'arrêter aux feux de circulation, ainsi que s'arrêter aux panneaux de signalisation. Tesla a dit aux conducteurs que les deux fonctionnalités nécessitent un conducteur titulaire d'un permis de conduire le véhicule afin d'être prêt à prendre le relais à tout moment.

Certains régulateurs craignent que le marketing autour du logiciel ne donne aux conducteurs un faux sentiment de sécurité. L'année dernière, un homme a été arrêté pour être monté sur la banquette arrière alors qu'il utilisait un FSD sur l'autoroute. En juin, la National Highway Traffic Safety Administration a déclaré qu'elle avait élargi ses enquêtes sur Autopilot, y compris le rôle potentiel du logiciel dans plusieurs accidents de voiture mortels.


Des accidents liés au système Autopilot de Tesla

Les régulateurs américains de la sécurité automobile ont annoncé des enquêtes en cours sur des accidents de Tesla impliquant 10 décès où des systèmes avancés d'aide à la conduite seraient impliqués. La NHTSA avait déjà confirmé certaines enquêtes spécifiques sur les accidents de Tesla, mais n'avait pas encore communiqué une comptabilité complète de tous les accidents de Tesla ayant fait l'objet d'une enquête où le système Autopilot de Tesla était soupçonné d'être impliqué. En juin 2021, l’agence a publié une liste offrant des détails sur les accidents en cours d'examen par ses programmes d'enquêtes spéciales sur les accidents.

Sur les 30 accidents de Tesla, la NHTSA a exclu le système Autopilot de Tesla dans trois cas et a publié des rapports sur deux de ces accidents. Une première demande d’une liste complète avait été faite à la NHTSA plus d'un an avant dans le cadre d'une demande de documents publics. Mais la liste ne comprenait que l'État et le mois où les accidents se sont produits. Auparavant, la NHTSA avait déclaré avoir ouvert 28 enquêtes spéciales sur les accidents de Tesla, dont 24 sont en cours. La feuille de calcul montre un accident de février 2019 où l'utilisation d'Autopilot était indéterminée.

Le système Autopilot utilise des caméras, des capteurs à ultrasons et un radar pour voir et détecter l'environnement de la voiture. L'ensemble des capteurs et des caméras permet au conducteur d'avoir une connaissance de son environnement qu'un conducteur seul n'aurait pas autrement. Un puissant ordinateur de bord traite ces données en quelques millisecondes afin de rendre la conduite "plus sûre et moins stressante", selon la société. L'Autopilot est un système d'aide à la conduite pratique qui ne doit être utilisé qu'avec un conducteur pleinement attentif. Il ne transforme pas une Tesla en voiture autonome.

La feuille de calcul montre que la NHTSA a ouvert huit enquêtes sur des accidents de Tesla depuis mars 2021. La question a fait l'objet d'une nouvelle attention après l'accident incendiaire du 17 avril de l'année dernière au Texas qui a tué deux hommes et dans lequel la police avait dit croire que personne n'était au volant. Mais Tesla avait réfuté les affirmations de la police, affirmant qu'un volant déformé suggérait que quelqu'un était probablement à la place du conducteur. Les batteries de la voiture, achetée d'occasion sur eBay en janvier 2021, ont brûlé pendant quatre heures après.

Dans le cas de l'accident du Texas, le National Transportation Safety Board (NSTB) a déclaré en mai l'année dernière que les tests suggéraient que le système de pilotage automatique du véhicule n'était "pas disponible" sur la route où l'accident s'est produit. L’agence a critiqué les mesures de protection du système Autopilot de Tesla, qui permet aux conducteurs de ne pas toucher le volant pendant de longues périodes.

Un autre accident mortel survenu le 5 mai 2021 près de Los Angeles fait également l'objet d'une enquête de l'agence. Dans ce cas, le conducteur avait publié sur les médias sociaux des images de lui-même en train de "conduire" sa Tesla sans avoir les mains sur le volant. La Tesla modèle 3 a percuté un camion Mack renversé, et le conducteur a été déclaré mort sur place. L'accident s'est produit sur l'autoroute 210 près de Fontana, en Californie, à environ 80 km à l'est de Los Angeles.

En juin 2021, la présidente de la commission du commerce du Sénat, Maria Cantwell, a cité les accidents de Tesla pour justifier le vote de la commission contre l'adoption d'une réglementation visant à accélérer l'adoption des voitures à conduite autonome. « Il semble que toutes les deux semaines, nous entendons parler d'un nouveau véhicule qui s'est écrasé alors qu'il était sur Autopilot », a déclaré Cantwell.

Source : projet de loi

Et vous ?

Que pensez-vous de ce projet de loi ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
9  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 17/10/2023 à 23:40
Citation Envoyé par Ryu2000 Voir le message
Ben justement...

Pilote automatique

Autopilot ça ne veut pas dire que ça se conduit tout seul.
Tu mets la définition de "autopilot", mais pourquoi pas la définition de "Full Self-Driving"?
Non, parce qu'il parle de ça aussi. Littéralement "Conduite autonome complète/totale"...

Tesla aurait appelé ça "Self-driving", encore, on aurait pu chipoter, et faire comme tous les constructeurs et parler de niveau 1, 2, 3, 4, 5. Mais là, c'est du foutage de gueule.
Je ré-itère: cet ingénieur est soit un menteur, soit quelqu'un qui devrait ouvrir un dictionnaire.
8  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 18/10/2023 à 22:34
Citation Envoyé par Ryu2000 Voir le message
Ça ne parle pas que de Full Self-Driving ça parle aussi d'Autopilot !
Et autopilot ça ne veut pas dire que ça se conduit tout seul.
C'est un dialogue de sourds

Citation Envoyé par Ryu2000 Voir le message
Pour Full Self-Driving je ne sais pas.
Bon après Tesla aurait du choisir des expressions plus précise pour que les gens comprennent que la voiture ne se conduit pas toute seule.
Quand une entreprise te vend son accès bêta sous le nom de Full Self-Driving, je pense que c'est fait exprès.
7  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
6  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/07/2023 à 23:21
Je ne suis pas un fan de Musk, mais là franchement, il y a de quoi se marrer.

La totalité, je dis bien la totalité des fabricants de voiture falsifient la consommation réelle de leur véhicules!

Les acteurs du secteur automobile se sont mis d'accord pour établir un test de roulement pour établir la consommation moyenne au 100 km qui ne correspond en rien à l'usage normal d'une voiture... Le test a été établi pour s'assurer que la consommation au 100 km soit très inférieure à la réalité.

Tout le monde en a d'ailleurs fait la constatation: Vous achetez un voiture écolo qui indique une consommation de 4,5 litres au 100km? Quand vous vérifiez votre consommation, il s'avère que vous frôlez les 10 litres/100km. Facile ensuite pour votre concessionnaire de vous dire "Mais monsieur, madame, vous avez un usage de votre véhicule qui ne correspond pas à un usage moyen, vous faites trop de trajets en ville ou roulez trop vite sur autoroute".

Idem pour l'autonomie des véhicules électriques, l'autonomie annoncée ne correspond jamais à la réalité "Mais monsieur, madame, vous faites trop de dénivelés... Vous roulez de manière trop sportive, blablabla..."

Et je ne parle pas de la période hivernale, un jour de grand froid et l'autonomie officiellement annoncée est divisée par 2 et puis et puis... Très vite, vous êtes confronté à l'usure de vos batteries dont la capacité de charge baisse de mois en mois...
9  3 
Avatar de totozor
Membre expert https://www.developpez.com
Le 28/11/2022 à 11:21
Citation Envoyé par Nancy Rey Voir le message
Que pensez-vous du FSD ? Les utilisateurs devraient-ils être autorisés à tester les versions bêta du FSD sur les routes ? Le logiciel devrait-il être interdit ?
Comment appréciez-vous les progrès technologiques en matière de véhicules autonomes ? Quelles sont les entreprises qui se démarquent selon vous ?
Je pense qu'il est regrettable que le plus gros obstacle à la mise en circulation d'un projet automobile peu abouti est un projet privé. Et qu'il faille passer par ce genre de lobbying pour éviter des morts.
Ils ont aussi une communication efficace, ils attaquent par la corde la plus sensible : la sécurité des enfants. Mais je suis même surpris que Tesla ne soit pas allé plus loin sur le sujet. Le premier enfant qui meure à cause du système pourrait provoquer la fin pure et simple du FSD, d'autant plus quand on voit le manque de délicatesse de communication de Musk.
On analyse trop les clés de réussite pas assez les clés d'échec.

Je pense que le FSD ne devrait être mis sur les routes qu'avec des pilotes professionnels ayant connaissances complètes de ce qu'ils font. Cette phase de test ne devrait pas être réalisé par des amateurs, d'autant plus des clients qui ont payé ce gadget, et le considèrent comme tel.
5  0 
Avatar de Darkzinus
Expert éminent sénior https://www.developpez.com
Le 05/01/2023 à 15:46
Ce que je trouve dingue dans le modèle économique de Tesla c'est que les gens achètent une voiture et un abonnement pour être bêta testeurs.
5  0 
Avatar de marc.collin
Membre émérite https://www.developpez.com
Le 11/01/2023 à 14:00
Il est temps que le gouvernement interdise que le pays devienne un jeu d'expérimentation.
C'est dangereux, il y a eu des mort et cela continue, rien n'est fait
5  0