IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La Californie adopte une loi qui interdit à Tesla d'appeler le logiciel de ses véhicules Full Self-Driving,
Car c'est de la publicité mensongère qui laisse croire qu'ils sont totalement autonomes

Le , par Patrick Ruiz

163PARTAGES

17  0 
Le PDG de Cruise est d’avis que « même dans des décennies, l’on n’obtiendra pas de véhicules véritablement autonomes à 100 %. » Pourtant, le constructeur américain Tesla associe déjà de la terminologie comme Full Self-Driving ou Autopilot à la publicité de ses véhicules. La Californie vient de procéder à l’adoption d’une loi qui interdit à Tesla d’appeler le logiciel de ses véhicules Full Self-Driving. Motif : c’est de la publicité mensongère qui laisse croire que les véhicules Tesla sont totalement autonomes.

« Un fabricant ou un concessionnaire ne doit pas nommer une fonction d'automatisation partielle de conduite ou décrire une fonction d'automatisation partielle de conduite dans des documents publicitaires en utilisant un langage qui implique ou qui pourrait autrement amener une personne raisonnable à croire que la fonction permet au véhicule de fonctionner comme un véhicule autonome ou qu'elle possède une fonctionnalité qui n'est pas réellement incluse dans la fonction. Une violation de cette subdivision est considérée comme une publicité mensongère », lit-on.

Une nouvelle mise à jour pour les véhicules Tesla est disponible depuis la mi-parcours du mois qui tire à son terme. La nouveauté : Tesla lance Steam dans ses voitures avec des milliers de jeux. La manœuvre était venue raviver le débat autour de la terminologie mise en avant par le constructeur (Full Self-Driving, Autopilot , etc.) En effet, elle renforce l’idée du « Ne vous inquiétez pas, vous pouvez même jouer au volant, Tesla s'occupe de tout, vous n'avez rien à gérer et vous n'avez à penser à rien d'autre qu'au divertissement avant tout. » Cette question de sécurité en lien avec la distraction au volant intervient dans un contexte où le constructeur lui-même reconnaît que ses véhicules en sont encore au stade d’aide à la conduite. Pourtant, les utilisateurs les considèrent comme des voitures dotées de complète autonomie.


L’automatisation disponible dans les véhicules disponibles à l’achat aujourd’hui est considérée comme étant de niveau 1 ou 2. Elle s’applique aux systèmes capables d’exécuter une ou plusieurs parties de la tâche de conduite sous la supervision du conducteur. Ces systèmes sont loin de l’automatisation de niveau 5, dans laquelle toute la tâche de conduite peut être effectuée sans intervention humaine dans toutes les conditions.


Malgré les limitations des systèmes actuels, certains noms semblent trop surprenants quant à la capacité du conducteur de détourner son attention de la route. Une étude a révélé comment les noms utilisés par les fabricants pour ces systèmes peuvent envoyer les mauvais messages aux conducteurs en ce qui concerne leur degré d'attention. Une autre a révélé que les conducteurs ne comprenaient pas toujours les informations importantes communiquées par les écrans du système.

Un cas pratique est celui du nom "Autopilot”. Ce dernier est susceptible de conduire les gens à surestimer les capacités de la technologie d'assistance au conducteur de Tesla. Les critiques préviennent que certains clients vont supposer qu’un système appelé “Autopilot” (pilote automatique) est totalement autonome. Les défenseurs de Tesla répliquent en soulignant que les capacités de pilotage automatique des avions ne sont pas totalement autonomes. Les pilotes doivent encore surveiller leur fonctionnement et intervenir en cas de problème, et le système de pilote automatique de Tesla n'est pas différent.

Une enquête de l'Institut d'assurance pour la sécurité routière fournit des données précieuses utiles à ce débat. Le groupe a posé des questions aux conducteurs sur les capacités de cinq systèmes avancés d'assistance au conducteur (ADAS - advanced driver-assistance systems). Ils ont identifié les produits uniquement par leur marque : Autopilot (utilisé par Tesla), Traffic Jam Assist (Audi et Acura), Super Cruise (Cadillac), Driving Assistant Plus (BMW) et ProPilot Assist (Nissan). Les participants à l'enquête ne savaient pas quel constructeur fabriquait chaque produit et ils n'en connaissaient pas les capacités. Il y avait 2 000 répondants au total, mais chacun n'a été interrogé que sur deux systèmes sur cinq, donnant lieu à quelques centaines de réponses pour chaque produit.

Il faut préciser qu’aucun de ces systèmes ne gère de manière fiable le maintien de la voie et le contrôle de la vitesse dans toutes les situations. Tous exigent que les conducteurs restent attentifs, et tous sauf Super Cruise, avertissent le conducteur si leurs mains ne sont pas détectées sur le volant. Super Cruise utilise plutôt une caméra pour surveiller le regard du conducteur et émettra un avertissement si le conducteur ne regarde pas vers l'avant.

Pour chaque système ADAS, les conducteurs ont été interrogés sur la sécurité de diverses activités qui ne sont pas recommandées par les constructeurs automobiles (de l’acte consistant à enlever ses mains du volant à la sieste pendant la conduite). Un plus grand nombre de participants ont estimé que poser chacun de ces actes était sans conséquence avec Autopilot activé plutôt qu'avec l'un des quatre autres systèmes ADAS.

Par exemple, 48% des personnes interrogées ont déclaré qu’il était sans danger pour un conducteur d’enlever ses mains du volant quand Autopilot était activé, contre environ 33% pour ProPilot Assist et moins de 30% pour les autres systèmes nommés. Six pour cent des conducteurs ont déclaré qu'il était sans danger de faire la sieste dans une voiture avec Autopilot activé, tandis que seulement trois pour cent ont déclaré la même chose pour les autres systèmes ADAS.


Tesla vient pourtant d’annoncer le lancement de Steam dans ses véhicules au mépris de toutes ces données et donc renforce les craintes en lien avec la distraction au volant.

La distraction au volant est une cause majeure de l'augmentation du nombre de décès sur la route aux États-Unis. Au cours des six premiers mois de cette année, 20 160 personnes sont mortes dans des accidents de la route, selon les estimations du ministère des Transports. Il s'agit d'une augmentation de 18,4 % par rapport au premier semestre de 2020 et du chiffre le plus élevé depuis 2006. L'inattention du conducteur est officiellement citée comme la cause d'environ 10 % des décès sur la route, a déclaré Steve Kiefer, un cadre supérieur de General Motors qui dirige également une fondation dédiée à la lutte contre la distraction au volant. Mais lui et d'autres experts en sécurité pensent que le chiffre réel est beaucoup plus élevé parce que, selon eux, les enquêtes sur les accidents négligent souvent la distraction et citent d'autres causes, comme la conduite dangereuse. « Je pense que le chiffre est plus proche de 50 pour cent », a déclaré Kiefer.

La distraction au volant découle d'activités qui retirent les mains des conducteurs du volant, détournent leurs yeux de la route ou détournent leur attention de la tâche de conduite. Elle est souvent liée à l'utilisation d'un smartphone, comme l'envoi de SMS ou d'e-mails au volant, mais il arrive aussi que les conducteurs lisent des livres ou se maquillent. Certains États interdisent l'utilisation du téléphone portable en main au volant. Les constructeurs automobiles, Apple et Google ont développé des logiciels embarqués pour faciliter l'utilisation de commandes vocales pour envoyer des SMS et passer des appels téléphoniques, tout en gardant les mains libres, pendant la conduite.

Source : CLI

Et vous ?

Que pensez-vous de cette mesure ?
Partagez-vous l’avis selon lequel de la terminologie telle que Full Self-Driving peut conduire les conducteurs à surestimer les capacités réelles des Tesla ?

Voir aussi :

Autopilot de Tesla peut être "facilement" trompé pour fonctionner sans personne sur le siège du conducteur, selon Consumer Reports, mais « vous ne devriez pas essayer ça »

Tesla doit désormais signaler les accidents liés à son Autopilot au gouvernement ou s'exposer à des amendes, d'après une décision de l'agence fédérale chargée de la sécurité routière

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
8  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de Darkzinus
Expert éminent sénior https://www.developpez.com
Le 05/01/2023 à 15:46
Ce que je trouve dingue dans le modèle économique de Tesla c'est que les gens achètent une voiture et un abonnement pour être bêta testeurs.
5  0 
Avatar de marc.collin
Membre chevronné https://www.developpez.com
Le 11/01/2023 à 14:00
Il est temps que le gouvernement interdise que le pays devienne un jeu d'expérimentation.
C'est dangereux, il y a eu des mort et cela continue, rien n'est fait
5  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
5  0 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 03/01/2023 à 12:04
Que pensez-vous du motif de l'amende infligée à Tesla en Corée du Sud ?
Que dans notre droit à nous ça correspond pleinement à la définition de l’escroquerie
https://www.service-public.fr/partic...osdroits/F1520
donc il est logique que ce soit pareil en Corée.

Que pensez-vous du montant de l'amende ?
qu'il est trop faible, la preuve, les escrocs continuent, Mulk continue de communiquer

D'autres pays devraient-ils adopter une approche similaire ? Pourquoi ?
Parce que c'est de l'escroquerie et que tant qu'il n'y aura pas de répression les escrocs continuent

Tesla devrait-il, selon vous, continuer à utiliser les appellations Autopilot et Full Self-Driving même si cela induit de nombreux utilisateurs en erreur, pensant à tort que leur système peut gérer toutes les étapes de la conduite ?
Bien sur que non, mais tant qu'il n'en seront pas inquiété ils continueront.
4  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 05/01/2023 à 7:54
Citation Envoyé par Stéphane le calme Voir le message
Le délit de fuite en Allemagne doit-il être imputé au conducteur endormi ou à Tesla ? Lorsque le mode Autopilot est activé, qui devrait être responsable ? Pourquoi ?
Aux deux, le conducteur pour ne pas être maitre de son véhicule (et ne pas être en état de l'être), Tesla pour être incapable de suivre le code de la route.
Une situation comme celle-ci pourrait-elle suggérer que la programmation de l'Autopilot n'est pas terminée (intégration de plus de cas de figure dans la boucle if) ?
Un autopilot doit respecter le code de la route. S'il ne le fait pas il n'est pas terminé ou est défaillant.
En tant que professionnels de l'informatique, comment aborderiez-vous ce cas de figure (la police demande à un individu de se garer sur le côté) dans la programmation de l'Autopilot ? Si vous prenez en compte par exemple les gyrophares, des individus mal intentionnés ne pourraient-ils pas se jouer du système en utilisant des gyrophares pour commettre leurs méfaits ? Ou alors si une voiture de police est détectée à proximité, Autopilot devrait-il se désengager et redonner la main au chauffeur pour que lui seul décide quoi faire ?
Pour moi tout ça devrait se régler avec deux règles :
1. Si la Tesla reçoit une information qu'elle n'arrive pas à traiter elle redonne la main au chauffeur
2. La chauffeur doit pouvoir, à tout moment, reprendre la main sur l'autopilot
Autant je n'aime pas Tesla autant je ne peux pas exiger d'elle qu'elle soit plus capable que moi de reconnaitre un véhicule de police légitime d'un illégitime.
4  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 06/01/2023 à 13:07
Citation Envoyé par abriotde Voir le message
Et le FSD est absolument génial, il fait avancer le monde (l'IA notamment).
La question n'est pas là. Les mots ont un sens et un impact sur les comportements. Le Full Self Driving n'est pas encore *du tout* FULL. A ce titre il s'agit de publicité mensongère, et surtout dangereuse vis-à-vis de l'excés de confiance apportée aux utilisateurs.

Si on te vend des lunettes de soleil te promettant un indice de protection 3 "ont adaptées aux cas de forte ou exceptionnelle luminosité solaire (mer, montagne)." mais qu'en réalité c'est du 0 : "la catégorie 0 associée au symbole d’un nuage ne protège pas des UV solaires ; elle est réservée au confort et à l'esthétique", tu risque d'y perdre la vue à cause d'une fausse promesse.
4  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 26/05/2023 à 9:20
Citation Envoyé par Olivier Famien Voir le message
Que pensez-vous des informations divulguées par Handelsblatt ? Fake ? Ou authentique ?
Si les clients que se sont plaints confirment ça semble authentique.
Et les révélations semblent aussi cohérentes avec l'attitude habituelle de Tesla, demander la suppression des éléments non désirés puis passer à la menace, sortir la menace légale rapidement (là s'en protéger).
Citation Envoyé par Olivier Famien Voir le message
Selon vous, les plaintes contre l’autopilote des véhicules Tesla sont-elles fondées ?
Combien de personnes sont mortes ou ont été blessé à cause du FSD? Tesla n'a jamais assumé et continue de le diffuser.
Comment ne pas les considérer comme fondées dans cette situation?
Citation Envoyé par Olivier Famien Voir le message
Avez-vous déjà été témoin du comportement dangereux de l’autopilote de Tesla ? Comment avez-vous géré la situation ?
Semaine dernière le chauffeur de la Tesla derrière moi a voulu faire la démonstration de l'efficacité du freinage automatique de sa voiture à son passager, il a accéléré dans une rue bien au dela de la vitesse légale (et encore plus aus dessus de celle raisonnable, on roulait au pas), puis a levé les mains, je confirmes : ça freine vite et bien. En attendant je me suis mis dans le bas coté au cas où.

Je trouves bien qu'on mette en place des systèmes qui peuvent rattraper les erreurs de chauffeurs,
je suis inquiets des chauffeurs qui se permettent donc d'être moins attentifs (le système ne devenant plus de sécurité mais de soutien),
j'ai vraiment peur des chauffeurs qui mettent les autres en danger pour montrer la performance de ces systèmes.
5  1