IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tesla condamné à une amende de 2 Ms € en Corée du Sud pour publicité mensongère
Tesla a faussement promu et exagéré l'autonomie et la vitesse de recharge de ses voitures électriques

Le , par Stéphane le calme

136PARTAGES

9  0 
Le gendarme antitrust sud-coréen va infliger une amende de 2,8 milliards de wons (2 millions d'euros) à Tesla Inc. pour des violations présumées de la loi sur la publicité. Tesla a faussement promu et exagéré l'autonomie et la vitesse de charge de ses voitures électriques, ainsi que les économies estimées sur les coûts de carburant, a déclaré mardi la Commission sud-coréenne du commerce équitable dans un communiqué. La société dirigée par Elon Musk a changé la publicité sur son site Web en coréen en février lorsque le gendarme antitrust a ouvert une enquête.

Le régulateur antitrust sud-coréen a déclaré qu'il imposerait une amende de 2,85 milliards de wons à Tesla pour avoir omis d'informer ses clients de l'autonomie plus courte de ses véhicules électriques à basse température. La Commission coréenne du commerce équitable (Korea Fair Trade Commission ou KFTC) a déclaré que Tesla avait exagéré « l'autonomie de ses voitures sur une seule charge, leur rentabilité en carburant par rapport aux véhicules à essence ainsi que les performances de ses superchargeurs » sur son site Web local officiel depuis août 2019 jusqu'à récemment.

L'autonomie des voitures du constructeur américain de véhicules électriques chute jusqu'à 50,5 % par temps froid par rapport à la façon dont elles sont annoncées en ligne, a déclaré mardi la KFTC dans un communiqué.

Sur son site Web, Tesla fournit des conseils de conduite en hiver, tels que le préconditionnement des véhicules avec des sources d'alimentation externes et l'utilisation de son application Energy mise à jour pour surveiller la consommation d'énergie, mais ne mentionne pas la perte d'autonomie à des températures inférieures à zéro.

En 2021, Citizens United for Consumer Sovereignty, un groupe de consommateurs sud-coréen, a déclaré que l'autonomie de la plupart des véhicules électriques chute jusqu'à 40 % par temps froid lorsque les batteries doivent être chauffées, Tesla souffrant le plus, citant des données du ministère de l'Environnement du pays.

L'année dernière, la KFTC a infligé une amende de 20,2 milliards de wons au constructeur automobile allemand Mercedes-Benz et à son unité coréenne pour publicité mensongère liée aux émissions de gaz de ses véhicules de tourisme diesel.

Le régulateur a imposé une amende supplémentaire de 1 million de wons à Tesla pour violation de la loi sur le commerce électronique, affirmant que le constructeur automobile n'a pas fourni suffisamment d'informations aux consommateurs sur sa politique d'annulation.

Fin septembre, Tesla avait vendu 45 812 véhicules électriques en Corée du Sud depuis l'ouverture d'un bureau local en 2015, selon le ministère des Transports. Cela en fait la troisième plus grande marque de voitures vertes avec une part de marché locale de 13 %, juste derrière Hyundai Motor Co. et son unité Kia Corp.

Tesla de plus en plus ciblé par les autorités sur les informations véhiculées par ses publicités

Des noms qui donnent la sensation de sécurité aux utilisateurs (Autopilot, Full Self-Driving)

Les véhicules deviennent de plus en plus sophistiqués, et la technologie sous-jacente évolue de telle enseigne que certains d’entre eux sont capables de rester dans une voie et de maintenir une vitesse et une distance définies avec une intervention minimale du conducteur. Mais ce type d'automatisation présente des limites qui peuvent être difficiles à comprendre pour les conducteurs. En juin 2019, deux études de l'IIHS ont mis en évidence des perceptions erronées ou des lacunes dans la compréhension des conducteurs.

« Les niveaux actuels d'automatisation pourraient potentiellement améliorer la sécurité », a déclaré David Harkey, président de l'IIHS. « Cependant, à moins que les conducteurs aient une certaine connaissance et compréhension, ces nouvelles fonctionnalités sont également susceptibles de créer de nouveaux risques ».

L’automatisation disponible dans les véhicules disponibles à l’achat était considérée comme étant de niveau 1 ou 2 (aujourd'hui elles vont jusqu'au niveau 3 pour certains véhicules). Elle s’applique aux systèmes capables d’exécuter une ou plusieurs parties de la tâche de conduite sous la supervision du conducteur. Ces systèmes sont loin de l’automatisation de niveau 5, dans laquelle toute la tâche de conduite peut être effectuée sans intervention humaine dans toutes les conditions.


Niveaux d'automatisation de la conduite

Malgré les limitations des systèmes actuels, certains noms semblent trop surprenants quant à la capacité du conducteur de détourner son attention de la route. Une étude a révélé comment les noms utilisés par les fabricants pour ces systèmes peuvent envoyer les mauvais messages aux conducteurs en ce qui concerne leur degré d'attention. Une autre a révélé que les conducteurs ne comprenaient pas toujours les informations importantes communiquées par les écrans du système.

Prenons un cas pratique : est-ce que le nom "Autopilot” pourrait conduire les gens à surestimer les capacités de la technologie d'assistance au conducteur de Tesla ? Les critiques préviennent que certains clients vont supposer qu’un système appelé “Autopilot” (pilote automatique) est totalement autonome. Les défenseurs de Tesla répliquent en soulignant que les capacités de pilotage automatique des avions ne sont pas totalement autonomes. Les conducteurs doivent encore surveiller leur fonctionnement et intervenir en cas de problème, et le système de pilote automatique de Tesla n'est pas différent.

Une enquête de l'Institut d'assurance pour la sécurité routière fournit des données précieuses utiles à ce débat. Le groupe a posé des questions aux conducteurs sur les capacités de cinq systèmes avancés d'assistance au conducteur (ADAS - advanced driver-assistance systems). Ils ont identifié les produits uniquement par leur marque : Autopilot (utilisé par Tesla), Traffic Jam Assist (Audi et Acura), Super Cruise (Cadillac), Driving Assistant Plus (BMW) et ProPilot Assist (Nissan). Les participants à l'enquête ne savaient pas quel constructeur fabriquait chaque produit et ils n'en connaissaient pas les capacités. Il y avait 2 000 répondants au total, mais chacun n'a été interrogé que sur deux systèmes sur cinq, donnant lieu à quelques centaines de réponses pour chaque produit.

Il faut préciser qu’aucun de ces systèmes ne gère de manière fiable le maintien de la voie et le contrôle de la vitesse dans toutes les situations. Tous exigent que les conducteurs restent attentifs, et tous sauf Super Cruise, avertissent le conducteur si leurs mains ne sont pas détectées sur le volant. Super Cruise utilise plutôt une caméra pour surveiller le regard du conducteur et émettra un avertissement si le conducteur ne regarde pas vers l'avant.

Pour chaque système ADAS, les conducteurs ont été interrogés sur la sécurité de diverses activités qui ne sont pas recommandées par les constructeurs automobiles (de l’acte consistant à enlever ses mains du volant à la sieste pendant la conduite). Un plus grand nombre de participants ont estimé que poser chacun de ces actes était sans conséquence avec Autopilot activé plutôt qu'avec l'un des quatre autres systèmes ADAS.

Par exemple, 48% des personnes interrogées ont déclaré qu’il était sans danger pour un conducteur d’enlever ses mains du volant quand Autopilot était activé, contre environ 33% pour ProPilot Assist et moins de 30% pour les autres systèmes nommés. Six pour cent des conducteurs ont déclaré qu'il était sans danger de faire la sieste dans une voiture avec Autopilot activé, tandis que seulement trois pour cent ont déclaré la même chose pour les autres systèmes ADAS.


Cette enquête s'est concentrée sur les perceptions du nom de marque Autopilot, et non sur ce que la technologie apporte en réalité. Les répondants n'étaient pas nécessairement propriétaires de Tesla (probablement pas, pour la plupart), et aucune information ne leur a été communiquée concernant les capacités des voitures pour lesquelles ils répondaient à des questions.

Et tandis qu’Autopilot est peut-être plus performant que certains de ces autres systèmes, Tesla ne prétend pas en soi que les conducteurs sont suffisamment en sécurité pour relâcher leur attention lorsqu’Autopilot est activé ; enlever les mains du volant, regarder un film ou faire une sieste tranquillement sur le chemin du retour à la maison n’est pas encore à l’ordre du jour.

Des véhicules Teslas exécutant Autopilot étaient impliqués dans 273 accidents signalés entre 2021 et 2022

La National Highway Traffic Safety Administration a publié des données sur la sécurité, ou son absence, des systèmes avancés d'aide à la conduite. Depuis juin 2021, les constructeurs automobiles sont tenus d'informer la NHTSA si l'un de leurs véhicules est impliqué dans un accident alors qu'ils utilisent des systèmes de conduite partiellement automatisés, également appelés systèmes SAE de niveau 2. Comme beaucoup le soupçonnaient, le système Autopilot de Tesla était à l'origine de la majorité des accidents depuis le début de la période de référence. En fait, Tesla représentait les trois quarts de tous les accidents ADAS, soit 273 accidents sur 367 signalés entre juillet 2021 et le 15 mai 2022. La nouvelle fournit encore plus de données sapant les affirmations de sécurité de Tesla concernant son système Autopilot.

Les autorités s'en mêlent

Certains législateurs ont appelé à une enquête plus approfondie et à d'éventuelles normes de sécurité pour les voitures dotées de la technologie. Le sénateur Richard Blumenthal (D-Conn.) a qualifié les découvertes de « profondément alarmantes ».

« C'est une sonnette d'alarme qui confirme bon nombre des avertissements que nous avons lancés au fil des ans », a-t-il déclaré. « La fréquence et la gravité de ces accidents sont une cause de carte jaune et peut-être de carton rouge sur certaines de ces technologies ».

Blumenthal et le sénateur Edward J. Markey (D-Mass.) ont précédemment critiqué Tesla pour avoir mis des logiciels sur les routes « sans pleinement tenir compte de ses risques et de ses implications ». Lors d'un appel avec les médias mercredi, Markey a dénoncé l'affirmation de Tesla selon laquelle la technologie d'Autopilot rend les voitures plus sûres.

« Ce rapport fournit des preuves supplémentaires qui freinent les affirmations de Tesla », a-t-il déclaré.

Les sénateurs ont envoyé une lettre à la NHTSA, disant qu'ils étaient « profondément troublés » par les données et appelant le régulateur « à utiliser toutes ses autorités d'enquête et de réglementation pour faire la lumière nécessaire sur cette industrie incontrôlable et imposer des garde-fous pour empêcher plus de décès ».

De son côté, la Californie a procédé à l’adoption d’une loi qui interdit à Tesla d’appeler le logiciel de ses véhicules Full Self-Driving. Motif : c’est de la publicité mensongère qui laisse croire que les véhicules Tesla sont totalement autonomes.

« Un fabricant ou un concessionnaire ne doit pas nommer une fonction d'automatisation partielle de conduite ou décrire une fonction d'automatisation partielle de conduite dans des documents publicitaires en utilisant un langage qui implique ou qui pourrait autrement amener une personne raisonnable à croire que la fonction permet au véhicule de fonctionner comme un véhicule autonome ou qu'elle possède une fonctionnalité qui n'est pas réellement incluse dans la fonction. Une violation de cette subdivision est considérée comme une publicité mensongère », lit-on.

Une nouvelle mise à jour pour les véhicules Tesla est disponible depuis la mi-parcours du mois qui tire à son terme. La nouveauté : Tesla lance Steam dans ses voitures avec des milliers de jeux. La manœuvre était venue raviver le débat autour de la terminologie mise en avant par le constructeur (Full Self-Driving, Autopilot , etc.) En effet, elle renforce l’idée du « Ne vous inquiétez pas, vous pouvez même jouer au volant, Tesla s'occupe de tout, vous n'avez rien à gérer et vous n'avez à penser à rien d'autre qu'au divertissement avant tout. » Cette question de sécurité en lien avec la distraction au volant intervient dans un contexte où le constructeur lui-même reconnaît que ses véhicules en sont encore au stade d’aide à la conduite. Pourtant, les utilisateurs les considèrent comme des voitures dotées de complète autonomie.

Source : Korea Fair Trade Commission

Et vous ?

Que pensez-vous du motif de l'amende infligée à Tesla en Corée du Sud ?
Que pensez-vous du montant de l'amende ?
D'autres pays devraient-ils adopter une approche similaire ? Pourquoi ?
Tesla devrait-il, selon vous, continuer à utiliser les appellations Autopilot et Full Self-Driving même si cela induit de nombreux utilisateurs en erreur, pensant à tort que leur système peut gérer toutes les étapes de la conduite ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
8  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de Darkzinus
Expert éminent sénior https://www.developpez.com
Le 05/01/2023 à 15:46
Ce que je trouve dingue dans le modèle économique de Tesla c'est que les gens achètent une voiture et un abonnement pour être bêta testeurs.
5  0 
Avatar de marc.collin
Membre chevronné https://www.developpez.com
Le 11/01/2023 à 14:00
Il est temps que le gouvernement interdise que le pays devienne un jeu d'expérimentation.
C'est dangereux, il y a eu des mort et cela continue, rien n'est fait
5  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
5  0 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 03/01/2023 à 12:04
Que pensez-vous du motif de l'amende infligée à Tesla en Corée du Sud ?
Que dans notre droit à nous ça correspond pleinement à la définition de l’escroquerie
https://www.service-public.fr/partic...osdroits/F1520
donc il est logique que ce soit pareil en Corée.

Que pensez-vous du montant de l'amende ?
qu'il est trop faible, la preuve, les escrocs continuent, Mulk continue de communiquer

D'autres pays devraient-ils adopter une approche similaire ? Pourquoi ?
Parce que c'est de l'escroquerie et que tant qu'il n'y aura pas de répression les escrocs continuent

Tesla devrait-il, selon vous, continuer à utiliser les appellations Autopilot et Full Self-Driving même si cela induit de nombreux utilisateurs en erreur, pensant à tort que leur système peut gérer toutes les étapes de la conduite ?
Bien sur que non, mais tant qu'il n'en seront pas inquiété ils continueront.
4  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 05/01/2023 à 7:54
Citation Envoyé par Stéphane le calme Voir le message
Le délit de fuite en Allemagne doit-il être imputé au conducteur endormi ou à Tesla ? Lorsque le mode Autopilot est activé, qui devrait être responsable ? Pourquoi ?
Aux deux, le conducteur pour ne pas être maitre de son véhicule (et ne pas être en état de l'être), Tesla pour être incapable de suivre le code de la route.
Une situation comme celle-ci pourrait-elle suggérer que la programmation de l'Autopilot n'est pas terminée (intégration de plus de cas de figure dans la boucle if) ?
Un autopilot doit respecter le code de la route. S'il ne le fait pas il n'est pas terminé ou est défaillant.
En tant que professionnels de l'informatique, comment aborderiez-vous ce cas de figure (la police demande à un individu de se garer sur le côté) dans la programmation de l'Autopilot ? Si vous prenez en compte par exemple les gyrophares, des individus mal intentionnés ne pourraient-ils pas se jouer du système en utilisant des gyrophares pour commettre leurs méfaits ? Ou alors si une voiture de police est détectée à proximité, Autopilot devrait-il se désengager et redonner la main au chauffeur pour que lui seul décide quoi faire ?
Pour moi tout ça devrait se régler avec deux règles :
1. Si la Tesla reçoit une information qu'elle n'arrive pas à traiter elle redonne la main au chauffeur
2. La chauffeur doit pouvoir, à tout moment, reprendre la main sur l'autopilot
Autant je n'aime pas Tesla autant je ne peux pas exiger d'elle qu'elle soit plus capable que moi de reconnaitre un véhicule de police légitime d'un illégitime.
4  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 06/01/2023 à 13:07
Citation Envoyé par abriotde Voir le message
Et le FSD est absolument génial, il fait avancer le monde (l'IA notamment).
La question n'est pas là. Les mots ont un sens et un impact sur les comportements. Le Full Self Driving n'est pas encore *du tout* FULL. A ce titre il s'agit de publicité mensongère, et surtout dangereuse vis-à-vis de l'excés de confiance apportée aux utilisateurs.

Si on te vend des lunettes de soleil te promettant un indice de protection 3 "ont adaptées aux cas de forte ou exceptionnelle luminosité solaire (mer, montagne)." mais qu'en réalité c'est du 0 : "la catégorie 0 associée au symbole d’un nuage ne protège pas des UV solaires ; elle est réservée au confort et à l'esthétique", tu risque d'y perdre la vue à cause d'une fausse promesse.
4  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 26/05/2023 à 9:20
Citation Envoyé par Olivier Famien Voir le message
Que pensez-vous des informations divulguées par Handelsblatt ? Fake ? Ou authentique ?
Si les clients que se sont plaints confirment ça semble authentique.
Et les révélations semblent aussi cohérentes avec l'attitude habituelle de Tesla, demander la suppression des éléments non désirés puis passer à la menace, sortir la menace légale rapidement (là s'en protéger).
Citation Envoyé par Olivier Famien Voir le message
Selon vous, les plaintes contre l’autopilote des véhicules Tesla sont-elles fondées ?
Combien de personnes sont mortes ou ont été blessé à cause du FSD? Tesla n'a jamais assumé et continue de le diffuser.
Comment ne pas les considérer comme fondées dans cette situation?
Citation Envoyé par Olivier Famien Voir le message
Avez-vous déjà été témoin du comportement dangereux de l’autopilote de Tesla ? Comment avez-vous géré la situation ?
Semaine dernière le chauffeur de la Tesla derrière moi a voulu faire la démonstration de l'efficacité du freinage automatique de sa voiture à son passager, il a accéléré dans une rue bien au dela de la vitesse légale (et encore plus aus dessus de celle raisonnable, on roulait au pas), puis a levé les mains, je confirmes : ça freine vite et bien. En attendant je me suis mis dans le bas coté au cas où.

Je trouves bien qu'on mette en place des systèmes qui peuvent rattraper les erreurs de chauffeurs,
je suis inquiets des chauffeurs qui se permettent donc d'être moins attentifs (le système ne devenant plus de sécurité mais de soutien),
j'ai vraiment peur des chauffeurs qui mettent les autres en danger pour montrer la performance de ces systèmes.
5  1