IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tesla condamné à une amende de 2 Ms € en Corée du Sud pour publicité mensongère
Tesla a faussement promu et exagéré l'autonomie et la vitesse de recharge de ses voitures électriques

Le , par Stéphane le calme

127PARTAGES

9  0 
Le gendarme antitrust sud-coréen va infliger une amende de 2,8 milliards de wons (2 millions d'euros) à Tesla Inc. pour des violations présumées de la loi sur la publicité. Tesla a faussement promu et exagéré l'autonomie et la vitesse de charge de ses voitures électriques, ainsi que les économies estimées sur les coûts de carburant, a déclaré mardi la Commission sud-coréenne du commerce équitable dans un communiqué. La société dirigée par Elon Musk a changé la publicité sur son site Web en coréen en février lorsque le gendarme antitrust a ouvert une enquête.

Le régulateur antitrust sud-coréen a déclaré qu'il imposerait une amende de 2,85 milliards de wons à Tesla pour avoir omis d'informer ses clients de l'autonomie plus courte de ses véhicules électriques à basse température. La Commission coréenne du commerce équitable (Korea Fair Trade Commission ou KFTC) a déclaré que Tesla avait exagéré « l'autonomie de ses voitures sur une seule charge, leur rentabilité en carburant par rapport aux véhicules à essence ainsi que les performances de ses superchargeurs » sur son site Web local officiel depuis août 2019 jusqu'à récemment.

L'autonomie des voitures du constructeur américain de véhicules électriques chute jusqu'à 50,5 % par temps froid par rapport à la façon dont elles sont annoncées en ligne, a déclaré mardi la KFTC dans un communiqué.

Sur son site Web, Tesla fournit des conseils de conduite en hiver, tels que le préconditionnement des véhicules avec des sources d'alimentation externes et l'utilisation de son application Energy mise à jour pour surveiller la consommation d'énergie, mais ne mentionne pas la perte d'autonomie à des températures inférieures à zéro.

En 2021, Citizens United for Consumer Sovereignty, un groupe de consommateurs sud-coréen, a déclaré que l'autonomie de la plupart des véhicules électriques chute jusqu'à 40 % par temps froid lorsque les batteries doivent être chauffées, Tesla souffrant le plus, citant des données du ministère de l'Environnement du pays.

L'année dernière, la KFTC a infligé une amende de 20,2 milliards de wons au constructeur automobile allemand Mercedes-Benz et à son unité coréenne pour publicité mensongère liée aux émissions de gaz de ses véhicules de tourisme diesel.

Le régulateur a imposé une amende supplémentaire de 1 million de wons à Tesla pour violation de la loi sur le commerce électronique, affirmant que le constructeur automobile n'a pas fourni suffisamment d'informations aux consommateurs sur sa politique d'annulation.

Fin septembre, Tesla avait vendu 45 812 véhicules électriques en Corée du Sud depuis l'ouverture d'un bureau local en 2015, selon le ministère des Transports. Cela en fait la troisième plus grande marque de voitures vertes avec une part de marché locale de 13 %, juste derrière Hyundai Motor Co. et son unité Kia Corp.

Tesla de plus en plus ciblé par les autorités sur les informations véhiculées par ses publicités

Des noms qui donnent la sensation de sécurité aux utilisateurs (Autopilot, Full Self-Driving)

Les véhicules deviennent de plus en plus sophistiqués, et la technologie sous-jacente évolue de telle enseigne que certains d’entre eux sont capables de rester dans une voie et de maintenir une vitesse et une distance définies avec une intervention minimale du conducteur. Mais ce type d'automatisation présente des limites qui peuvent être difficiles à comprendre pour les conducteurs. En juin 2019, deux études de l'IIHS ont mis en évidence des perceptions erronées ou des lacunes dans la compréhension des conducteurs.

« Les niveaux actuels d'automatisation pourraient potentiellement améliorer la sécurité », a déclaré David Harkey, président de l'IIHS. « Cependant, à moins que les conducteurs aient une certaine connaissance et compréhension, ces nouvelles fonctionnalités sont également susceptibles de créer de nouveaux risques ».

L’automatisation disponible dans les véhicules disponibles à l’achat était considérée comme étant de niveau 1 ou 2 (aujourd'hui elles vont jusqu'au niveau 3 pour certains véhicules). Elle s’applique aux systèmes capables d’exécuter une ou plusieurs parties de la tâche de conduite sous la supervision du conducteur. Ces systèmes sont loin de l’automatisation de niveau 5, dans laquelle toute la tâche de conduite peut être effectuée sans intervention humaine dans toutes les conditions.


Niveaux d'automatisation de la conduite

Malgré les limitations des systèmes actuels, certains noms semblent trop surprenants quant à la capacité du conducteur de détourner son attention de la route. Une étude a révélé comment les noms utilisés par les fabricants pour ces systèmes peuvent envoyer les mauvais messages aux conducteurs en ce qui concerne leur degré d'attention. Une autre a révélé que les conducteurs ne comprenaient pas toujours les informations importantes communiquées par les écrans du système.

Prenons un cas pratique : est-ce que le nom "Autopilot” pourrait conduire les gens à surestimer les capacités de la technologie d'assistance au conducteur de Tesla ? Les critiques préviennent que certains clients vont supposer qu’un système appelé “Autopilot” (pilote automatique) est totalement autonome. Les défenseurs de Tesla répliquent en soulignant que les capacités de pilotage automatique des avions ne sont pas totalement autonomes. Les conducteurs doivent encore surveiller leur fonctionnement et intervenir en cas de problème, et le système de pilote automatique de Tesla n'est pas différent.

Une enquête de l'Institut d'assurance pour la sécurité routière fournit des données précieuses utiles à ce débat. Le groupe a posé des questions aux conducteurs sur les capacités de cinq systèmes avancés d'assistance au conducteur (ADAS - advanced driver-assistance systems). Ils ont identifié les produits uniquement par leur marque : Autopilot (utilisé par Tesla), Traffic Jam Assist (Audi et Acura), Super Cruise (Cadillac), Driving Assistant Plus (BMW) et ProPilot Assist (Nissan). Les participants à l'enquête ne savaient pas quel constructeur fabriquait chaque produit et ils n'en connaissaient pas les capacités. Il y avait 2 000 répondants au total, mais chacun n'a été interrogé que sur deux systèmes sur cinq, donnant lieu à quelques centaines de réponses pour chaque produit.

Il faut préciser qu’aucun de ces systèmes ne gère de manière fiable le maintien de la voie et le contrôle de la vitesse dans toutes les situations. Tous exigent que les conducteurs restent attentifs, et tous sauf Super Cruise, avertissent le conducteur si leurs mains ne sont pas détectées sur le volant. Super Cruise utilise plutôt une caméra pour surveiller le regard du conducteur et émettra un avertissement si le conducteur ne regarde pas vers l'avant.

Pour chaque système ADAS, les conducteurs ont été interrogés sur la sécurité de diverses activités qui ne sont pas recommandées par les constructeurs automobiles (de l’acte consistant à enlever ses mains du volant à la sieste pendant la conduite). Un plus grand nombre de participants ont estimé que poser chacun de ces actes était sans conséquence avec Autopilot activé plutôt qu'avec l'un des quatre autres systèmes ADAS.

Par exemple, 48% des personnes interrogées ont déclaré qu’il était sans danger pour un conducteur d’enlever ses mains du volant quand Autopilot était activé, contre environ 33% pour ProPilot Assist et moins de 30% pour les autres systèmes nommés. Six pour cent des conducteurs ont déclaré qu'il était sans danger de faire la sieste dans une voiture avec Autopilot activé, tandis que seulement trois pour cent ont déclaré la même chose pour les autres systèmes ADAS.


Cette enquête s'est concentrée sur les perceptions du nom de marque Autopilot, et non sur ce que la technologie apporte en réalité. Les répondants n'étaient pas nécessairement propriétaires de Tesla (probablement pas, pour la plupart), et aucune information ne leur a été communiquée concernant les capacités des voitures pour lesquelles ils répondaient à des questions.

Et tandis qu’Autopilot est peut-être plus performant que certains de ces autres systèmes, Tesla ne prétend pas en soi que les conducteurs sont suffisamment en sécurité pour relâcher leur attention lorsqu’Autopilot est activé ; enlever les mains du volant, regarder un film ou faire une sieste tranquillement sur le chemin du retour à la maison n’est pas encore à l’ordre du jour.

Des véhicules Teslas exécutant Autopilot étaient impliqués dans 273 accidents signalés entre 2021 et 2022

La National Highway Traffic Safety Administration a publié des données sur la sécurité, ou son absence, des systèmes avancés d'aide à la conduite. Depuis juin 2021, les constructeurs automobiles sont tenus d'informer la NHTSA si l'un de leurs véhicules est impliqué dans un accident alors qu'ils utilisent des systèmes de conduite partiellement automatisés, également appelés systèmes SAE de niveau 2. Comme beaucoup le soupçonnaient, le système Autopilot de Tesla était à l'origine de la majorité des accidents depuis le début de la période de référence. En fait, Tesla représentait les trois quarts de tous les accidents ADAS, soit 273 accidents sur 367 signalés entre juillet 2021 et le 15 mai 2022. La nouvelle fournit encore plus de données sapant les affirmations de sécurité de Tesla concernant son système Autopilot.

Les autorités s'en mêlent

Certains législateurs ont appelé à une enquête plus approfondie et à d'éventuelles normes de sécurité pour les voitures dotées de la technologie. Le sénateur Richard Blumenthal (D-Conn.) a qualifié les découvertes de « profondément alarmantes ».

« C'est une sonnette d'alarme qui confirme bon nombre des avertissements que nous avons lancés au fil des ans », a-t-il déclaré. « La fréquence et la gravité de ces accidents sont une cause de carte jaune et peut-être de carton rouge sur certaines de ces technologies ».

Blumenthal et le sénateur Edward J. Markey (D-Mass.) ont précédemment critiqué Tesla pour avoir mis des logiciels sur les routes « sans pleinement tenir compte de ses risques et de ses implications ». Lors d'un appel avec les médias mercredi, Markey a dénoncé l'affirmation de Tesla selon laquelle la technologie d'Autopilot rend les voitures plus sûres.

« Ce rapport fournit des preuves supplémentaires qui freinent les affirmations de Tesla », a-t-il déclaré.

Les sénateurs ont envoyé une lettre à la NHTSA, disant qu'ils étaient « profondément troublés » par les données et appelant le régulateur « à utiliser toutes ses autorités d'enquête et de réglementation pour faire la lumière nécessaire sur cette industrie incontrôlable et imposer des garde-fous pour empêcher plus de décès ».

De son côté, la Californie a procédé à l’adoption d’une loi qui interdit à Tesla d’appeler le logiciel de ses véhicules Full Self-Driving. Motif : c’est de la publicité mensongère qui laisse croire que les véhicules Tesla sont totalement autonomes.

« Un fabricant ou un concessionnaire ne doit pas nommer une fonction d'automatisation partielle de conduite ou décrire une fonction d'automatisation partielle de conduite dans des documents publicitaires en utilisant un langage qui implique ou qui pourrait autrement amener une personne raisonnable à croire que la fonction permet au véhicule de fonctionner comme un véhicule autonome ou qu'elle possède une fonctionnalité qui n'est pas réellement incluse dans la fonction. Une violation de cette subdivision est considérée comme une publicité mensongère », lit-on.

Une nouvelle mise à jour pour les véhicules Tesla est disponible depuis la mi-parcours du mois qui tire à son terme. La nouveauté : Tesla lance Steam dans ses voitures avec des milliers de jeux. La manœuvre était venue raviver le débat autour de la terminologie mise en avant par le constructeur (Full Self-Driving, Autopilot , etc.) En effet, elle renforce l’idée du « Ne vous inquiétez pas, vous pouvez même jouer au volant, Tesla s'occupe de tout, vous n'avez rien à gérer et vous n'avez à penser à rien d'autre qu'au divertissement avant tout. » Cette question de sécurité en lien avec la distraction au volant intervient dans un contexte où le constructeur lui-même reconnaît que ses véhicules en sont encore au stade d’aide à la conduite. Pourtant, les utilisateurs les considèrent comme des voitures dotées de complète autonomie.

Source : Korea Fair Trade Commission

Et vous ?

Que pensez-vous du motif de l'amende infligée à Tesla en Corée du Sud ?
Que pensez-vous du montant de l'amende ?
D'autres pays devraient-ils adopter une approche similaire ? Pourquoi ?
Tesla devrait-il, selon vous, continuer à utiliser les appellations Autopilot et Full Self-Driving même si cela induit de nombreux utilisateurs en erreur, pensant à tort que leur système peut gérer toutes les étapes de la conduite ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de Darkzinus
Expert éminent sénior https://www.developpez.com
Le 05/01/2023 à 15:46
Ce que je trouve dingue dans le modèle économique de Tesla c'est que les gens achètent une voiture et un abonnement pour être bêta testeurs.
5  0 
Avatar de marc.collin
Membre chevronné https://www.developpez.com
Le 11/01/2023 à 14:00
Il est temps que le gouvernement interdise que le pays devienne un jeu d'expérimentation.
C'est dangereux, il y a eu des mort et cela continue, rien n'est fait
5  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
5  0 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 03/01/2023 à 12:04
Que pensez-vous du motif de l'amende infligée à Tesla en Corée du Sud ?
Que dans notre droit à nous ça correspond pleinement à la définition de l’escroquerie
https://www.service-public.fr/partic...osdroits/F1520
donc il est logique que ce soit pareil en Corée.

Que pensez-vous du montant de l'amende ?
qu'il est trop faible, la preuve, les escrocs continuent, Mulk continue de communiquer

D'autres pays devraient-ils adopter une approche similaire ? Pourquoi ?
Parce que c'est de l'escroquerie et que tant qu'il n'y aura pas de répression les escrocs continuent

Tesla devrait-il, selon vous, continuer à utiliser les appellations Autopilot et Full Self-Driving même si cela induit de nombreux utilisateurs en erreur, pensant à tort que leur système peut gérer toutes les étapes de la conduite ?
Bien sur que non, mais tant qu'il n'en seront pas inquiété ils continueront.
4  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 05/01/2023 à 7:54
Citation Envoyé par Stéphane le calme Voir le message
Le délit de fuite en Allemagne doit-il être imputé au conducteur endormi ou à Tesla ? Lorsque le mode Autopilot est activé, qui devrait être responsable ? Pourquoi ?
Aux deux, le conducteur pour ne pas être maitre de son véhicule (et ne pas être en état de l'être), Tesla pour être incapable de suivre le code de la route.
Une situation comme celle-ci pourrait-elle suggérer que la programmation de l'Autopilot n'est pas terminée (intégration de plus de cas de figure dans la boucle if) ?
Un autopilot doit respecter le code de la route. S'il ne le fait pas il n'est pas terminé ou est défaillant.
En tant que professionnels de l'informatique, comment aborderiez-vous ce cas de figure (la police demande à un individu de se garer sur le côté) dans la programmation de l'Autopilot ? Si vous prenez en compte par exemple les gyrophares, des individus mal intentionnés ne pourraient-ils pas se jouer du système en utilisant des gyrophares pour commettre leurs méfaits ? Ou alors si une voiture de police est détectée à proximité, Autopilot devrait-il se désengager et redonner la main au chauffeur pour que lui seul décide quoi faire ?
Pour moi tout ça devrait se régler avec deux règles :
1. Si la Tesla reçoit une information qu'elle n'arrive pas à traiter elle redonne la main au chauffeur
2. La chauffeur doit pouvoir, à tout moment, reprendre la main sur l'autopilot
Autant je n'aime pas Tesla autant je ne peux pas exiger d'elle qu'elle soit plus capable que moi de reconnaitre un véhicule de police légitime d'un illégitime.
4  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 06/01/2023 à 13:07
Citation Envoyé par abriotde Voir le message
Et le FSD est absolument génial, il fait avancer le monde (l'IA notamment).
La question n'est pas là. Les mots ont un sens et un impact sur les comportements. Le Full Self Driving n'est pas encore *du tout* FULL. A ce titre il s'agit de publicité mensongère, et surtout dangereuse vis-à-vis de l'excés de confiance apportée aux utilisateurs.

Si on te vend des lunettes de soleil te promettant un indice de protection 3 "ont adaptées aux cas de forte ou exceptionnelle luminosité solaire (mer, montagne)." mais qu'en réalité c'est du 0 : "la catégorie 0 associée au symbole d’un nuage ne protège pas des UV solaires ; elle est réservée au confort et à l'esthétique", tu risque d'y perdre la vue à cause d'une fausse promesse.
4  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 12/01/2023 à 8:12
Citation Envoyé par nirgal76 Voir le message
Le freinage fantôme est une chose, le carambolage lui est causé par des distances de sécurités non respectées / non adaptés.
Le carambolage est causé par des distances de sécurité ET un freinage fantôme.
La combinaison freinage fantome et distance de sécurité respectée pourrait engendrer un carambolage malgré tout, il suffit que le chauffeur derrière soit peu attentif/fatigué et le temps de réaction nécessaire pour éviter le carambolage est court.

Je me souviens pendant mon stage de fin d'étude avoir eu la peur de ma vie parce qu'en rentrant, alors que je tenais bien ma distance de sécurité (les fameuses deux lignes), la voiture devant moi change de voie subitement et laisse apparaitre une voiture sans permis sur une route à 110. Cette expérience m'a marquée parce qu'elle demande de prendre une décision très vite dans un délai très court, il y avait une voiture derrière moi qui ne respectait pas les distances donc j'ai changé de voie mais je vais être honnête je n'ai pas vérifié que la voie était dispo mais la décision doit être prise en quelques secondes (sans décision je l'aurait percutée en environ 5s, 8s max).
3  0 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 20/01/2023 à 11:08
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage.

Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.

Imaginez qu'un pneu éclate sans raison sur votre voiture, vous vous seriez dirigé et arrêté de ce coté de la route.
Et oui, sauf que le FSD l'a fait pour rien et l'a fait avec une brutalité que l'on aurait pas avec un pneu qui éclate, c'est donc bien de sa faute racine et exclusive.
3  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 06/01/2023 à 15:19
Citation Envoyé par abriotde Voir le message
Tesla est tellement innovant qu'il rends jaloux les autres...
Evidemment que le FSD Tesla n'est pas parfait dans certaines conditions mais ce n'est pas un problème. Le FSD est un assistant qui permet de décharger le conducteurs 95% du temps
Le problème est que :
1. Dans les 5% restants il faut être encore plus attentif que si tu conduis une voiture normale
2. La voiture ne sait même pas te dire quand elle est face à une situation qu'elle ne sait pas gérer.

Donc elle est mieux qu'un chauffeur normal 95% du temps et c'est une arme dans les 5% qui restent, c'est 5% étant un état inacceptable pour une voiture qui partage la route.

Tesla était tellement innovant qu'il rendait jaloux les autres, maintenant c'est un papy qui t'explique qu'il a toujours le génie d'antan.

Citation Envoyé par abriotde Voir le message
L'alternative, c'est une voiture qui utilise des équipements bien plus cher (GPS au centimetre, radar laser, sonar, radar...), un canal de communication avec le monde ultra-fiable et haut débit... pour un résultat utilisable que sur les auto-routes ou les grandes ville mais jamais en rase campagne ou terrain privé...
Ca serait quand meme dingue si Tesla avait eu des radars dans ses voiture et avait décidé de le retirer pour ne se baser que sur des caméras. (Wait What)
Citation Envoyé par abriotde Voir le message
C'est vrai qu'une tel voiture pourra rouler a vitesse normal dans le brouillard (ou en contre jour, ou la nuit sans les phares), mais qui sera d'accord pour lui faire confiance?
Rouler à la limite de vitesse dans une situation dégradée n'a aucun sens. Je suis contre même si elle est en capacité de le faire pour une raison simple : son entourage n'a pas forcément a capacité de perception et il est donc nécessaire de permettre à son entourage de réagir à sa présence.

J'ai du mal à condamner le FSD pour être incapable de conduire sous la neige, une bonne partie des chauffeurs (citadins?) le sont autant. Mais mon dieu, ne dites plus que ce système est pertinent, ce truc ressemble à un projet d'étude super bien réalisé mais pas fini : ca marche quand ça marche, le reste du temps c'est la roulette russe.
2  0