IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tesla : « notre échec à fabriquer de véritables voitures dotées d'une conduite autonome n'est pas une fraude »,
L'entreprise tente de justifier son échec après des années de promesses non tenues

Le , par Bill Fassinou

115PARTAGES

6  0 
Après plusieurs années de déclarations farfelues sur l'arrivée imminente d'une voiture à conduite autonome, Tesla semble s'être finalement rendu à l'évidence. Sous le coup d'un recours collectif aux États-Unis pour fraude et escroquerie en ce qui concerne les logiciels Autopilot et Full Self-Driving (FSD), les avocats de Tesla ont déclaré récemment que le constructeur automobile américain pourrait admettre son échec, mais ont réfuté les accusations de duperie. Tesla a augmenté à plusieurs reprises le prix du FSD, mais par contre, il n'a jamais réussi à livrer un logiciel de conduite autonome de niveau 3. L'Autopilot et le FSD sont de niveau 2.

Elon Musk, PDG de Tesla, a déclaré à de nombreuses reprises depuis 2015 que les voitures Tesla seraient entièrement autonomes dans un délai relativement court, soit deux ans ou moins. Cependant, des années après que les délais qu'il s'est lui-même imposés se sont envolés, ce n'est toujours pas arrivé. Malgré les noms trompeurs des logiciels Autopilot et Full Self-Driving et les publicités de Tesla qui prêtent également parfois à confusion, les clients sont invités à garder leurs mains sur le volant en toute circonstance, même lorsque ces fonctions sont activées. Désormais, les clients semblent s'être lassés de l'attente et demandent des comptes à l'entreprise.

Le constructeur de voitures électriques fait l'objet d'un recours collectif de la part de clients des technologies Autopilot et Full Self-Driving (FSD). Ils affirment avoir été escroqués, dupés par les déclarations répétées du PDG Elon Musk et les documents marketing de Tesla au cours des six dernières années. Les plaignants affirment que ces différentes déclarations laissaient entendre que la conduite entièrement autonome était imminente. Mais à la date d'aujourd'hui, aucune voiture Tesla n'est capable de se diriger de manière totalement autonome, et pourtant l'entreprise vend ce qu'elle appelle "une capacité de conduite autonome complète" pour 15 000 dollars.



Pour sa défense, les avocats de Tesla ont déclaré que "le simple fait de ne pas réaliser un objectif ambitieux à long terme ne constitue pas une fraude". Cet argument est contenu dans une motion de rejet de l'affaire qui a été déposée au début du mois devant le tribunal de district américain de San Francisco. Si l'affaire va de l'avant, elle pourrait conduire à la déposition d'employés de Tesla qui ont participé au développement de la technologie et révéler ce que Musk savait et ne savait pas sur ses véritables capacités lorsqu'il a fait de nombreuses prévisions au fil des ans, y compris les nombreuses déclarations du milliardaire sur les robotaxis Tesla.

Musk avait prédit qu'il y aurait un million de robotaxis Tesla sur la route d'ici la fin de 2020, que les clients pourraient gagner 30 000 dollars par an en les louant et que leurs voitures prendraient de la valeur. Par exemple, la plainte cite un tweet de 2016 dans lequel Musk a noté : « une voiture Tesla serait capable de se conduire toute seule à travers les États-Unis d'ici l'année prochaine ». Plus tard cette année-là, Tesla a publié une vidéo, également citée dans le procès, qui, selon le constructeur automobile, montrait une de ses voitures se conduisant toute seule. Cependant, selon l'action en justice, la vidéo publiée par Tesla était trompeuse.

Les avocats de Tesla tentent d'empêcher que ces informations soient rendues publiques. La demande de rejet de l'affaire repose sur l'affirmation de Tesla selon laquelle les documents signés par les clients lors de l'achat de leur voiture les obligent à déposer individuellement des plaintes par le biais du système d'arbitrage privé. Un procès public permet aux clients de déposer des plaintes en tant que grand groupe, appelé "classe" ; l'arbitrage signifie que chaque client est seul. Alors qu'un procès public pourrait révéler des informations sur l'état du développement les logiciels Tesla à un moment donné, l'arbitrage garderait ce témoignage secret.

Des milliers de poursuites ont été engagées contre Tesla et Musk. Le recours à l'arbitrage privé est souvent la première réaction de Tesla face à des poursuites judiciaires publiques. Le cas de Cristina Balan est un exemple palpable. Ancienne ingénieure de Tesla, elle affirme avoir été diffamée par Tesla en 2017, ce qui a porté atteinte à sa réputation professionnelle, mais grâce à une série d'arguments procéduraux, les avocats de Tesla ont évité que l'affaire soit portée devant un tribunal public. Mais dans le cas de la nouvelle plainte, la litanie d'affirmations et de promesses faites par Musk et Tesla seront familières à toute personne qui suit Musk de près.



L'action en justice, déposée par le cabinet californien Cotchett, Pitre & McCarthy, cite également de nombreux cas d'accidents impliquant l'utilisation de la technologie d'aide à la conduite de Tesla. La plainte affirme que même parmi les systèmes avancés d'aide à la conduite, le système Autopilot de Tesla est en deçà de ceux qui sont désormais disponibles sur les marchés mondiaux auprès d'autres sociétés, dont Mercedes-Benz et Honda. Consumer Report estime d'ailleurs que le Super Cruise de Cadillac surpasse l'Autopilot de Tesla. Le nom Autopilot a fait l'objet de critiques de la part de groupes de sécurité et même de gouvernements.

Tesla et Musk ont défendu le nom, car, dans les avions, le système de pilotage automatique nécessite toujours un pilote actif et toujours alerte aux commandes. Un tribunal allemand a statué en 2020 que Tesla ne devait pas être autorisé à faire la publicité de sa technologie d'aide à la conduite sous le nom d'"Autopilot", bien que la plainte ait été rejetée par la suite, permettant l'utilisation du terme. Tesla et Musk ont déclaré qu'avec les futures améliorations logicielles qui seront livrées "en direct" (over the air), les voitures équipées de ces systèmes seront bientôt capables de se conduire elles-mêmes sans l'intervention d'une personne.

Ce n'est cependant pas encore le cas, et Tesla n'a pas respecté ses propres prévisions quant à la date à laquelle cela serait possible. Les organismes de réglementation enquêtent sur la technologie automatisée de Tesla depuis des années. Plusieurs accidents mortels ont été liés au logiciel Autopilot. La National Highway Traffic Safety Administration (NHTSA) des États-Unis a ouvert plusieurs enquêtes, notamment sur les raisons pour lesquelles les Teslas semblent s'écraser de manière disproportionnée sur les véhicules d'urgence stationnés sur le bord de la route. L'agence n'a pas fixé de calendrier public pour une détermination.

Source : Les documents de la plainte

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des arguments avancés par Tesla pour tenter de faire rejeter la plainte ?
Selon vous, ces arguments sont-ils recevables ? Pensez-vous que Tesla a trompé et escroqué ses clients ?
Selon vous, les promesses non tenues d'Elon Musk et de Tesla constituent-elles une fraude ?
Que pensez-vous de la communication d'Elon Musk concernant les développements de l'Autopilot et du FSD ?
Selon vous, la justice doit-elle contraindre Tesla à changer le nom des produits FSD et Autopilot ?

Voir aussi

Malgré les avertissements, de nombreuses personnes considèrent les véhicules partiellement automatisés comme des véhicules autonomes, le nom "Autopilot" peut induire les automobilistes en erreur

Tesla admet que le "Full Self-Driving Beta" actuel sera toujours le niveau 2, « Il y a des circonstances et des événements que le système n'est pas capable de reconnaître »

Un tribunal allemand interdit les déclarations publicitaires de Tesla relatives à la conduite autonome et accuse le constructeur automobile de relayer dans ses publicités des allégations trompeuses

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
8  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de Darkzinus
Expert éminent sénior https://www.developpez.com
Le 05/01/2023 à 15:46
Ce que je trouve dingue dans le modèle économique de Tesla c'est que les gens achètent une voiture et un abonnement pour être bêta testeurs.
5  0 
Avatar de marc.collin
Membre chevronné https://www.developpez.com
Le 11/01/2023 à 14:00
Il est temps que le gouvernement interdise que le pays devienne un jeu d'expérimentation.
C'est dangereux, il y a eu des mort et cela continue, rien n'est fait
5  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
5  0 
Avatar de steel-finger
Membre confirmé https://www.developpez.com
Le 13/12/2022 à 23:49
Les gens n'ont pas compris que ce cher Elon n'est pas un génie incompris comme il aime nous le faire croire ! Beaucoup de gens pensent qu'il a créé tesla alors que ce sont des ingénieurs aux USA (Tarpenning et Eberhardt) pareil pour l'Hyperloop mais pour celui-ci le concept existe depuis bien longtemps.

Il y a très peu de ces projets qui sont allés jusqu'au bout, sauf SpaceX.
4  0 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 03/01/2023 à 12:04
Que pensez-vous du motif de l'amende infligée à Tesla en Corée du Sud ?
Que dans notre droit à nous ça correspond pleinement à la définition de l’escroquerie
https://www.service-public.fr/partic...osdroits/F1520
donc il est logique que ce soit pareil en Corée.

Que pensez-vous du montant de l'amende ?
qu'il est trop faible, la preuve, les escrocs continuent, Mulk continue de communiquer

D'autres pays devraient-ils adopter une approche similaire ? Pourquoi ?
Parce que c'est de l'escroquerie et que tant qu'il n'y aura pas de répression les escrocs continuent

Tesla devrait-il, selon vous, continuer à utiliser les appellations Autopilot et Full Self-Driving même si cela induit de nombreux utilisateurs en erreur, pensant à tort que leur système peut gérer toutes les étapes de la conduite ?
Bien sur que non, mais tant qu'il n'en seront pas inquiété ils continueront.
4  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 05/01/2023 à 7:54
Citation Envoyé par Stéphane le calme Voir le message
Le délit de fuite en Allemagne doit-il être imputé au conducteur endormi ou à Tesla ? Lorsque le mode Autopilot est activé, qui devrait être responsable ? Pourquoi ?
Aux deux, le conducteur pour ne pas être maitre de son véhicule (et ne pas être en état de l'être), Tesla pour être incapable de suivre le code de la route.
Une situation comme celle-ci pourrait-elle suggérer que la programmation de l'Autopilot n'est pas terminée (intégration de plus de cas de figure dans la boucle if) ?
Un autopilot doit respecter le code de la route. S'il ne le fait pas il n'est pas terminé ou est défaillant.
En tant que professionnels de l'informatique, comment aborderiez-vous ce cas de figure (la police demande à un individu de se garer sur le côté) dans la programmation de l'Autopilot ? Si vous prenez en compte par exemple les gyrophares, des individus mal intentionnés ne pourraient-ils pas se jouer du système en utilisant des gyrophares pour commettre leurs méfaits ? Ou alors si une voiture de police est détectée à proximité, Autopilot devrait-il se désengager et redonner la main au chauffeur pour que lui seul décide quoi faire ?
Pour moi tout ça devrait se régler avec deux règles :
1. Si la Tesla reçoit une information qu'elle n'arrive pas à traiter elle redonne la main au chauffeur
2. La chauffeur doit pouvoir, à tout moment, reprendre la main sur l'autopilot
Autant je n'aime pas Tesla autant je ne peux pas exiger d'elle qu'elle soit plus capable que moi de reconnaitre un véhicule de police légitime d'un illégitime.
4  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 06/01/2023 à 13:07
Citation Envoyé par abriotde Voir le message
Et le FSD est absolument génial, il fait avancer le monde (l'IA notamment).
La question n'est pas là. Les mots ont un sens et un impact sur les comportements. Le Full Self Driving n'est pas encore *du tout* FULL. A ce titre il s'agit de publicité mensongère, et surtout dangereuse vis-à-vis de l'excés de confiance apportée aux utilisateurs.

Si on te vend des lunettes de soleil te promettant un indice de protection 3 "ont adaptées aux cas de forte ou exceptionnelle luminosité solaire (mer, montagne)." mais qu'en réalité c'est du 0 : "la catégorie 0 associée au symbole d’un nuage ne protège pas des UV solaires ; elle est réservée au confort et à l'esthétique", tu risque d'y perdre la vue à cause d'une fausse promesse.
4  0