IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les données de désengagement du Full Self-Driving de Tesla mises à disposition par un ensemble de propriétaires semblent si affreuses
Qu'Elon Musk est mis au défi de prouver le contraire

Le , par Stéphane le calme

236PARTAGES

5  0 
Full Self-Driving, qui est encore en version bêta, ne connaitrait pas d'amélioration significative. C'est ce que suggèrent des données de désengagement mises à disposition par des propriétaires de Tesla. Si cet ensemble de données est minime, et ne sait être entièrement représentatif des capacités réelles de FSD, les observateurs demandent à Elon Musk de prouver le contraire en publiant des données sur le désengagement et l'intervention du conducteur comme le font les autres entreprises évoluant dans le secteur.

L'Autopilot de Tesla est ce que l'on appelle un système d'aide à la conduite autonome. En termes simples, il s'agit d'une fonction qui permet à une Tesla de « voir » les voitures et la route qui l'entourent, et de se conduire elle-même dans une certaine mesure. Depuis 2016, Tesla commercialise une fonctionnalité plus onéreuse baptisée Full Self-Driving (FSD). Une personne raisonnable pourrait déduire de ce nom que le progiciel permet à une voiture d'être totalement autonome. Mais ce n'est pas le cas. En réalité, aucune voiture disponible à l'achat pour les consommateurs n'est actuellement capable de conduite entièrement autonome.

Le coût du Full Self Driving de Tesla a augmenté de 300 % depuis qu'il a été remanié et rendu disponible à l'achat en 2019. Ceux qui ont eu la chance d'acheter le FSD en avril 2019 l'ont obtenu au prix bradé de 5 000 dollars (il coûte désormais 15 000 dollars aux États-Unis).

Jason Hughes, un hacker bien connu dans le monde Tesla, a récemment qualifié le FSD de Tesla « d'escroquerie flagrante ». Le hacker a accusé la société de prendre l'argent des propriétaires de Tesla en contrepartie d'un logiciel « défectueux » qui est en version bêta depuis sa sortie en 2016. Hughes a exposé un certain nombre de ces problèmes.

Le premier est que Tesla a vendu le logiciel depuis octobre 2016, lorsque la société a déclaré que toutes les voitures vendues à partir de ce moment-là seraient prêtes à devenir des robotaxis. Elon Musk a promis la même chose le 22 avril 2019, lors du Tesla Autonomy Day. Selon le PDG de Tesla, tous ses véhicules électriques fabriqués à partir de ce jour seraient dotés d'un ordinateur appelé HW 3.0 au lieu du précédent, HW 2.5. Cela ne s'est pas produit. L'entreprise continue de livrer des véhicules équipés du HW 2.5 dans plusieurs pays. En Chine, le gouvernement a exigé que Tesla donne aux clients ce qu'il avait annoncé en remplaçant les mauvais ordinateurs.

Pour tous les autres clients dans le monde, Tesla dit simplement qu'ils recevront le matériel approprié sans frais supplémentaires lorsqu'ils pourront utiliser la FSD. Mais tout le monde ignore quand le logiciel quittera la version bêta. Hughes a déclaré que certains propriétaires doivent en fait payer 1000 dollars ou plus pour obtenir le bon matériel dans leurs voitures. Pour aggraver les choses, Tesla décide qui peut utiliser le FSD. Jusqu'à présent, seules les personnes basées aux États-Unis ont accès au logiciel bêta, mais elles doivent avoir un score spécifique dans une application appelée Safety Score Beta, qui est elle-même en version bêta.

En second lieu, Hughes pense que « le FSD n'est qu'un gadget ». Le hacker a déclaré que, selon son « expérience de l'utilisation sur autoroute, c'est comme apprendre à un adolescent à conduire ». « Vous devez être encore plus concentré et attentif que vous ne le seriez normalement », a-t-il déclaré. Selon lui, cela « finit par être plus épuisant par kilomètre parcouru que de simplement conduire soi-même ». En outre, un autre problème que Hughes n'a toutefois pas mentionné est que le FSD a un modèle de propriété particulièrement bizarre : le logiciel n'appartient pas à la voiture à laquelle il est associé ni aux personnes qui la paient.

Plus précisément, si un acheteur du FSD vend la voiture avec le logiciel, il ne peut pas le garder s'il achète une nouvelle Tesla. Le nouveau propriétaire du véhicule ne l'obtient pas non plus : le logiciel disparaît tout simplement. La seule conclusion logique possible est que seule Tesla est propriétaire du FSD. Tout ce que vous payez pour l'acquérir (un abonnement mensuel ou 15 000 dollars) n'est qu'une licence d'utilisation. « Comment pouvez-vous payer pour une fonctionnalité, et votre voiture arrive en EOL (fin de vie) sans jamais y avoir accès ? C'est insensé ! », a déclaré Hughes. Mais le problème va plus loin encore.


Les experts en véhicules autonomes (VA), les défenseurs de la sécurité routière et d'autres critiques classent l'accès au FSD comme un cauchemar de sécurité et veulent l'empêcher à tout prix. Selon des critiques, ce n'est pas un hasard si les investisseurs de Tesla veulent toujours s'assurer que toutes les références au FSD sont suivies d'un mot qui libère Tesla de toute responsabilité : bêta. Cela signifie que le logiciel n'est pas prêt pour la production : il est encore en phase de test. Ainsi, les experts en sécurité routière affirment que seuls les ingénieurs et les conducteurs formés devraient être autorisés à tester le logiciel pour le moment.

Les données de désengagement

Tesla a fait tout son possible pour ne pas publier les données de désengagement que d'autres sociétés développant des systèmes de conduite autonome mettent à disposition. « Désengagement » peut être traduit par dysfonctionnement obligeant le conducteur à reprendre la main. Pour être plus nuancé, un désengagement peut être fait par le système lui-même, ou par le conducteur, afin soit d'éviter un danger, soit de respecter le code de la route. Les kilomètres entre les désengagements ont été des données utiles pour suivre les progrès des programmes de conduite autonome. En toute logique, moins il y a de désengagements, plus la technologie est au point.

Ce n'est pas une mesure parfaite pour suivre les progrès en matière de véhicule autonome, mais c'est l'une des seules que nous ayons en ce moment et nous devrions voir des améliorations au fil du temps avec plus de kilomètres entre le désengagement ou l'intervention du conducteur.


Bien que Tesla ne publie pas les données, un groupe de testeurs bêta de Tesla FSD rapporte lui-même des données depuis un certain temps maintenant, et Taylor Ogan de Snow Bull Capital les a suivis pour voir les progrès.

Selon les données, les kilomètres parcourus par désengagement ont diminué de 54 % depuis mars, et ils se situent actuellement à peu près au même niveau qu'à la même époque l'année dernière :


Sur la base de cet ensemble de données à nouveau limité, Tesla FSD Beta ne peut parcourir que quelques kilomètres entre les désengagements, tandis que d'autres programmes de conduite autonome, comme Waymo et Cruise, signalent en moyenne des dizaines de milliers de kilomètres entre les désengagements.

Ces résultats sont décevants, car ils indiquent très peu ou pas de progrès dans le programme FSD Beta au cours de la dernière année - du moins sur la base de cette métrique.


Toutefois, il faut noter que ces statistiques s'appuient sur les 72 000 miles (115 872 kilomètres) de données autodéclarées, contre plus de 60 millions de miles (96 millions de kilomètres) parcourus sur FSD Beta à ce jour. Par conséquent, il est plus que probable que le plus grand ensemble de données montre des résultats différents, mais il n'y a aucun moyen de le savoir à moins que Tesla ne publie ces données. L'entreprise n'explique pas pourquoi elle ne le fait pas.

Il n'est pas question ici de demander à Tesla de divulguer des informations sensibles sur le programme, mais uniquement des données que toutes les autres entreprises développant des programmes de conduite autonome partagent volontiers depuis des années maintenant.

Les données ont été utilisées pour renforcer la confiance dans ces systèmes, dont certains sont déjà déployés commercialement en Californie et en Arizona.

Au lieu de cela, le PDG de Tesla, Elon Musk, a répété à plusieurs reprises aux gens « d'essayer FSD Beta par eux-mêmes » afin d'évaluer ses progrès. Comme si des preuves anecdotiques seraient plus efficaces pour suivre les progrès que des données concrètes sur les kilomètres par désengagement.

À ce stade, il est difficile de ne pas se méfier de la possibilité que la raison pour laquelle Tesla ne publie pas les données soit que cela semble mauvais pour eux (en particulier par rapport à Waymo et Cruise). Mais sinon, comment le public peut-il gagner la confiance dans le système s'il ne dispose d'aucune donnée tangible indiquant des améliorations ?

D'ailleurs, à ce propos, un internaute a déclaré : « Elon Musk, veuillez publier les données Tesla FSD Beta et montrer le chemin parcouru vers la tenue de vos promesses. Sinon, nous devons nous fier à ces données [ndlr. Les données autodéclarées] pour suivre les progrès, et cela ne semble pas bon ».

Conclusion

L’autonomie des véhicules se définit selon des niveaux :
  • Niveau 0 : c’est l’automobiliste reste maître à bord ;
  • Niveau 1 : l’ordinateur peut intervenir pour gérer la vitesse ou la direction (régulateur de vitesse, alerte distance de sécurité) mais le conducteur garde le contrôle du véhicule ;
  • Niveau 2 : la voiture peut « se conduire » temporairement, en se garant toute seule par exemple (park assist). Le conducteur reste responsable de la conduite ;
  • Niveau 3 : le conducteur peut déléguer la conduite à l’ordinateur dans certaines situations comme les bouchons. La fonction embouteillage du XC 90 de Volvo illustre parfaitement ce niveau. L’ordinateur peut aussi indiquer au conducteur quand il doit reprendre le véhicule en main ;
  • Niveau 4 : plus besoin du conducteur dans certains cas prédéfinis ; le véhicule dépose son conducteur, se gare seul et revient chercher son propriétaire ;
  • Niveau 5 : la voiture est totalement autonome et contrôle toutes les fonctions du véhicule. Le conducteur peut être présent… ou non.

Certains véhicules atteignent le niveau 4. Nous pouvons citer le service de taxis autonomes RoboRide développé par Hyundai en Corée du Sud. Cependant, ce n'est pas encore le cas des Tesla et les noms de baptême de ses fonctionnalités comme Autopilot et Full Self-Driving peuvent prêter à confusion. D'ailleurs, certains élus ont suggéré que l'entreprise soit forcée à les changer pour ne pas induire les acheteurs en erreur.


Par ailleurs, rappelons que le nouveau Drive Pilot de Mercedes ressemble, dans son mode de fonctionnement, à de nombreuses technologies d'assistance à la conduite déjà commercialisées aujourd'hui. Sur certaines autoroutes allemandes, en dessous de 60 km/h, une Classe S ou EQS équipée de Drive Pilot prendra le contrôle de la vitesse, de la direction et des freins de la voiture pour vous déplacer dans la circulation. Mais il y a une différence clef : une fois que vous avez engagé Drive Pilot, vous n'êtes plus légalement responsable du fonctionnement de la voiture jusqu'à ce qu'elle se désengage. Vous pouvez détourner le regard, regarder un film ou sortir. Si la voiture tombe en panne pendant que Drive Pilot fonctionne, c'est le problème de Mercedes, pas le vôtre.

La volonté de Mercedes d'accepter la responsabilité de ses véhicules semi-autonomes augmentera sûrement ses chances de satisfaire les différents régulateurs. Bien que la distinction puisse sembler juridiquement farfelue, la suppression de la responsabilité du conducteur a nécessité une amélioration technologique massive par rapport aux systèmes de niveau 2 existants.

Pour rappel, les systèmes semi-autonomes les plus avancés disponibles aux États-Unis, y compris Tesla Autopilot et GM SuperCruise, relèvent toujours du niveau 2, où le conducteur est censé superviser activement le système et être prêt à prendre le relais instantanément chaque fois que le système se désengage.

Drive Pilot a plus de redondances, avec des alimentations supplémentaires pour les systèmes critiques. Il utilise un traitement d'image de meilleure qualité et des scanners LiDAR, et rassemble les données de positionnement des satellites GPS, Galileo et GLONASS pour le guidage. Contrairement à tous les systèmes d'aide à la conduite actuellement disponibles, Drive Pilot est conçu pour donner aux conducteurs un avertissement de 10 secondes avant de s'éteindre ; les ingénieurs devaient s'assurer que, dans chaque situation, le système transmettrait le contrôle en toute sécurité et sans erreur.

Sources : FSD Beta Community, Taylor Ogan (1, 2, 3)

Et vous ?

Que pensez-vous du Full Self-Driving ? Ce nom prêterait-il à confusion selon vous ?
Qu'est-ce qui pourrait expliquer pourquoi Tesla ne publie pas de données de désengagement comme ses pairs ?
Les données autopubliées sont-elles représentatives de l'évolution de FSD ? Pourquoi ?
Partagez-vous le point de vue des internautes estimant que Tesla conserve le Bêta depuis des années sur FSD pour éviter d'engager sa responsabilité ?
D'ailleurs, en cas d'accident avec FSD activé, qui devrait être responsable selon vous ? Tesla ou le conducteur ?

Voir aussi :

« L'une des actions les plus dangereuses et irresponsables d'une entreprise automobile depuis des décennies ». L'activiste Ralph Nader demande aux régulateurs de rappeler la technologie FSD de Tesla
Mercedes engage sa responsabilité lorsque son pilote de conduite autonome de niveau 3 Drive Pilot est activé. Mercedes sera le premier constructeur automobile à accepter la responsabilité
Les conducteurs humains au Royaume-Uni ne seront pas responsables des accidents lorsque la conduite autonome est activée

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
9  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 17/10/2023 à 23:40
Citation Envoyé par Ryu2000 Voir le message
Ben justement...

Pilote automatique

Autopilot ça ne veut pas dire que ça se conduit tout seul.
Tu mets la définition de "autopilot", mais pourquoi pas la définition de "Full Self-Driving"?
Non, parce qu'il parle de ça aussi. Littéralement "Conduite autonome complète/totale"...

Tesla aurait appelé ça "Self-driving", encore, on aurait pu chipoter, et faire comme tous les constructeurs et parler de niveau 1, 2, 3, 4, 5. Mais là, c'est du foutage de gueule.
Je ré-itère: cet ingénieur est soit un menteur, soit quelqu'un qui devrait ouvrir un dictionnaire.
8  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 18/10/2023 à 22:34
Citation Envoyé par Ryu2000 Voir le message
Ça ne parle pas que de Full Self-Driving ça parle aussi d'Autopilot !
Et autopilot ça ne veut pas dire que ça se conduit tout seul.
C'est un dialogue de sourds

Citation Envoyé par Ryu2000 Voir le message

Pour Full Self-Driving je ne sais pas.
Bon après Tesla aurait du choisir des expressions plus précise pour que les gens comprennent que la voiture ne se conduit pas toute seule.
Quand une entreprise te vend son accès bêta sous le nom de Full Self-Driving, je pense que c'est fait exprès.
7  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
6  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/07/2023 à 23:21
Je ne suis pas un fan de Musk, mais là franchement, il y a de quoi se marrer.

La totalité, je dis bien la totalité des fabricants de voiture falsifient la consommation réelle de leur véhicules!

Les acteurs du secteur automobile se sont mis d'accord pour établir un test de roulement pour établir la consommation moyenne au 100 km qui ne correspond en rien à l'usage normal d'une voiture... Le test a été établi pour s'assurer que la consommation au 100 km soit très inférieure à la réalité.

Tout le monde en a d'ailleurs fait la constatation: Vous achetez un voiture écolo qui indique une consommation de 4,5 litres au 100km? Quand vous vérifiez votre consommation, il s'avère que vous frôlez les 10 litres/100km. Facile ensuite pour votre concessionnaire de vous dire "Mais monsieur, madame, vous avez un usage de votre véhicule qui ne correspond pas à un usage moyen, vous faites trop de trajets en ville ou roulez trop vite sur autoroute".

Idem pour l'autonomie des véhicules électriques, l'autonomie annoncée ne correspond jamais à la réalité "Mais monsieur, madame, vous faites trop de dénivelés... Vous roulez de manière trop sportive, blablabla..."

Et je ne parle pas de la période hivernale, un jour de grand froid et l'autonomie officiellement annoncée est divisée par 2 et puis et puis... Très vite, vous êtes confronté à l'usure de vos batteries dont la capacité de charge baisse de mois en mois...
9  3 
Avatar de Darkzinus
Expert éminent sénior https://www.developpez.com
Le 05/01/2023 à 15:46
Ce que je trouve dingue dans le modèle économique de Tesla c'est que les gens achètent une voiture et un abonnement pour être bêta testeurs.
5  0 
Avatar de marc.collin
Membre émérite https://www.developpez.com
Le 11/01/2023 à 14:00
Il est temps que le gouvernement interdise que le pays devienne un jeu d'expérimentation.
C'est dangereux, il y a eu des mort et cela continue, rien n'est fait
5  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 28/06/2023 à 15:20
Le problème est même pire en fait, car dans ce cas, même le simple régulateur de vitesse avec détection de véhicule de la voiture de mon papa, aurait stoppé la voiture !
5  0