L'Autopilot de Tesla est ce que l'on appelle un système d'aide à la conduite autonome. En termes simples, il s'agit d'une fonction qui permet à une Tesla de « voir » les voitures et la route qui l'entourent, et de se conduire elle-même dans une certaine mesure. Depuis 2016, Tesla commercialise une fonctionnalité plus onéreuse baptisée Full Self-Driving (FSD). Une personne raisonnable pourrait déduire de ce nom que le progiciel permet à une voiture d'être totalement autonome. Mais ce n'est pas le cas. En réalité, aucune voiture disponible à l'achat pour les consommateurs n'est actuellement capable de conduite entièrement autonome.
Le coût du Full Self Driving de Tesla a augmenté de 300 % depuis qu'il a été remanié et rendu disponible à l'achat en 2019. Ceux qui ont eu la chance d'acheter le FSD en avril 2019 l'ont obtenu au prix bradé de 5 000 dollars (il coûte désormais 15 000 dollars aux États-Unis).
Jason Hughes, un hacker bien connu dans le monde Tesla, a récemment qualifié le FSD de Tesla « d'escroquerie flagrante ». Le hacker a accusé la société de prendre l'argent des propriétaires de Tesla en contrepartie d'un logiciel « défectueux » qui est en version bêta depuis sa sortie en 2016. Hughes a exposé un certain nombre de ces problèmes.
Le premier est que Tesla a vendu le logiciel depuis octobre 2016, lorsque la société a déclaré que toutes les voitures vendues à partir de ce moment-là seraient prêtes à devenir des robotaxis. Elon Musk a promis la même chose le 22 avril 2019, lors du Tesla Autonomy Day. Selon le PDG de Tesla, tous ses véhicules électriques fabriqués à partir de ce jour seraient dotés d'un ordinateur appelé HW 3.0 au lieu du précédent, HW 2.5. Cela ne s'est pas produit. L'entreprise continue de livrer des véhicules équipés du HW 2.5 dans plusieurs pays. En Chine, le gouvernement a exigé que Tesla donne aux clients ce qu'il avait annoncé en remplaçant les mauvais ordinateurs.
Pour tous les autres clients dans le monde, Tesla dit simplement qu'ils recevront le matériel approprié sans frais supplémentaires lorsqu'ils pourront utiliser la FSD. Mais tout le monde ignore quand le logiciel quittera la version bêta. Hughes a déclaré que certains propriétaires doivent en fait payer 1000 dollars ou plus pour obtenir le bon matériel dans leurs voitures. Pour aggraver les choses, Tesla décide qui peut utiliser le FSD. Jusqu'à présent, seules les personnes basées aux États-Unis ont accès au logiciel bêta, mais elles doivent avoir un score spécifique dans une application appelée Safety Score Beta, qui est elle-même en version bêta.
En second lieu, Hughes pense que « le FSD n'est qu'un gadget ». Le hacker a déclaré que, selon son « expérience de l'utilisation sur autoroute, c'est comme apprendre à un adolescent à conduire ». « Vous devez être encore plus concentré et attentif que vous ne le seriez normalement », a-t-il déclaré. Selon lui, cela « finit par être plus épuisant par kilomètre parcouru que de simplement conduire soi-même ». En outre, un autre problème que Hughes n'a toutefois pas mentionné est que le FSD a un modèle de propriété particulièrement bizarre : le logiciel n'appartient pas à la voiture à laquelle il est associé ni aux personnes qui la paient.
Plus précisément, si un acheteur du FSD vend la voiture avec le logiciel, il ne peut pas le garder s'il achète une nouvelle Tesla. Le nouveau propriétaire du véhicule ne l'obtient pas non plus : le logiciel disparaît tout simplement. La seule conclusion logique possible est que seule Tesla est propriétaire du FSD. Tout ce que vous payez pour l'acquérir (un abonnement mensuel ou 15 000 dollars) n'est qu'une licence d'utilisation. « Comment pouvez-vous payer pour une fonctionnalité, et votre voiture arrive en EOL (fin de vie) sans jamais y avoir accès ? C'est insensé ! », a déclaré Hughes. Mais le problème va plus loin encore.
Les experts en véhicules autonomes (VA), les défenseurs de la sécurité routière et d'autres critiques classent l'accès au FSD comme un cauchemar de sécurité et veulent l'empêcher à tout prix. Selon des critiques, ce n'est pas un hasard si les investisseurs de Tesla veulent toujours s'assurer que toutes les références au FSD sont suivies d'un mot qui libère Tesla de toute responsabilité : bêta. Cela signifie que le logiciel n'est pas prêt pour la production : il est encore en phase de test. Ainsi, les experts en sécurité routière affirment que seuls les ingénieurs et les conducteurs formés devraient être autorisés à tester le logiciel pour le moment.
Les données de désengagement
Tesla a fait tout son possible pour ne pas publier les données de désengagement que d'autres sociétés développant des systèmes de conduite autonome mettent à disposition. « Désengagement » peut être traduit par dysfonctionnement obligeant le conducteur à reprendre la main. Pour être plus nuancé, un désengagement peut être fait par le système lui-même, ou par le conducteur, afin soit d'éviter un danger, soit de respecter le code de la route. Les kilomètres entre les désengagements ont été des données utiles pour suivre les progrès des programmes de conduite autonome. En toute logique, moins il y a de désengagements, plus la technologie est au point.
Ce n'est pas une mesure parfaite pour suivre les progrès en matière de véhicule autonome, mais c'est l'une des seules que nous ayons en ce moment et nous devrions voir des améliorations au fil du temps avec plus de kilomètres entre le désengagement ou l'intervention du conducteur.
Bien que Tesla ne publie pas les données, un groupe de testeurs bêta de Tesla FSD rapporte lui-même des données depuis un certain temps maintenant, et Taylor Ogan de Snow Bull Capital les a suivis pour voir les progrès.
Selon les données, les kilomètres parcourus par désengagement ont diminué de 54 % depuis mars, et ils se situent actuellement à peu près au même niveau qu'à la même époque l'année dernière :
Sur la base de cet ensemble de données à nouveau limité, Tesla FSD Beta ne peut parcourir que quelques kilomètres entre les désengagements, tandis que d'autres programmes de conduite autonome, comme Waymo et Cruise, signalent en moyenne des dizaines de milliers de kilomètres entre les désengagements.
Ces résultats sont décevants, car ils indiquent très peu ou pas de progrès dans le programme FSD Beta au cours de la dernière année - du moins sur la base de cette métrique.
Toutefois, il faut noter que ces statistiques s'appuient sur les 72 000 miles (115 872 kilomètres) de données autodéclarées, contre plus de 60 millions de miles (96 millions de kilomètres) parcourus sur FSD Beta à ce jour. Par conséquent, il est plus que probable que le plus grand ensemble de données montre des résultats différents, mais il n'y a aucun moyen de le savoir à moins que Tesla ne publie ces données. L'entreprise n'explique pas pourquoi elle ne le fait pas.
Il n'est pas question ici de demander à Tesla de divulguer des informations sensibles sur le programme, mais uniquement des données que toutes les autres entreprises développant des programmes de conduite autonome partagent volontiers depuis des années maintenant.
Les données ont été utilisées pour renforcer la confiance dans ces systèmes, dont certains sont déjà déployés commercialement en Californie et en Arizona.
Au lieu de cela, le PDG de Tesla, Elon Musk, a répété à plusieurs reprises aux gens « d'essayer FSD Beta par eux-mêmes » afin d'évaluer ses progrès. Comme si des preuves anecdotiques seraient plus efficaces pour suivre les progrès que des données concrètes sur les kilomètres par désengagement.
À ce stade, il est difficile de ne pas se méfier de la possibilité que la raison pour laquelle Tesla ne publie pas les données soit que cela semble mauvais pour eux (en particulier par rapport à Waymo et Cruise). Mais sinon, comment le public peut-il gagner la confiance dans le système s'il ne dispose d'aucune donnée tangible indiquant des améliorations ?
D'ailleurs, à ce propos, un internaute a déclaré : « Elon Musk, veuillez publier les données Tesla FSD Beta et montrer le chemin parcouru vers la tenue de vos promesses. Sinon, nous devons nous fier à ces données [ndlr. Les données autodéclarées] pour suivre les progrès, et cela ne semble pas bon ».
Conclusion
L’autonomie des véhicules se définit selon des niveaux :
- Niveau 0 : c’est l’automobiliste reste maître à bord ;
- Niveau 1 : l’ordinateur peut intervenir pour gérer la vitesse ou la direction (régulateur de vitesse, alerte distance de sécurité) mais le conducteur garde le contrôle du véhicule ;
- Niveau 2 : la voiture peut « se conduire » temporairement, en se garant toute seule par exemple (park assist). Le conducteur reste responsable de la conduite ;
- Niveau 3 : le conducteur peut déléguer la conduite à l’ordinateur dans certaines situations comme les bouchons. La fonction embouteillage du XC 90 de Volvo illustre parfaitement ce niveau. L’ordinateur peut aussi indiquer au conducteur quand il doit reprendre le véhicule en main ;
- Niveau 4 : plus besoin du conducteur dans certains cas prédéfinis ; le véhicule dépose son conducteur, se gare seul et revient chercher son propriétaire ;
- Niveau 5 : la voiture est totalement autonome et contrôle toutes les fonctions du véhicule. Le conducteur peut être présent… ou non.
Certains véhicules atteignent le niveau 4. Nous pouvons citer le service de taxis autonomes RoboRide développé par Hyundai en Corée du Sud. Cependant, ce n'est pas encore le cas des Tesla et les noms de baptême de ses fonctionnalités comme Autopilot et Full Self-Driving peuvent prêter à confusion. D'ailleurs, certains élus ont suggéré que l'entreprise soit forcée à les changer pour ne pas induire les acheteurs en erreur.
Par ailleurs, rappelons que le nouveau Drive Pilot de Mercedes ressemble, dans son mode de fonctionnement, à de nombreuses technologies d'assistance à la conduite déjà commercialisées aujourd'hui. Sur certaines autoroutes allemandes, en dessous de 60 km/h, une Classe S ou EQS équipée de Drive Pilot prendra le contrôle de la vitesse, de la direction et des freins de la voiture pour vous déplacer dans la circulation. Mais il y a une différence clef : une fois que vous avez engagé Drive Pilot, vous n'êtes plus légalement responsable du fonctionnement de la voiture jusqu'à ce qu'elle se désengage. Vous pouvez détourner le regard, regarder un film ou sortir. Si la voiture tombe en panne pendant que Drive Pilot fonctionne, c'est le problème de Mercedes, pas le vôtre.
La volonté de Mercedes d'accepter la responsabilité de ses véhicules semi-autonomes augmentera sûrement ses chances de satisfaire les différents régulateurs. Bien que la distinction puisse sembler juridiquement farfelue, la suppression de la responsabilité du conducteur a nécessité une amélioration technologique massive par rapport aux systèmes de niveau 2 existants.
Pour rappel, les systèmes semi-autonomes les plus avancés disponibles aux États-Unis, y compris Tesla Autopilot et GM SuperCruise, relèvent toujours du niveau 2, où le conducteur est censé superviser activement le système et être prêt à prendre le relais instantanément chaque fois que le système se désengage.
Drive Pilot a plus de redondances, avec des alimentations supplémentaires pour les systèmes critiques. Il utilise un traitement d'image de meilleure qualité et des scanners LiDAR, et rassemble les données de positionnement des satellites GPS, Galileo et GLONASS pour le guidage. Contrairement à tous les systèmes d'aide à la conduite actuellement disponibles, Drive Pilot est conçu pour donner aux conducteurs un avertissement de 10 secondes avant de s'éteindre ; les ingénieurs devaient s'assurer que, dans chaque situation, le système transmettrait le contrôle en toute sécurité et sans erreur.
Sources : FSD Beta Community, Taylor Ogan (1, 2, 3)
Et vous ?
Que pensez-vous du Full Self-Driving ? Ce nom prêterait-il à confusion selon vous ?
Qu'est-ce qui pourrait expliquer pourquoi Tesla ne publie pas de données de désengagement comme ses pairs ?
Les données autopubliées sont-elles représentatives de l'évolution de FSD ? Pourquoi ?
Partagez-vous le point de vue des internautes estimant que Tesla conserve le Bêta depuis des années sur FSD pour éviter d'engager sa responsabilité ?
D'ailleurs, en cas d'accident avec FSD activé, qui devrait être responsable selon vous ? Tesla ou le conducteur ?
Voir aussi :
« L'une des actions les plus dangereuses et irresponsables d'une entreprise automobile depuis des décennies ». L'activiste Ralph Nader demande aux régulateurs de rappeler la technologie FSD de Tesla
Mercedes engage sa responsabilité lorsque son pilote de conduite autonome de niveau 3 Drive Pilot est activé. Mercedes sera le premier constructeur automobile à accepter la responsabilité
Les conducteurs humains au Royaume-Uni ne seront pas responsables des accidents lorsque la conduite autonome est activée