Plus tôt ce mois-ci, le Department of Motor Vehicles (DMV) de Californie a accusé Tesla de faire des « déclarations fausses ou trompeuses » sur les capacités de conduite autonome de ses véhicules. Le DMV allègue que les noms Autopilot et FSD, ainsi que le langage utilisé par Tesla pour les décrire, pourraient tromper les utilisateurs en leur faisant croire que les véhicules peuvent fonctionner de manière autonome.
En août dernier, les sénateurs Ed Markey (D-MA) et Richard Blumenthal (D-CT) ont demandé à la Federal Trade Commission d'enquêter sur la manière dont Tesla fait la publicité de ses logiciels FSD et Autopilot. Les deux législateurs ont ensuite envoyé une lettre à Musk pour « exprimer des inquiétudes importantes » concernant le système d'assistance à la conduite de Tesla, auquel Tesla a répondu en disant que son système pouvait aider les clients à « conduire de manière plus sûre que le conducteur moyen aux États-Unis ».
Tesla a annoncé une augmentation du prix de son logiciel Full-Self Driving (FSD) qui passera à 15 000 $. Dans un message sur Twitter, le PDG de Tesla, Elon Musk, a annoncé que le nouveau prix entrera en vigueur en Amérique du Nord à partir du 5 septembre, ce qui représente un bond de 3 000 $.
Les conducteurs qui commandent un véhicule avant le 5 septembre n'auront pas à payer le prix nouvellement augmenté, a indiqué Musk. La hausse des prix intervient alors que Tesla commence à déployer la version bêta 10.69 de FSD pour les conducteurs, une version que Musk appelle « un grand pas en avant ». On ne sait toujours pas si Tesla prévoit d'augmenter le prix de son abonnement FSD, qui coûte actuellement 199 $ par mois.
Le logiciel FSD permet aux conducteurs d'utiliser le système avancé d'aide à la conduite (ADAS) de Tesla, Autopilot, pour naviguer vers et depuis des destinations spécifiques, entre autres fonctions d'assistance à la conduite. FSD ne rend pas un véhicule entièrement autonome*; il oblige les conducteurs à garder les mains sur le volant et à faire attention à la route en tout temps.
Le prix de la version bêta FSD de Tesla a lentement augmenté au fil des ans et a coûté 5 000 $ au lancement. Mais lorsque Tesla a commencé à déployer la version bêta de FSD auprès d'un groupe restreint de clients en octobre 2020, le prix a augmenté à 10 000 $. En septembre 2021, Tesla a commencé à ouvrir la version bêta à davantage de clients via un nouveau bouton « demande » avant d'augmenter le prix à 12 000 $ plus tôt cette année.
En 2019, Musk a qualifié les véhicules Tesla « d'actifs appréciés », ce qui signifie qu'ils prendront de la valeur à mesure que Tesla lancera des fonctionnalités supplémentaires d'assistance à la conduite. Musk a affirmé plus tard que « la valeur de FSD » pourrait atteindre plus de 100 000 dollars « à mesure que le logiciel se rapproche de la pleine capacité d'autoconduite avec l'approbation réglementaire ».
Des véhicules Teslas exécutant Autopilot étaient impliqués dans 273 accidents signalés depuis l'année dernière
Les véhicules Tesla exécutant son logiciel Autopilot ont été impliqués dans 273 accidents signalés au cours de l'année écoulée environ, selon les régulateurs, bien plus que ce que l'on savait auparavant. Un rapport qui fournit des preuves concrètes concernant les performances réelles des fonctionnalités futuristes de Tesla.
Les chiffres, qui ont été publiés par la National Highway Traffic Safety Administration en juin 2022, montrent que les véhicules Tesla représentaient près de 70% des 392 accidents impliquant des systèmes avancés d'assistance à la conduite signalés depuis juillet 2021, et la majorité des décès et blessures graves, dont certaines remontent à plus d'un an. Huit des accidents de Tesla ont eu lieu avant juin 2021, selon les données publiées par la NHTSA.
Auparavant, la NHTSA avait déclaré avoir enquêté sur 42 accidents impliquant potentiellement l'assistance au conducteur, dont 35 incluaient des véhicules Tesla, dans un ensemble de données plus limité qui remontait à 2016.
Sur les six décès répertoriés dans l'ensemble de données publié mercredi, cinq étaient liés à des véhicules Tesla – dont un accident de juillet 2021 impliquant un piéton à Flushing, dans le Queens, et un accident mortel en mars à Castro Valley, en Californie. Certains remontaient à 2019.
Tesla Autopilot est une suite de systèmes qui permet aux conducteurs de céder le contrôle physique de leurs véhicules électriques, bien qu'ils doivent faire attention à tout moment. Les voitures peuvent maintenir la vitesse et la distance de sécurité derrière les autres voitures, rester dans leurs lignes de voie et effectuer des changements de voie sur les autoroutes. Un ensemble étendu de fonctionnalités encore en version bêta, le "Full Self-Driving", ajoute la possibilité de manœuvrer dans les rues urbaines et résidentielles, de s'arrêter aux panneaux d'arrêt et aux feux de circulation, et de faire des virages tout en naviguant d'un point à un autre.
Mais certains experts en sécurité des transports ont exprimé des inquiétudes quant à la sécurité de la technologie, car elle est testée et formée sur les routes publiques avec d'autres conducteurs. Les autorités fédérales ont ciblé Tesla ces derniers mois avec un nombre croissant d'enquêtes, de rappels et même d'avertissements publics dirigés contre l'entreprise.
Le nouvel ensemble de données découle d'une ordonnance fédérale de l'été dernier obligeant les constructeurs automobiles à signaler les accidents impliquant l'assistance à la conduite afin d'évaluer si la technologie présentait des risques pour la sécurité. Il a été constaté que les véhicules de Tesla éteignaient le système avancé d'assistance à la conduite, Autopilot, environ une seconde avant l'impact, selon les régulateurs.
L'ordonnance de la NHTSA obligeait les fabricants à divulguer les plantages où le logiciel était utilisé dans les 30 secondes suivant le crash, en partie pour atténuer la crainte que les fabricants cachent les plantages en affirmant que le logiciel n'était pas utilisé au moment de l'impact.
« Ces technologies sont très prometteuses pour améliorer la sécurité, mais nous devons comprendre comment ces véhicules fonctionnent dans des situations réelles », a déclaré l'administrateur de la NHTSA, Steven Cliff, lors d'un appel aux médias concernant l'ensemble complet de données des fabricants.
Tesla a déclaré qu'Autopilot est plus sûr que la conduite normale lorsque les données d'accident sont comparées. La société a également souligné le grand nombre de décès par accident de la circulation sur les routes américaines chaque année, estimé par la NHTSA à 42 915 en 2021, saluant la promesse de technologies comme Autopilot à « réduire la fréquence et la gravité des accidents de la circulation et sauver des milliers de vies chaque année ».
Les données opposant la conduite normale à Autopilot ne sont pas directement comparables, car Autopilot fonctionne en grande partie sur les autoroutes. Le PDG de Tesla, Elon Musk, avait cependant décrit Autopilot comme « sans équivoque plus sûr ».
Les politiques s'en mêlent
Des entreprises telles que Tesla collectent plus de données que d'autres constructeurs automobiles, ce qui pourrait les laisser surreprésentées dans les données, selon des experts des systèmes ainsi que certains responsables qui se sont exprimés sous couvert d'anonymat pour décrire franchement les résultats. Tesla pilote également une grande partie de la technologie, dont certaines sont livrées en standard sur ses voitures, la mettant entre les mains d'utilisateurs qui se familiarisent plus rapidement avec elle et l'utilisent dans une plus grande variété de situations.
Plusieurs législateurs ont pesé sur le rapport de la NHTSA, certains appelant à une enquête plus approfondie et à d'éventuelles normes de sécurité pour les voitures dotées de la technologie. Le sénateur Richard Blumenthal (D-Conn.) a qualifié les découvertes de « profondément alarmantes ».
« C'est une sonnette d'alarme qui confirme bon nombre des avertissements que nous avons lancés au fil des ans », a-t-il déclaré. « La fréquence et la gravité de ces accidents sont une cause de carte jaune et peut-être de carton rouge sur certaines de ces technologies ».
Blumenthal et le sénateur Edward J. Markey (D-Mass.) ont précédemment critiqué Tesla pour avoir mis des logiciels sur les routes « sans pleinement tenir compte de ses risques et de ses implications ». Lors d'un appel avec les médias mercredi, Markey a dénoncé l'affirmation de Tesla selon laquelle la technologie d'Autopilot rend les voitures plus sûres.
« Ce rapport fournit des preuves supplémentaires qui freinent les affirmations de Tesla », a-t-il déclaré.
Les sénateurs ont envoyé une lettre à la NHTSA, disant qu'ils étaient « profondément troublés » par les données et appelant le régulateur « à utiliser toutes ses autorités d'enquête et de réglementation pour faire la lumière nécessaire sur cette industrie incontrôlable et imposer des garde-fous pour empêcher plus de décès ».
Dans la lettre, les sénateurs ont spécifiquement souligné les 273 accidents « stupéfiants » signalés par Tesla.
Tesla licencie un employé qui a publié sur YouTube des vidéos d'un accident impliquant le Full Self-Driving
Les employés ont-ils le droit de critiquer en public les échecs ou les produits de leur entreprise ? La question divise l'opinion depuis que l'histoire de John Bernal, ex-employé de Tesla, a été publiée par les médias américains. Bernal a confié qu'il a commencé par créer ces vidéos depuis environ un an et a mis en place une chaîne YouTube, "AI Addict", pour les partager et montrer comment la version bêta du FSD fonctionnait dans différents endroits de la Silicon Valley. Bernal a posté le 4 février dernier une vidéo d'un accident "mineur" dans lequel sa voiture Tesla, avec le FSD activé, a heurté une borne qui semble séparer une voie réservée aux voitures d'une voie pour vélos à San Jose.
Dans une vidéo ultérieure publiée le 7 février, présentant une analyse image par image de la collision, Bernal a déclaré que "peu importe à quel point cet accident était mineur, c'est la première collision de la bêta du FSD filmée par une caméra qui est irréfutable". Cependant, son licenciement et la coupure de la version bêta du FSD sont intervenus peu de temps après ces deux publications. « J'ai été licencié de Tesla en février et mon YouTube a été cité comme le motif de mon licenciement, même si mes téléchargements sont effectués dans mon véhicule personnel, en dehors du temps ou de la propriété de l'entreprise, avec un logiciel que j'ai payé », a déclaré Bernal.
Il fait cette déclaration dans un vidéo qu'il a publié en mars sur sa chaîne YouTube. En effet, Bernal a commencé à travailler pour Tesla en tant que spécialiste de l'annotation de données en août 2020 dans un bureau de San Mateo, en Californie. Il a commandé une Model 3 de 2021 avec une batterie dotée d'une longue autonomie quelques mois après avoir commencé à y travailler. Il a pris livraison de la voiture le 26 décembre 2020. Dans des déclarations aux médias, il a déclaré avoir acheté la voiture en partie parce que Tesla offrait aux employés un accès gratuit au FSD - qui valait alors 8 000 dollars - en tant qu'avantage.
En échange, les employés devaient accepter de donner à l'entreprise le droit de collecter les données internes et externes des véhicules. C'est la voiture qui lui permet de faire les tests du FSD. La plupart des vidéos d'AI Addict montrent Bernal en train de parcourir la Silicon Valley avec un ami dans sa Tesla, en utilisant les dernières versions du logiciel FSD Beta. Il n'est pas le seul à poster ses expériences avec le logiciel expérimental de Tesla. Les utilisateurs de version bêta du FSD de Tesla comme Dirty Tesla, Chuck Cook, Kim Paquette et bien d'autres s'empressent de passer en revue chaque nouvelle version sur leurs chaînes.
Lorsque Tesla a licencié Bernal le mois dernier, son avis de licenciement écrit ne mentionnait pas la raison de son licenciement. Mais Bernal a déclaré qu'avant d'être licencié, ses supérieurs lui ont notifié verbalement qu'il avait enfreint la politique de Tesla et que sa chaîne YouTube constituait un "conflit d'intérêts". Cependant, il a déclaré qu'il a toujours été transparent au sujet de sa chaîne YouTube, tant avec ses managers chez Tesla qu'avec le public. Son CV en ligne sur LinkedIn, par exemple, mentionnait toujours son emploi chez Tesla juste à côté du nom de sa chaîne YouTube.
Bernal a déclaré qu'il n'avait jamais vu de politique l'empêchant de créer des critiques techniques de voitures sur son temps libre et sur sa propre propriété. Une copie de la politique de Tesla en matière de médias sociaux, fournie par un employé actuel à CNBC, ne fait aucune référence directe à la critique des produits de la société en public. La politique stipule que "Tesla s'en remet au bon sens et au bon jugement de ses employés pour s'engager dans une activité responsable sur les médias sociaux". Elle énumère les réseaux sociaux, notamment Facebook, Twitter, Instagram, Reddit, Snapchat, LinkedIn, WeChat et les blogs personnels.
Mais elle ne mentionne pas spécifiquement YouTube. Bernal a déclaré qu'il n'a jamais divulgué quoi que ce soit dans ses vidéos que Tesla n'avait pas divulgué au public. « Les versions bêta du FSD dont je faisais la démonstration étaient des produits de consommation destinés aux utilisateurs finaux », a-t-il déclaré. Toutefois, ses vidéos montraient parfois des problèmes avec la bêta du FSD de Tesla. Par exemple, en mars 2021, AI Addict a publié une vidéo intitulée "FSD Beta 8.2 Oakland - Close Calls, Pedestrians, Bicycles !" qui montrait sa voiture subissant plusieurs "désengagements".
C'est là que le FSD demande à Bernal de reprendre la direction manuellement pour éviter le danger. À 11 minutes et 58 secondes dans la vidéo, le FSD commence à s'engager dans une intersection juste au moment où un véhicule traverse devant la Model 3 de Bernal. Il a évité de justesse de heurter l'autre voiture. Bernal a déclaré dernièrement : « après la diffusion de la vidéo, un responsable de mon équipe Autopilot a essayé de me dissuader de publier à l'avenir tout contenu négatif ou critique concernant le FSD. Ils ont tenu une vidéoconférence avec moi, mais n'ont jamais rien mis par écrit ».
Source : Elon Musk
Et vous ?
Que pensez-vous de Full Self-Driving ?
Qu'est-ce qui pourrait, selon vous, expliquer cette augmentation de prix ?
Voir aussi :
Tesla augmente le prix du logiciel Full Self Driving (FSD) à 12 000 $ aux États-Unis le 17 janvier, a annoncé le président-directeur général, Elon Musk, sur Twitter
Le mode Full Self-Driving de Tesla a tellement énervé cet homme qu'il se présente au Sénat, Dan O'Dowd est mécontent du fait que le logiciel bêta de Tesla soit testé sur la voie publique