Un conducteur de Tesla a déclaré qu'il était toujours un utilisateur fidèle du Full Self-Driving
Même après avoir percuté un autre véhicule alors qu'il utilisait Autopilot
Le 2023-01-20 23:37:39, par Stéphane le calme, Chroniqueur Actualités
Le conducteur de Tesla, Dave Key, n'a pas tardé à défendre le logiciel d'assistance à la conduite du constructeur de voitures électriques, même des années après avoir eu un accident en utilisant Autopilot, selon un récent rapport du New York Times.
L'ancien entrepreneur en logiciels de 69 ans a déclaré au quotidien que malgré l'accident, il pense que le logiciel Full Self-Driving, qui est encore en bêta, a le potentiel de sauver des vies, ajoutant que même les accidents mortels ne devraient pas nuire à la vision plus large des véhicules autonomes. « En tant que société, nous choisissons la voie pour sauver le plus de vies », a-t-il déclaré au New York Times.
Le 29 mai 2018, la Tesla Model S 2015 de Dave Key le ramenait chez le dentiste en mode Autopilot. C'était un itinéraire que Key avait suivi d'innombrables fois auparavant : une autoroute à deux voies menant aux collines au-dessus de Laguna Beach, en Californie. Mais lors de ce voyage, alors que Key était distrait, la voiture a dérivé hors de sa voie et a percuté l'arrière d'un S.U.V. de police garé, faisant tourner la voiture et poussant le S.U.V. jusqu'au trottoir. Personne n'a été blessé, mais la Tesla était en piteux état.
Key, un ancien entrepreneur en logiciels de 69 ans, a opté pour une perspective impartiale sur son propre accident, revêtant sa casquette d'ingénieur : « Le problème avec les objets fixes - je suis désolé, cela semble stupide - c'est qu'ils ne bougent pas », a-t-il déclaré. Pendant des années, l'intelligence artificielle de Tesla a eu du mal à séparer les objets immobiles de l'arrière-plan. Plutôt que de se sentir frustré que l'ordinateur n'ait pas compris un problème aussi élémentaire, Key s'est rassuré en apprenant qu'il y avait une raison derrière l'accident : une limitation logicielle connue, plutôt qu'une sorte d'événement de cygne noir.
En clair, c'était un problème auquel d'autres utilisateurs d'Autopilot ont été confrontés.
L'année dernière, la National Highway and Traffic Safety Administration (NHTSA) a mis à niveau son enquête sur plus d'une douzaine de véhicules Tesla qui se sont écrasés contre des véhicules d'urgence alors qu'ils utilisaient Autopilot. L'agence a déclaré que la fonction d'assistance au conducteur avait du mal à identifier les véhicules en stationnement.
Pourtant, depuis l'accident, Key a acheté trois autres Teslas et continue d'utiliser à la fois Autopilot et le FSD, ajoutant que le logiciel s'est amélioré pour surveiller l'attention du conducteur sur la route grâce à une fonction de rappel qui suit la pression sur le volant et le mouvement des yeux du conducteur.
Envoyé par New York Times
Depuis la sortie d'Autopilot en octobre 2015, Musk a encouragé les conducteurs à le considérer comme plus avancé qu'il ne l'était, déclarant en janvier 2016 qu'il était « probablement meilleur » qu'un conducteur humain. En novembre de la même année, la société a publié une vidéo d'une Tesla naviguant sur les routes de la Bay Area avec l'indication suivante : « La personne à la place du conducteur n'est là que pour des raisons légales. Elle ne fait rien. La voiture se conduit toute seule ». Musk a également rejeté le nom « Copilot » en faveur « d'Autopilot ».
La vidéo datant de 2016 faisant la promotion de la conduite autonome de Tesla
Les petits caractères indiquaient clairement que la technologie était uniquement destinée à l'assistance au conducteur, mais ce message n'a reçu qu'une fraction de l'attention des annonces de Musk. Un grand nombre de conducteurs semblaient vraiment confus quant aux capacités d'Autopilot (d'ailleurs, Tesla a également refusé de divulguer que la voiture de la vidéo de 2016 s'est écrasée dans le parking de l'entreprise, ce qui a été souligné par un ingénieur de Tesla qui a reconnu que la vidéo de 2016 faisant la promo de la conduite autonome du véhicule était truquée).
Tesla fait face à plusieurs plaintes
Malheureusement pour Musk, le court terme passe avant tout et son entreprise fait face à quelques mois difficiles. En février, le premier procès contre Tesla pour un accident impliquant Autopilot sera jugé. Quatre autres suivront coup sur coup. Donald Slavik, qui représentera les plaignants dans pas moins de trois de ces affaires, affirme qu'un constructeur automobile normal aurait déjà choisi de régler l'affaire à l'amiable : « Ils considèrent cela comme un coût pour faire des affaires ». Musk a juré de se battre devant les tribunaux, quels que soient les dangers que cela pourrait présenter pour Tesla. « Les dollars peuvent vite s'additionner », a déclaré Slavik, « surtout s'il y a des dommages-intérêts punitifs ».
Dans l'une des plaintes qu'il a déposées contre Tesla, Slavik a répertorié les principaux accidents impliquant Autopilot de A à WW. En Chine, une Tesla a percuté une balayeuse. En Floride, une Tesla a heurté un semi-remorque sur une autoroute. Lors d'une averse dans l'Indiana, une Tesla Model 3 a quitté la route et s'est enflammée. Dans les Florida Keys, une Model S a traversé une intersection et a tué un piéton. À New York, une Model Y a heurté un homme qui changeait son pneu sur l'accotement de la Long Island Expressway. Dans le Montana, une Tesla a percuté de manière inattendue une barrière d'autoroute. Puis la même chose s'est produite à Dallas, à Mountain View et à San Jose.
En fait, les nombreuses revendications des poursuites en cours reviennent à un seul thème : Tesla a constamment gonflé les attentes des consommateurs et minimisé les dangers encourus. Les voitures n'étaient pas suffisamment surveillées par le conducteur, car Musk ne voulait pas que les conducteurs pensent que la voiture avait besoin d'une surveillance humaine.
Pour mémoire, en avril 2019, Musk a déclaré : « Si vous avez un système dont la fiabilité est égale ou inférieure au niveau humain, alors la surveillance du conducteur a du sens. Mais si votre système est nettement meilleur, plus fiable qu'un humain, alors la surveillance n'aide pas beaucoup ».
Les conducteurs n'ont pas été avertis des problèmes de freinage automatique ou des « changements de voie non commandés ». La société a fini par admettre les limites de la technologie dans son manuel d'utilisation, mais a publié des vidéos virales d'une Tesla conduisant sur un itinéraire compliqué sans intervention humaine.
« La raison de votre accident ou la raison de votre incident retombe toujours sur vous »
Le client idéal de Musk est quelqu'un comme Key, prêt à accepter le blâme quand quelque chose ne va pas, mais possédant une foi presque illimitée dans la prochaine mise à jour. Dans une déposition, un ingénieur de Tesla l'a dit de manière tout à fait explicite : « Nous voulons faire savoir au client que, tout d'abord, vous devez avoir confiance en votre véhicule : tout fonctionne comme il se doit. Ensuite, la raison de votre accident ou la raison de votre incident retombe toujours sur vous ».
Comme pour illustrer ces propos, pendant qu'ils [Key et le journaliste] roulaient et que sa Tesla a raté un virage à gauche, Key a rapidement diagnostiqué le problème : si seulement le système avait été mis à niveau vers FSD 10.69, a-t-il soutenu, la voiture aurait sûrement réussi le virage en toute sécurité.
Malheureusement pour Musk, tous les propriétaires de Tesla ne sont pas comme Dave Key. Les plaignants dans les procès Autopilot pourraient convenir que l'IA s'améliore, mais seulement sur le dos des premiers utilisateurs et des passants qui pourraient être tués en cours de route.
En ligne, il y a une bataille entre les factions pro-Musk et anti-Musk à propos d'Autopilot et du FSD.
Key est loin d'être le seul conducteur Tesla à signaler des problèmes avec le logiciel, mais à continuer de soutenir la vision d'Elon Musk pour l'entreprise. Par exemple, un autre quotidien a précédemment rapporté qu'un conducteur de Tesla avait effectué un trajet sur 6 392 miles (environ 10 286 kilomètres) en utilisant principalement Autopilot et FSD et continuait de considérer le programme comme une « bouée de sauvetage » malgré la rencontre de bogues dans le logiciel.
Source : The New York Times Magazine
Et vous ?
Comprenez-vous la perspective de Dave Key ? Partagez-vous son point de vue ? Dans quelle mesure ?
« La raison de votre accident ou la raison de votre incident retombe toujours sur vous », êtes-vous d'accord avec les propos tenus par cet ingénieur de Tesla ? Pourquoi ?
L'ancien entrepreneur en logiciels de 69 ans a déclaré au quotidien que malgré l'accident, il pense que le logiciel Full Self-Driving, qui est encore en bêta, a le potentiel de sauver des vies, ajoutant que même les accidents mortels ne devraient pas nuire à la vision plus large des véhicules autonomes. « En tant que société, nous choisissons la voie pour sauver le plus de vies », a-t-il déclaré au New York Times.
Le 29 mai 2018, la Tesla Model S 2015 de Dave Key le ramenait chez le dentiste en mode Autopilot. C'était un itinéraire que Key avait suivi d'innombrables fois auparavant : une autoroute à deux voies menant aux collines au-dessus de Laguna Beach, en Californie. Mais lors de ce voyage, alors que Key était distrait, la voiture a dérivé hors de sa voie et a percuté l'arrière d'un S.U.V. de police garé, faisant tourner la voiture et poussant le S.U.V. jusqu'au trottoir. Personne n'a été blessé, mais la Tesla était en piteux état.
Key, un ancien entrepreneur en logiciels de 69 ans, a opté pour une perspective impartiale sur son propre accident, revêtant sa casquette d'ingénieur : « Le problème avec les objets fixes - je suis désolé, cela semble stupide - c'est qu'ils ne bougent pas », a-t-il déclaré. Pendant des années, l'intelligence artificielle de Tesla a eu du mal à séparer les objets immobiles de l'arrière-plan. Plutôt que de se sentir frustré que l'ordinateur n'ait pas compris un problème aussi élémentaire, Key s'est rassuré en apprenant qu'il y avait une raison derrière l'accident : une limitation logicielle connue, plutôt qu'une sorte d'événement de cygne noir.
En clair, c'était un problème auquel d'autres utilisateurs d'Autopilot ont été confrontés.
L'année dernière, la National Highway and Traffic Safety Administration (NHTSA) a mis à niveau son enquête sur plus d'une douzaine de véhicules Tesla qui se sont écrasés contre des véhicules d'urgence alors qu'ils utilisaient Autopilot. L'agence a déclaré que la fonction d'assistance au conducteur avait du mal à identifier les véhicules en stationnement.
Pourtant, depuis l'accident, Key a acheté trois autres Teslas et continue d'utiliser à la fois Autopilot et le FSD, ajoutant que le logiciel s'est amélioré pour surveiller l'attention du conducteur sur la route grâce à une fonction de rappel qui suit la pression sur le volant et le mouvement des yeux du conducteur.
La vidéo datant de 2016 faisant la promotion de la conduite autonome de Tesla
Les petits caractères indiquaient clairement que la technologie était uniquement destinée à l'assistance au conducteur, mais ce message n'a reçu qu'une fraction de l'attention des annonces de Musk. Un grand nombre de conducteurs semblaient vraiment confus quant aux capacités d'Autopilot (d'ailleurs, Tesla a également refusé de divulguer que la voiture de la vidéo de 2016 s'est écrasée dans le parking de l'entreprise, ce qui a été souligné par un ingénieur de Tesla qui a reconnu que la vidéo de 2016 faisant la promo de la conduite autonome du véhicule était truquée).
Tesla fait face à plusieurs plaintes
Malheureusement pour Musk, le court terme passe avant tout et son entreprise fait face à quelques mois difficiles. En février, le premier procès contre Tesla pour un accident impliquant Autopilot sera jugé. Quatre autres suivront coup sur coup. Donald Slavik, qui représentera les plaignants dans pas moins de trois de ces affaires, affirme qu'un constructeur automobile normal aurait déjà choisi de régler l'affaire à l'amiable : « Ils considèrent cela comme un coût pour faire des affaires ». Musk a juré de se battre devant les tribunaux, quels que soient les dangers que cela pourrait présenter pour Tesla. « Les dollars peuvent vite s'additionner », a déclaré Slavik, « surtout s'il y a des dommages-intérêts punitifs ».
Dans l'une des plaintes qu'il a déposées contre Tesla, Slavik a répertorié les principaux accidents impliquant Autopilot de A à WW. En Chine, une Tesla a percuté une balayeuse. En Floride, une Tesla a heurté un semi-remorque sur une autoroute. Lors d'une averse dans l'Indiana, une Tesla Model 3 a quitté la route et s'est enflammée. Dans les Florida Keys, une Model S a traversé une intersection et a tué un piéton. À New York, une Model Y a heurté un homme qui changeait son pneu sur l'accotement de la Long Island Expressway. Dans le Montana, une Tesla a percuté de manière inattendue une barrière d'autoroute. Puis la même chose s'est produite à Dallas, à Mountain View et à San Jose.
En fait, les nombreuses revendications des poursuites en cours reviennent à un seul thème : Tesla a constamment gonflé les attentes des consommateurs et minimisé les dangers encourus. Les voitures n'étaient pas suffisamment surveillées par le conducteur, car Musk ne voulait pas que les conducteurs pensent que la voiture avait besoin d'une surveillance humaine.
Pour mémoire, en avril 2019, Musk a déclaré : « Si vous avez un système dont la fiabilité est égale ou inférieure au niveau humain, alors la surveillance du conducteur a du sens. Mais si votre système est nettement meilleur, plus fiable qu'un humain, alors la surveillance n'aide pas beaucoup ».
Les conducteurs n'ont pas été avertis des problèmes de freinage automatique ou des « changements de voie non commandés ». La société a fini par admettre les limites de la technologie dans son manuel d'utilisation, mais a publié des vidéos virales d'une Tesla conduisant sur un itinéraire compliqué sans intervention humaine.
« La raison de votre accident ou la raison de votre incident retombe toujours sur vous »
Le client idéal de Musk est quelqu'un comme Key, prêt à accepter le blâme quand quelque chose ne va pas, mais possédant une foi presque illimitée dans la prochaine mise à jour. Dans une déposition, un ingénieur de Tesla l'a dit de manière tout à fait explicite : « Nous voulons faire savoir au client que, tout d'abord, vous devez avoir confiance en votre véhicule : tout fonctionne comme il se doit. Ensuite, la raison de votre accident ou la raison de votre incident retombe toujours sur vous ».
Comme pour illustrer ces propos, pendant qu'ils [Key et le journaliste] roulaient et que sa Tesla a raté un virage à gauche, Key a rapidement diagnostiqué le problème : si seulement le système avait été mis à niveau vers FSD 10.69, a-t-il soutenu, la voiture aurait sûrement réussi le virage en toute sécurité.
Malheureusement pour Musk, tous les propriétaires de Tesla ne sont pas comme Dave Key. Les plaignants dans les procès Autopilot pourraient convenir que l'IA s'améliore, mais seulement sur le dos des premiers utilisateurs et des passants qui pourraient être tués en cours de route.
En ligne, il y a une bataille entre les factions pro-Musk et anti-Musk à propos d'Autopilot et du FSD.
Key est loin d'être le seul conducteur Tesla à signaler des problèmes avec le logiciel, mais à continuer de soutenir la vision d'Elon Musk pour l'entreprise. Par exemple, un autre quotidien a précédemment rapporté qu'un conducteur de Tesla avait effectué un trajet sur 6 392 miles (environ 10 286 kilomètres) en utilisant principalement Autopilot et FSD et continuait de considérer le programme comme une « bouée de sauvetage » malgré la rencontre de bogues dans le logiciel.
Source : The New York Times Magazine
Et vous ?
-
DarkzinusExpert éminent séniorC'est beau une inscription sur le site spécialement pour défendre Tesla. Chef de projet SSII pour le service communication de la marque ?le 23/04/2024 à 11:37
-
sergio_is_backExpert confirméDans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!le 17/05/2023 à 13:40
-
petitoursMembre chevronnéIl ne fait pas de réduction sur son outil de conduite autonome, il ne fait que donner un prix plus raisonnable à un truc inutile et pas du tout autonome.
Il ne lui reste plus qu'à en changer le nom pour ne plus mentir.le 22/04/2024 à 12:23 -
totozorMembre expertChat perché je ne suis pas développeur.
Ne vous demandez-vous pas pourquoi le moindre pneu crevé d'une Tesla en Australie fait la une des journaux ? Pourquoi le moindre accident impliquant une Tesla fait la une de tous les journaux ?
Pourquoi les utilisateurs deviennent-ils fans alors que ceux qui n'ont jamais conduit crachent dessus ?
Pourquoi les médias européens reprennent-ils comme des perroquets la moindre information américaine alors que l'on sait que Musk est politiquement visé ?complotistepolitique de Musk.
Pourquoi ne parle-t-on que des rappels de Tesla alors que Mercedes ou BMW en font davantage mais ne sont jamais mentionnés dans les médias ?
Par exemple Mercedes engage sa responsabilité quand son "autopilot" est activé, Tesla fait son max pour n'être responsable de rien.
Pourquoi parle-t-on toujours de piratage alors que ce sont les voitures les plus sûres à ce niveau ?
Pourquoi, pourquoi, pourquoi ?
On appelle ça le revers de la médaille.Tesla n'est pas parfaite, mais ce sont clairement les meilleures voitures au meilleur prix avec une technologie de pointe qui devrait être admirée par tout développeur digne de ce nom.
Vous avez le meilleur programme mais son utilisation est physiquement dangereuse.
Il en va de même pour le FSD, les médias racontent n'importe quoi. Il suffit qu'une jante soit rayée pour invalider la technologie
Une voiture qui freine en plein milieu de l'autoroute sans obstacle c'est inquiétant, non?
Arrive-t-il a des chauffeurs de faire de même? Oui, mais ils ne crient pas partout qu'ils conduisent mieux que quiconque.
alors qu'elle a déjà parcouru plus d'1 milliard de kilomètres et évité de nombreux accidents (curieusement, on n'en entend jamais parler, pourquoi ?).
Combien de news racontent l'histoire de Gérard qui a sauvé un petit vieux de je ne sais quoi?
Combien de news racontent l'histoire de Géraldine qui donne une pièce à un SDF?
Combien de news racontent l'histoire de Marcel/Antoine/Melissa/Sophie qui ont bien géré leur freinage d'urgence et évité un accident?
Je sais bien que Tesla ne dépense pas un centime en publicité, ce qui explique en partie cette haine des médias, mais il y a aussi un aspect politique visant à dévaloriser ses entreprises.
Elon Musk était contre la pub, mais après avoir racheté Twitter, il a demandé à Tesla de dépenser 200 000 $ en publicité sur X, et de payer des comptes premium sur X
Je veux bien un salaire de ce genre de pas un centime.
Musk se surmédiatise, si les média s'acharnent sur lui c'est parce qu'il est nul à chier en ce moment. Pendant la période SpaceX les médias faisaient son éloge (et plutôt à raison), les médias ont fait la pub de son Starlink donc les médias n'ont pas du tout toujours été contre lui.
Il serait peut-être temps de prendre un peu de hauteur,
Je n'ai aucun problème à attaquer Musk et ses entreprises, pourtant il m'arrive aussi de rappeler qu'ils sont suffisament mauvais pour qu'on évite de les attaquer sur des faits divers isolés.
Il y a un avantage à ce que vous faites, c'est de donner un bon moment pour acheter des actions Tesla. Lorsque vous devenez arrogants, que vous vous réjouissez d'une baisse des ventes et que le moindre fait divers vous permet de dénigrer la marque, c'est un bon signe pour acheter
Vous ressortez gagnante de ça!
Vous êtes la plus intelligente, vous surnagez dans ce marasme.
Vous devriez nous encouragé plutôt que de nous critiquer. (Mais par pitié n'activez jamais le FSD en Belgique j'aimerais éviter de finir sur votre capot parce que votre voiture n'a pas identifié quel type d'obstacle je suis)le 23/04/2024 à 8:32 -
kain_tnExpert éminentTu mets la définition de "autopilot", mais pourquoi pas la définition de "Full Self-Driving"?
Non, parce qu'il parle de ça aussi. Littéralement "Conduite autonome complète/totale"...
Tesla aurait appelé ça "Self-driving", encore, on aurait pu chipoter, et faire comme tous les constructeurs et parler de niveau 1, 2, 3, 4, 5. Mais là, c'est du foutage de gueule.
Je ré-itère: cet ingénieur est soit un menteur, soit quelqu'un qui devrait ouvrir un dictionnaire.le 17/10/2023 à 23:40 -
kain_tnExpert éminentC'est un dialogue de sourds
Quand une entreprise te vend son accès bêta sous le nom de Full Self-Driving, je pense que c'est fait exprès.le 18/10/2023 à 22:34 -
MingolitoMembre extrêmement actifTu peux jouer sur les mots mais dans les faits les études ont montré que l'autopilot de Tesla n'est pas du tout à la hauteur, et les réseaux sociaux regorgent de milliers de témoignages dans ce sens, et qu'il y a déjà eu des accidents mortels, principalement du à la bêtise des gens qui ont vraiment cru qu'ils peuvent dormir, regarder un film, faire des jeux vidéos, ou faire l'amour pendant que le FSD conduisait leur Tesla.
Dans les faits d'autres constructeurs ont un FSD qui est mieux coté que celui de Tesla, le problème de Tesla c'est qu'Elon Musk a fait le buzz, hors maintenant c'est le retour à la réalité : leur voitures sont pourries, elle ne sont pas fiables, certains composants ont étés montés avec du ruban adhésif, les réparations coutent une fortune, Tesla à menti sur l'autonomie réelle, et quand c'est l’hiver ces voitures ne marchent plus, les voitures et les stations de charges tombent en panne, et le FSD Tesla est totalement moisi et dangereux. Donc une fois la Hype passée c'est un désastre.
En Chine les Tesla ne se vendent plus du tout, car les chinois fabriquent des autos plus fiables et moins chères. Elon ne solde pas seulement le FSD mais aussi le prix de plusieurs modèles, qui ne se vendent plus à cause de la réputation horrible, et du fait que les chinois proposent bien mieux.le 22/04/2024 à 14:03 -
petitoursMembre chevronnéSi vous ne voyez pas de différence entre confiner les gens (pas ensembles) pour les protéger et Musk qui entasse ses ouvriers dans son usine pour bosser alors on ne peut plus rien pour vous.
A qui le dites vous... pas besoin de moi pour donner les sources dont ce fil est rempli
Oui, et il y a aussi les faits qui sont tenaces
Pas de bol, la discussion qui a maintenant pas mal de pages ne parle pas que du cas de cette dame. La question qui m'interpelle ici c'est quelle illusion Musk vous a fait pour voir en lui encore une possibilité de bienveillance face à toutes ces casseroles.
Oui, a commencer par lire la discussion et pas juste le dernier poste du rédacteur ainsi que pleins d'autres sources qui racontent la même chose et d'autres choses avec des preuves bien solides...
Quand à la jugeote vous pouvez en effet l'utiliser, lisez un peu sur la conduite autonome, ses problèmes et enjeux et jugeotez sur le choix de ne laisser que quelques cameras placées aux endroits qui permettent de préserver les choix esthétiques du véhicule ; vous trouverez d'un seul coup moins louche le fait que le FSD ne fait pas le job.le 22/04/2024 à 17:39 -
petitoursMembre chevronnéCe qui était évident hier devient un fait reconnu aujourd'hui.
Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)
Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.le 17/02/2023 à 9:38 -
Anselme45Membre extrêmement actifJe ne suis pas un fan de Musk, mais là franchement, il y a de quoi se marrer.
La totalité, je dis bien la totalité des fabricants de voiture falsifient la consommation réelle de leur véhicules!
Les acteurs du secteur automobile se sont mis d'accord pour établir un test de roulement pour établir la consommation moyenne au 100 km qui ne correspond en rien à l'usage normal d'une voiture... Le test a été établi pour s'assurer que la consommation au 100 km soit très inférieure à la réalité.
Tout le monde en a d'ailleurs fait la constatation: Vous achetez un voiture écolo qui indique une consommation de 4,5 litres au 100km? Quand vous vérifiez votre consommation, il s'avère que vous frôlez les 10 litres/100km. Facile ensuite pour votre concessionnaire de vous dire "Mais monsieur, madame, vous avez un usage de votre véhicule qui ne correspond pas à un usage moyen, vous faites trop de trajets en ville ou roulez trop vite sur autoroute".
Idem pour l'autonomie des véhicules électriques, l'autonomie annoncée ne correspond jamais à la réalité "Mais monsieur, madame, vous faites trop de dénivelés... Vous roulez de manière trop sportive, blablabla..."
Et je ne parle pas de la période hivernale, un jour de grand froid et l'autonomie officiellement annoncée est divisée par 2 et puis et puis... Très vite, vous êtes confronté à l'usure de vos batteries dont la capacité de charge baisse de mois en mois...le 27/07/2023 à 23:21