IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une vidéo montre que le mode Full Self-Driving de Tesla ne peut absolument pas gérer la neige
De quoi faire sourire les autorités californiennes qui œuvrent pour que Tesla abandonne ses dénominations

Le , par Stéphane le calme

137PARTAGES

11  0 
Malgré son nom, le soi-disant logiciel « Full Self-Driving » de Tesla ne rend pas réellement Teslas capable de se conduire entièrement. Si cela vous semble être de la publicité mensongère, vous n'êtes pas le seul. Et pourtant, Tesla est toujours autorisé à utiliser ce terme et a récemment décidé que toute personne disposant de 15 000 dollars à brûler serait autorisée à accéder au logiciel. Mais aussi dangereux que cela puisse être de l'utiliser dans des conditions de conduite parfaites, une nouvelle vidéo montre à quel point il peut être incroyablement dangereux de l'utiliser dans la neige.

Tesla a proposé son FSD en tant qu'option sur ses véhicules, les clients payant jusqu'à 10 000 dollars pour avoir la possibilité d'accéder au logiciel dès sa sortie. Mais des années se sont écoulées depuis l'introduction de cette option, et ce n'est qu'en 2020 qu'un groupe restreint de propriétaires a pu accéder à une version bêta de la fonction.

Si l'expression Full Self-Driving, littéralement « conduite autonome intégrale », laisse peu d'ambiguïté quant à ses aspirations, la technologie accomplit bien moins que ce que les mots impliquent. La FSD serait en fait une version sophistiquée de l'assistance au conducteur de niveau 2, telle que définie par SAE International, arbitre de nombreuses normes automobiles mondiales.

Bien que toujours en bêta, le prix du FSD a, quant à lui évolué : il coûtait 5 000 $ au lancement. Mais lorsque Tesla a commencé à déployer la version bêta de FSD auprès d'un groupe restreint de clients en octobre 2020, le prix est passé à 10 000 $. En septembre 2021, Tesla a commencé à ouvrir la version bêta à davantage de clients via un nouveau bouton « demande » avant d'augmenter le prix à 12 000 $ plus tôt en 2022. Puis, en août 2022, Elon Musk a annoncé que le prix allait passer à 15 000 dollars en Amérique du Nord le 5 septembre 2022 :


Tesla a du mal à opérer dans la neige

Une vidéo a récemment été publiée sur le compte YouTube de Detroit Tesla qui montrait un conducteur testant le mode Full Self-Driving de sa Tesla après que la ville eut reçu quelques centimètres de neige. Nous ne parlons donc pas d'une tempête de neige aveuglante qui a complètement recouvert la ville ici. Juste un temps hivernal régulier pour de grandes parties du pays. Et comme vous pouvez l'imaginer, les choses ne se sont pas bien passées. Du tout.

Il n'a fallu que quelques secondes de conduite pour que le chauffeur soit contraint de prendre le relais afin d'empêcher la voiture de s'enfoncer dans un trottoir. FSD a également décidé d'enclencher une vitesse que le conducteur jugeait beaucoup trop élevée pour les conditions et a commencé à glisser lorsqu'il a dû s'arrêter à un feu de circulation. Environ deux minutes après le début de la vidéo, le conducteur déclare : « Je ne peux même pas prononcer mes phrases sans que la voiture devienne folle ».


Le conducteur dit également : « Je ne pense pas qu'ils aient encore entraîné les réseaux neuronaux pour la neige ». Compte tenu du fait que Teslas a déjà du mal à gérer des routes parfaites dans des conditions idéales, ce n'est pas surprenant. Mais au fur et à mesure que la vidéo avance, voir à quel point FSD gère mal les rues à vitesse relativement faible et avec peu de neige est relativement déconcertant.

Après tout, c'est un conducteur attentif qui montre à quel point la « conduite entièrement autonome » est dangereuse. Mais n'importe qui avec le même véhicule pourrait être sur la route et faire confiance à un système qui n'est clairement pas encore au point.

Évidemment, il est plus difficile de programmer une voiture pour qu'elle conduise sous la pluie ou la neige, mais c'est exactement la raison pour laquelle le nom est si trompeur même avec "Beta" à la fin. Et aussi pourquoi les affirmations de Musk selon lesquelles « Tesla sera bientôt capable d'une autonomie complète » sont polémiques : selon des experts, nous sommes encore à des années de voir un véhicule totalement autonome permettant de conduire les passagers vers leur destination en toute sécurité, indépendamment du temps.

Ce n'est pas la première fois que les incidents avec Full Self-Driving sont rapportés

Un journaliste de CNN a décrit son expérience désagréable avec le logiciel.

Dans son article, McFarland a déclaré que le logiciel ressemble davantage à un « tour » pour épater ses amis plutôt qu'à une fonctionnalité qu'il faudrait impérativement avoir.

McFarland a posté une vidéo de la conduite qu'il a prise depuis la banquette arrière de la voiture, tandis qu'un autre conducteur était assis sur le siège avant, prêt à prendre le contrôle total en cas de besoin. Le journaliste a décidé d'emmener le véhicule faire un tour sur Flatbush Avenue à Brooklyn, une route urbaine encombrée qui peut être difficile même pour les conducteurs les plus expérimentés.

La vidéo montrait des extraits du trajet, se concentrant principalement sur les moments où le Model 3 hésitait ou tentait de s'engouffrer dans le trafic. Le conducteur a déclaré qu'il devait prendre le contrôle du logiciel autonome environ tous les trois blocs. Cependant, il a noté qu'il aurait peut-être pris le contrôle plus que quelqu'un qui était habitué au logiciel.

McFarland a déclaré que le véhicule effectuait souvent des virages saccadés et freinait ou accélérait à des moments inattendus du trajet. Trois choses qui peuvent être risquées en milieu urbain, mais des problèmes qui ont été fortement signalés par les utilisateurs bêta sur YouTube.



Voici une partie de son expérience :

« Lorsqu'une douzaine de petits enfants sont passés devant notre Tesla en mode "Full Self-Driving", j'avais de bonnes raisons d'être nerveux.

J'avais passé ma matinée sur la banquette arrière du Model 3 à utiliser le mode "Full Self-Driving", le système qui, selon Tesla, changera le monde en permettant de disposer de véhicules autonomes sûrs et fiables. Le logiciel a failli pousser la voiture à s'écraser sur un chantier de construction, a essayé de foncer sur un camion à l'arrêt et tenter de conduire du mauvais côté de la route. Les conducteurs en colère klaxonnaient alors que le système hésitait, parfois en plein milieu d'une intersection. (Nous avions un conducteur humain attentif au volant pendant tous nos tests, pour prendre le contrôle total en cas de besoin.)

Le "Full Self-Driving" du Model 3 a nécessité de nombreuses interventions humaines pour nous protéger ainsi que tous les autres sur la route. Parfois, cela signifiait appuyer sur le frein pour désactiver le logiciel, afin qu'il n'essaie pas de contourner une voiture devant nous. D'autres fois, nous avons rapidement secoué le volant pour éviter un accident. (Tesla dit aux conducteurs de porter une attention constante à la route et d'être prêts à agir immédiatement.)

J'espérais que la voiture ne ferait plus d'erreurs stupides. Après ce qui a semblé être une éternité, les enfants ont fini de traverser. J'ai expiré.
Nous pouvions enfin progresser sans encombre. La voiture a semblé trop hésitante au début, mais j'ai ensuite remarqué un cycliste venant de notre gauche. Nous avons attendu.

Une fois que le cycliste a traversé l'intersection, la voiture s'est arrêtée et a fait un virage en douceur.

Au cours de l'année écoulée, j'ai regardé plus d'une centaine de vidéos de propriétaires de Tesla utilisant la technologie "Full Self-Driving", et j'ai parlé à beaucoup d'entre eux de leurs expériences.

Le mode "Full Self-Driving" est une fonction d'aide à la conduite de 10 000 $ proposée par Tesla. Alors que toutes les nouvelles Tesla sont capables d'utiliser le logiciel de "Full Self-Driving", les acheteurs doivent opter pour l'ajout coûteux s'ils souhaitent accéder à la fonctionnalité. Le logiciel est toujours en version bêta et n'est actuellement disponible que pour un groupe restreint de propriétaires de Tesla, bien que le PDG Elon Musk ait affirmé qu'un déploiement plus large est imminent. Musk promet que ce mode sera totalement capable d'amener une voiture à sa destination dans un proche avenir.

Mais ce n'est pas le cas, loin de là.

Les propriétaires de Tesla ont décrit la technologie comme impressionnante, mais aussi imparfaite. Un instant, il roule parfaitement, l'instant suivant, il manque de percuter quelqu'un ou quelque chose.

Jason Tallman, un propriétaire de Tesla qui documente ses voyages en FSD sur YouTube, m'a proposé de me le faire vivre.
Nous avons demandé à Jason de nous rencontrer sur Flatbush Avenue à Brooklyn. C'est une artère urbaine qui achemine des milliers de voitures, camions, cyclistes et piétons vers Manhattan. Même pour les conducteurs humains expérimentés, cela peut être un défi(...)

FSD fait parfois des virages saccadés. La roue commence à tourner, puis revient en arrière, avant de tourner à nouveau dans la direction prévue. Il y a aussi le freinage, qui peut sembler aléatoire. À un moment donné, une voiture s'est rapprochée de l'arrière et nous a stoppés suite à un freinage qui m'a surpris. Se faire klaxonner était courant. Je n'ai jamais vraiment eu l'impression de savoir ce que FSD ferait ensuite. Demander à un mode FSD de naviguer à Brooklyn, c'était comme demander à un élève conducteur de passer un examen routier pour lequel il n'était pas encore prêt.

Ce que FSD pouvait bien faire était impressionnant, mais l'expérience a finalement été déroutante. Je ne peux pas imaginer utiliser régulièrement ce mode dans une ville. J'ai remarqué que j'étais réticent à regarder le tableau de bord de la Model 3, par exemple pour vérifier notre vitesse, car je ne voulais pas quitter la route des yeux ».

Viré pour avoir publié sur YouTube des vidéos d'un accident impliquant le Full Self-Driving

Les employés ont-ils le droit de critiquer en public les échecs ou les produits de leur entreprise ? La question divise l'opinion depuis que l'histoire de John Bernal, ex-employé de Tesla, a été publiée par les médias américains. Bernal a confié qu'il a commencé par créer ces vidéos depuis environ un an et a mis en place une chaîne YouTube, "AI Addict", pour les partager et montrer comment la version bêta du FSD fonctionnait dans différents endroits de la Silicon Valley. Bernal a posté le 4 février dernier une vidéo d'un accident "mineur" dans lequel sa voiture Tesla, avec le FSD activé, a heurté une borne qui semble séparer une voie réservée aux voitures d'une voie pour vélos à San Jose.

Dans une vidéo ultérieure publiée le 7 février, présentant une analyse image par image de la collision, Bernal a déclaré que "peu importe à quel point cet accident était mineur, c'est la première collision de la bêta du FSD filmée par une caméra qui est irréfutable". Cependant, son licenciement et la coupure de la version bêta du FSD sont intervenus peu de temps après ces deux publications. « J'ai été licencié de Tesla en février et mon YouTube a été cité comme le motif de mon licenciement, même si mes téléchargements sont effectués dans mon véhicule personnel, en dehors du temps ou de la propriété de l'entreprise, avec un logiciel que j'ai payé », a déclaré Bernal.


Il fait cette déclaration dans un vidéo qu'il a publié en mars sur sa chaîne YouTube. En effet, Bernal a commencé à travailler pour Tesla en tant que spécialiste de l'annotation de données en août 2020 dans un bureau de San Mateo, en Californie. Il a commandé une Model 3 de 2021 avec une batterie dotée d'une longue autonomie quelques mois après avoir commencé à y travailler. Il a pris livraison de la voiture le 26 décembre 2020. Dans des déclarations aux médias, il a déclaré avoir acheté la voiture en partie parce que Tesla offrait aux employés un accès gratuit au FSD - qui valait alors 8 000 dollars - en tant qu'avantage.

En échange, les employés devaient accepter de donner à l'entreprise le droit de collecter les données internes et externes des véhicules. C'est la voiture qui lui permet de faire les tests du FSD. La plupart des vidéos d'AI Addict montrent Bernal en train de parcourir la Silicon Valley avec un ami dans sa Tesla, en utilisant les dernières versions du logiciel FSD Beta. Il n'est pas le seul à poster ses expériences avec le logiciel expérimental de Tesla. Les utilisateurs de version bêta du FSD de Tesla comme Dirty Tesla, Chuck Cook, Kim Paquette et bien d'autres s'empressent de passer en revue chaque nouvelle version sur leurs chaînes.

Lorsque Tesla a licencié Bernal en juillet 2022, son avis de licenciement écrit ne mentionnait pas la raison de son licenciement. Mais Bernal a déclaré qu'avant d'être licencié, ses supérieurs lui ont notifié verbalement qu'il avait enfreint la politique de Tesla et que sa chaîne YouTube constituait un "conflit d'intérêts". Cependant, il a déclaré qu'il a toujours été transparent au sujet de sa chaîne YouTube, tant avec ses managers chez Tesla qu'avec le public. Son CV en ligne sur LinkedIn, par exemple, mentionnait toujours son emploi chez Tesla juste à côté du nom de sa chaîne YouTube.

Bernal a déclaré qu'il n'avait jamais vu de politique l'empêchant de créer des critiques techniques de voitures sur son temps libre et sur sa propre propriété. Une copie de la politique de Tesla en matière de médias sociaux, fournie par un employé actuel à CNBC, ne fait aucune référence directe à la critique des produits de la société en public. La politique stipule que « Tesla s'en remet au bon sens et au bon jugement de ses employés pour s'engager dans une activité responsable sur les médias sociaux ». Elle énumère les réseaux sociaux, notamment Facebook, Twitter, Instagram, Reddit, Snapchat, LinkedIn, WeChat et les blogs personnels.

Essai hivernal du mode piste [track mode] Tesla Model Y

Les propriétaires de Tesla Model Y Performance attendent depuis longtemps le mode piste. Musk a annoncé le mode piste pour le Model Y Performance en 2020, et il a fallu un certain temps avant qu'il ne soit officiellement déployé.

Tesla a lancé le mode piste pour le Model Y Performance lors de sa mise à jour des fêtes 2022. Avec le mode piste, les propriétaires de Model Y Performance peuvent enregistrer jusqu'à 20 profils de conduite spécifiques à un scénario de conduite ou à une piste différents.

Tesla a testé le mode Track du modèle Y à Wanaka. L'équipe Tesla a travaillé dur sur cette fonctionnalité, s'assurant qu'elle est à la fois amusante et sûre pour les conducteurs du modèle Y, en tout cas sur le papier :

« Nous sommes ici en Nouvelle-Zélande, travaillant sur le mode Model Y Track, un nouveau développement pour le package Model Y Performance. Il s'agit donc d'un survirage total. Tous les dériveurs vont adorer ce genre de réglage, car dès que vous venez de basculer, vous pouvez simplement faire pivoter la voiture et faire des manœuvres assez folles », a déclaré JD Price de l'équipe de test de Tesla.

Reste à savoir si ce mode, couplé au Full Self-Driving, sera un début de réponse aux problèmes rencontrés par Tesla dans des conditions défavorables à la conduite.

Source : vidéo sur YouTube

Et vous ?

Êtes-vous surpris de voir Full Self-Driving mal gérer la neige ?
De telles situations doivent-elles contribuer à faire changer de nom aux outils de Tesla (Autopilot, Full Self-Driving) ?

Voir aussi :

Tesla condamné à une amende de 2 Mns € en Corée du Sud pour publicité mensongère, Tesla a faussement promu et exagéré l'autonomie et la vitesse de recharge de ses voitures électriques
La Californie adopte une loi qui interdit à Tesla d'appeler le logiciel de ses véhicules Full Self-Driving, car c'est de la publicité mensongère qui laisse croire qu'ils sont totalement autonomes

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
9  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 17/10/2023 à 23:40
Citation Envoyé par Ryu2000 Voir le message
Ben justement...

Pilote automatique

Autopilot ça ne veut pas dire que ça se conduit tout seul.
Tu mets la définition de "autopilot", mais pourquoi pas la définition de "Full Self-Driving"?
Non, parce qu'il parle de ça aussi. Littéralement "Conduite autonome complète/totale"...

Tesla aurait appelé ça "Self-driving", encore, on aurait pu chipoter, et faire comme tous les constructeurs et parler de niveau 1, 2, 3, 4, 5. Mais là, c'est du foutage de gueule.
Je ré-itère: cet ingénieur est soit un menteur, soit quelqu'un qui devrait ouvrir un dictionnaire.
7  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 18/10/2023 à 22:34
Citation Envoyé par Ryu2000 Voir le message
Ça ne parle pas que de Full Self-Driving ça parle aussi d'Autopilot !
Et autopilot ça ne veut pas dire que ça se conduit tout seul.
C'est un dialogue de sourds

Citation Envoyé par Ryu2000 Voir le message
Pour Full Self-Driving je ne sais pas.
Bon après Tesla aurait du choisir des expressions plus précise pour que les gens comprennent que la voiture ne se conduit pas toute seule.
Quand une entreprise te vend son accès bêta sous le nom de Full Self-Driving, je pense que c'est fait exprès.
7  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
6  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/07/2023 à 23:21
Je ne suis pas un fan de Musk, mais là franchement, il y a de quoi se marrer.

La totalité, je dis bien la totalité des fabricants de voiture falsifient la consommation réelle de leur véhicules!

Les acteurs du secteur automobile se sont mis d'accord pour établir un test de roulement pour établir la consommation moyenne au 100 km qui ne correspond en rien à l'usage normal d'une voiture... Le test a été établi pour s'assurer que la consommation au 100 km soit très inférieure à la réalité.

Tout le monde en a d'ailleurs fait la constatation: Vous achetez un voiture écolo qui indique une consommation de 4,5 litres au 100km? Quand vous vérifiez votre consommation, il s'avère que vous frôlez les 10 litres/100km. Facile ensuite pour votre concessionnaire de vous dire "Mais monsieur, madame, vous avez un usage de votre véhicule qui ne correspond pas à un usage moyen, vous faites trop de trajets en ville ou roulez trop vite sur autoroute".

Idem pour l'autonomie des véhicules électriques, l'autonomie annoncée ne correspond jamais à la réalité "Mais monsieur, madame, vous faites trop de dénivelés... Vous roulez de manière trop sportive, blablabla..."

Et je ne parle pas de la période hivernale, un jour de grand froid et l'autonomie officiellement annoncée est divisée par 2 et puis et puis... Très vite, vous êtes confronté à l'usure de vos batteries dont la capacité de charge baisse de mois en mois...
9  3 
Avatar de Darkzinus
Expert éminent sénior https://www.developpez.com
Le 05/01/2023 à 15:46
Ce que je trouve dingue dans le modèle économique de Tesla c'est que les gens achètent une voiture et un abonnement pour être bêta testeurs.
5  0 
Avatar de marc.collin
Membre émérite https://www.developpez.com
Le 11/01/2023 à 14:00
Il est temps que le gouvernement interdise que le pays devienne un jeu d'expérimentation.
C'est dangereux, il y a eu des mort et cela continue, rien n'est fait
5  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 28/06/2023 à 15:20
Le problème est même pire en fait, car dans ce cas, même le simple régulateur de vitesse avec détection de véhicule de la voiture de mon papa, aurait stoppé la voiture !
5  0