IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une vidéo montre que le mode Full Self-Driving de Tesla ne peut absolument pas gérer la neige
De quoi faire sourire les autorités californiennes qui œuvrent pour que Tesla abandonne ses dénominations

Le , par Stéphane le calme

117PARTAGES

11  0 
Malgré son nom, le soi-disant logiciel « Full Self-Driving » de Tesla ne rend pas réellement Teslas capable de se conduire entièrement. Si cela vous semble être de la publicité mensongère, vous n'êtes pas le seul. Et pourtant, Tesla est toujours autorisé à utiliser ce terme et a récemment décidé que toute personne disposant de 15 000 dollars à brûler serait autorisée à accéder au logiciel. Mais aussi dangereux que cela puisse être de l'utiliser dans des conditions de conduite parfaites, une nouvelle vidéo montre à quel point il peut être incroyablement dangereux de l'utiliser dans la neige.

Tesla a proposé son FSD en tant qu'option sur ses véhicules, les clients payant jusqu'à 10 000 dollars pour avoir la possibilité d'accéder au logiciel dès sa sortie. Mais des années se sont écoulées depuis l'introduction de cette option, et ce n'est qu'en 2020 qu'un groupe restreint de propriétaires a pu accéder à une version bêta de la fonction.

Si l'expression Full Self-Driving, littéralement « conduite autonome intégrale », laisse peu d'ambiguïté quant à ses aspirations, la technologie accomplit bien moins que ce que les mots impliquent. La FSD serait en fait une version sophistiquée de l'assistance au conducteur de niveau 2, telle que définie par SAE International, arbitre de nombreuses normes automobiles mondiales.

Bien que toujours en bêta, le prix du FSD a, quant à lui évolué : il coûtait 5 000 $ au lancement. Mais lorsque Tesla a commencé à déployer la version bêta de FSD auprès d'un groupe restreint de clients en octobre 2020, le prix est passé à 10 000 $. En septembre 2021, Tesla a commencé à ouvrir la version bêta à davantage de clients via un nouveau bouton « demande » avant d'augmenter le prix à 12 000 $ plus tôt en 2022. Puis, en août 2022, Elon Musk a annoncé que le prix allait passer à 15 000 dollars en Amérique du Nord le 5 septembre 2022 :


Tesla a du mal à opérer dans la neige

Une vidéo a récemment été publiée sur le compte YouTube de Detroit Tesla qui montrait un conducteur testant le mode Full Self-Driving de sa Tesla après que la ville eut reçu quelques centimètres de neige. Nous ne parlons donc pas d'une tempête de neige aveuglante qui a complètement recouvert la ville ici. Juste un temps hivernal régulier pour de grandes parties du pays. Et comme vous pouvez l'imaginer, les choses ne se sont pas bien passées. Du tout.

Il n'a fallu que quelques secondes de conduite pour que le chauffeur soit contraint de prendre le relais afin d'empêcher la voiture de s'enfoncer dans un trottoir. FSD a également décidé d'enclencher une vitesse que le conducteur jugeait beaucoup trop élevée pour les conditions et a commencé à glisser lorsqu'il a dû s'arrêter à un feu de circulation. Environ deux minutes après le début de la vidéo, le conducteur déclare : « Je ne peux même pas prononcer mes phrases sans que la voiture devienne folle ».


Le conducteur dit également : « Je ne pense pas qu'ils aient encore entraîné les réseaux neuronaux pour la neige ». Compte tenu du fait que Teslas a déjà du mal à gérer des routes parfaites dans des conditions idéales, ce n'est pas surprenant. Mais au fur et à mesure que la vidéo avance, voir à quel point FSD gère mal les rues à vitesse relativement faible et avec peu de neige est relativement déconcertant.

Après tout, c'est un conducteur attentif qui montre à quel point la « conduite entièrement autonome » est dangereuse. Mais n'importe qui avec le même véhicule pourrait être sur la route et faire confiance à un système qui n'est clairement pas encore au point.

Évidemment, il est plus difficile de programmer une voiture pour qu'elle conduise sous la pluie ou la neige, mais c'est exactement la raison pour laquelle le nom est si trompeur même avec "Beta" à la fin. Et aussi pourquoi les affirmations de Musk selon lesquelles « Tesla sera bientôt capable d'une autonomie complète » sont polémiques : selon des experts, nous sommes encore à des années de voir un véhicule totalement autonome permettant de conduire les passagers vers leur destination en toute sécurité, indépendamment du temps.

Ce n'est pas la première fois que les incidents avec Full Self-Driving sont rapportés

Un journaliste de CNN a décrit son expérience désagréable avec le logiciel.

Dans son article, McFarland a déclaré que le logiciel ressemble davantage à un « tour » pour épater ses amis plutôt qu'à une fonctionnalité qu'il faudrait impérativement avoir.

McFarland a posté une vidéo de la conduite qu'il a prise depuis la banquette arrière de la voiture, tandis qu'un autre conducteur était assis sur le siège avant, prêt à prendre le contrôle total en cas de besoin. Le journaliste a décidé d'emmener le véhicule faire un tour sur Flatbush Avenue à Brooklyn, une route urbaine encombrée qui peut être difficile même pour les conducteurs les plus expérimentés.

La vidéo montrait des extraits du trajet, se concentrant principalement sur les moments où le Model 3 hésitait ou tentait de s'engouffrer dans le trafic. Le conducteur a déclaré qu'il devait prendre le contrôle du logiciel autonome environ tous les trois blocs. Cependant, il a noté qu'il aurait peut-être pris le contrôle plus que quelqu'un qui était habitué au logiciel.

McFarland a déclaré que le véhicule effectuait souvent des virages saccadés et freinait ou accélérait à des moments inattendus du trajet. Trois choses qui peuvent être risquées en milieu urbain, mais des problèmes qui ont été fortement signalés par les utilisateurs bêta sur YouTube.



Voici une partie de son expérience :

« Lorsqu'une douzaine de petits enfants sont passés devant notre Tesla en mode "Full Self-Driving", j'avais de bonnes raisons d'être nerveux.

J'avais passé ma matinée sur la banquette arrière du Model 3 à utiliser le mode "Full Self-Driving", le système qui, selon Tesla, changera le monde en permettant de disposer de véhicules autonomes sûrs et fiables. Le logiciel a failli pousser la voiture à s'écraser sur un chantier de construction, a essayé de foncer sur un camion à l'arrêt et tenter de conduire du mauvais côté de la route. Les conducteurs en colère klaxonnaient alors que le système hésitait, parfois en plein milieu d'une intersection. (Nous avions un conducteur humain attentif au volant pendant tous nos tests, pour prendre le contrôle total en cas de besoin.)

Le "Full Self-Driving" du Model 3 a nécessité de nombreuses interventions humaines pour nous protéger ainsi que tous les autres sur la route. Parfois, cela signifiait appuyer sur le frein pour désactiver le logiciel, afin qu'il n'essaie pas de contourner une voiture devant nous. D'autres fois, nous avons rapidement secoué le volant pour éviter un accident. (Tesla dit aux conducteurs de porter une attention constante à la route et d'être prêts à agir immédiatement.)

J'espérais que la voiture ne ferait plus d'erreurs stupides. Après ce qui a semblé être une éternité, les enfants ont fini de traverser. J'ai expiré.
Nous pouvions enfin progresser sans encombre. La voiture a semblé trop hésitante au début, mais j'ai ensuite remarqué un cycliste venant de notre gauche. Nous avons attendu.

Une fois que le cycliste a traversé l'intersection, la voiture s'est arrêtée et a fait un virage en douceur.

Au cours de l'année écoulée, j'ai regardé plus d'une centaine de vidéos de propriétaires de Tesla utilisant la technologie "Full Self-Driving", et j'ai parlé à beaucoup d'entre eux de leurs expériences.

Le mode "Full Self-Driving" est une fonction d'aide à la conduite de 10 000 $ proposée par Tesla. Alors que toutes les nouvelles Tesla sont capables d'utiliser le logiciel de "Full Self-Driving", les acheteurs doivent opter pour l'ajout coûteux s'ils souhaitent accéder à la fonctionnalité. Le logiciel est toujours en version bêta et n'est actuellement disponible que pour un groupe restreint de propriétaires de Tesla, bien que le PDG Elon Musk ait affirmé qu'un déploiement plus large est imminent. Musk promet que ce mode sera totalement capable d'amener une voiture à sa destination dans un proche avenir.

Mais ce n'est pas le cas, loin de là.

Les propriétaires de Tesla ont décrit la technologie comme impressionnante, mais aussi imparfaite. Un instant, il roule parfaitement, l'instant suivant, il manque de percuter quelqu'un ou quelque chose.

Jason Tallman, un propriétaire de Tesla qui documente ses voyages en FSD sur YouTube, m'a proposé de me le faire vivre.
Nous avons demandé à Jason de nous rencontrer sur Flatbush Avenue à Brooklyn. C'est une artère urbaine qui achemine des milliers de voitures, camions, cyclistes et piétons vers Manhattan. Même pour les conducteurs humains expérimentés, cela peut être un défi(...)

FSD fait parfois des virages saccadés. La roue commence à tourner, puis revient en arrière, avant de tourner à nouveau dans la direction prévue. Il y a aussi le freinage, qui peut sembler aléatoire. À un moment donné, une voiture s'est rapprochée de l'arrière et nous a stoppés suite à un freinage qui m'a surpris. Se faire klaxonner était courant. Je n'ai jamais vraiment eu l'impression de savoir ce que FSD ferait ensuite. Demander à un mode FSD de naviguer à Brooklyn, c'était comme demander à un élève conducteur de passer un examen routier pour lequel il n'était pas encore prêt.

Ce que FSD pouvait bien faire était impressionnant, mais l'expérience a finalement été déroutante. Je ne peux pas imaginer utiliser régulièrement ce mode dans une ville. J'ai remarqué que j'étais réticent à regarder le tableau de bord de la Model 3, par exemple pour vérifier notre vitesse, car je ne voulais pas quitter la route des yeux ».

Viré pour avoir publié sur YouTube des vidéos d'un accident impliquant le Full Self-Driving

Les employés ont-ils le droit de critiquer en public les échecs ou les produits de leur entreprise ? La question divise l'opinion depuis que l'histoire de John Bernal, ex-employé de Tesla, a été publiée par les médias américains. Bernal a confié qu'il a commencé par créer ces vidéos depuis environ un an et a mis en place une chaîne YouTube, "AI Addict", pour les partager et montrer comment la version bêta du FSD fonctionnait dans différents endroits de la Silicon Valley. Bernal a posté le 4 février dernier une vidéo d'un accident "mineur" dans lequel sa voiture Tesla, avec le FSD activé, a heurté une borne qui semble séparer une voie réservée aux voitures d'une voie pour vélos à San Jose.

Dans une vidéo ultérieure publiée le 7 février, présentant une analyse image par image de la collision, Bernal a déclaré que "peu importe à quel point cet accident était mineur, c'est la première collision de la bêta du FSD filmée par une caméra qui est irréfutable". Cependant, son licenciement et la coupure de la version bêta du FSD sont intervenus peu de temps après ces deux publications. « J'ai été licencié de Tesla en février et mon YouTube a été cité comme le motif de mon licenciement, même si mes téléchargements sont effectués dans mon véhicule personnel, en dehors du temps ou de la propriété de l'entreprise, avec un logiciel que j'ai payé », a déclaré Bernal.


Il fait cette déclaration dans un vidéo qu'il a publié en mars sur sa chaîne YouTube. En effet, Bernal a commencé à travailler pour Tesla en tant que spécialiste de l'annotation de données en août 2020 dans un bureau de San Mateo, en Californie. Il a commandé une Model 3 de 2021 avec une batterie dotée d'une longue autonomie quelques mois après avoir commencé à y travailler. Il a pris livraison de la voiture le 26 décembre 2020. Dans des déclarations aux médias, il a déclaré avoir acheté la voiture en partie parce que Tesla offrait aux employés un accès gratuit au FSD - qui valait alors 8 000 dollars - en tant qu'avantage.

En échange, les employés devaient accepter de donner à l'entreprise le droit de collecter les données internes et externes des véhicules. C'est la voiture qui lui permet de faire les tests du FSD. La plupart des vidéos d'AI Addict montrent Bernal en train de parcourir la Silicon Valley avec un ami dans sa Tesla, en utilisant les dernières versions du logiciel FSD Beta. Il n'est pas le seul à poster ses expériences avec le logiciel expérimental de Tesla. Les utilisateurs de version bêta du FSD de Tesla comme Dirty Tesla, Chuck Cook, Kim Paquette et bien d'autres s'empressent de passer en revue chaque nouvelle version sur leurs chaînes.

Lorsque Tesla a licencié Bernal en juillet 2022, son avis de licenciement écrit ne mentionnait pas la raison de son licenciement. Mais Bernal a déclaré qu'avant d'être licencié, ses supérieurs lui ont notifié verbalement qu'il avait enfreint la politique de Tesla et que sa chaîne YouTube constituait un "conflit d'intérêts". Cependant, il a déclaré qu'il a toujours été transparent au sujet de sa chaîne YouTube, tant avec ses managers chez Tesla qu'avec le public. Son CV en ligne sur LinkedIn, par exemple, mentionnait toujours son emploi chez Tesla juste à côté du nom de sa chaîne YouTube.

Bernal a déclaré qu'il n'avait jamais vu de politique l'empêchant de créer des critiques techniques de voitures sur son temps libre et sur sa propre propriété. Une copie de la politique de Tesla en matière de médias sociaux, fournie par un employé actuel à CNBC, ne fait aucune référence directe à la critique des produits de la société en public. La politique stipule que « Tesla s'en remet au bon sens et au bon jugement de ses employés pour s'engager dans une activité responsable sur les médias sociaux ». Elle énumère les réseaux sociaux, notamment Facebook, Twitter, Instagram, Reddit, Snapchat, LinkedIn, WeChat et les blogs personnels.

Essai hivernal du mode piste [track mode] Tesla Model Y

Les propriétaires de Tesla Model Y Performance attendent depuis longtemps le mode piste. Musk a annoncé le mode piste pour le Model Y Performance en 2020, et il a fallu un certain temps avant qu'il ne soit officiellement déployé.

Tesla a lancé le mode piste pour le Model Y Performance lors de sa mise à jour des fêtes 2022. Avec le mode piste, les propriétaires de Model Y Performance peuvent enregistrer jusqu'à 20 profils de conduite spécifiques à un scénario de conduite ou à une piste différents.

Tesla a testé le mode Track du modèle Y à Wanaka. L'équipe Tesla a travaillé dur sur cette fonctionnalité, s'assurant qu'elle est à la fois amusante et sûre pour les conducteurs du modèle Y, en tout cas sur le papier :

« Nous sommes ici en Nouvelle-Zélande, travaillant sur le mode Model Y Track, un nouveau développement pour le package Model Y Performance. Il s'agit donc d'un survirage total. Tous les dériveurs vont adorer ce genre de réglage, car dès que vous venez de basculer, vous pouvez simplement faire pivoter la voiture et faire des manœuvres assez folles », a déclaré JD Price de l'équipe de test de Tesla.

Reste à savoir si ce mode, couplé au Full Self-Driving, sera un début de réponse aux problèmes rencontrés par Tesla dans des conditions défavorables à la conduite.

Source : vidéo sur YouTube

Et vous ?

Êtes-vous surpris de voir Full Self-Driving mal gérer la neige ?
De telles situations doivent-elles contribuer à faire changer de nom aux outils de Tesla (Autopilot, Full Self-Driving) ?

Voir aussi :

Tesla condamné à une amende de 2 Mns € en Corée du Sud pour publicité mensongère, Tesla a faussement promu et exagéré l'autonomie et la vitesse de recharge de ses voitures électriques
La Californie adopte une loi qui interdit à Tesla d'appeler le logiciel de ses véhicules Full Self-Driving, car c'est de la publicité mensongère qui laisse croire qu'ils sont totalement autonomes

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de Darkzinus
Expert éminent sénior https://www.developpez.com
Le 05/01/2023 à 15:46
Ce que je trouve dingue dans le modèle économique de Tesla c'est que les gens achètent une voiture et un abonnement pour être bêta testeurs.
5  0 
Avatar de marc.collin
Membre chevronné https://www.developpez.com
Le 11/01/2023 à 14:00
Il est temps que le gouvernement interdise que le pays devienne un jeu d'expérimentation.
C'est dangereux, il y a eu des mort et cela continue, rien n'est fait
5  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
5  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 06/01/2023 à 13:07
Citation Envoyé par abriotde Voir le message
Et le FSD est absolument génial, il fait avancer le monde (l'IA notamment).
La question n'est pas là. Les mots ont un sens et un impact sur les comportements. Le Full Self Driving n'est pas encore *du tout* FULL. A ce titre il s'agit de publicité mensongère, et surtout dangereuse vis-à-vis de l'excés de confiance apportée aux utilisateurs.

Si on te vend des lunettes de soleil te promettant un indice de protection 3 "ont adaptées aux cas de forte ou exceptionnelle luminosité solaire (mer, montagne)." mais qu'en réalité c'est du 0 : "la catégorie 0 associée au symbole d’un nuage ne protège pas des UV solaires ; elle est réservée au confort et à l'esthétique", tu risque d'y perdre la vue à cause d'une fausse promesse.
4  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 12/01/2023 à 8:12
Citation Envoyé par nirgal76 Voir le message
Le freinage fantôme est une chose, le carambolage lui est causé par des distances de sécurités non respectées / non adaptés.
Le carambolage est causé par des distances de sécurité ET un freinage fantôme.
La combinaison freinage fantome et distance de sécurité respectée pourrait engendrer un carambolage malgré tout, il suffit que le chauffeur derrière soit peu attentif/fatigué et le temps de réaction nécessaire pour éviter le carambolage est court.

Je me souviens pendant mon stage de fin d'étude avoir eu la peur de ma vie parce qu'en rentrant, alors que je tenais bien ma distance de sécurité (les fameuses deux lignes), la voiture devant moi change de voie subitement et laisse apparaitre une voiture sans permis sur une route à 110. Cette expérience m'a marquée parce qu'elle demande de prendre une décision très vite dans un délai très court, il y avait une voiture derrière moi qui ne respectait pas les distances donc j'ai changé de voie mais je vais être honnête je n'ai pas vérifié que la voie était dispo mais la décision doit être prise en quelques secondes (sans décision je l'aurait percutée en environ 5s, 8s max).
3  0 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 20/01/2023 à 11:08
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage.

Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.

Imaginez qu'un pneu éclate sans raison sur votre voiture, vous vous seriez dirigé et arrêté de ce coté de la route.
Et oui, sauf que le FSD l'a fait pour rien et l'a fait avec une brutalité que l'on aurait pas avec un pneu qui éclate, c'est donc bien de sa faute racine et exclusive.
3  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 06/01/2023 à 15:19
Citation Envoyé par abriotde Voir le message
Tesla est tellement innovant qu'il rends jaloux les autres...
Evidemment que le FSD Tesla n'est pas parfait dans certaines conditions mais ce n'est pas un problème. Le FSD est un assistant qui permet de décharger le conducteurs 95% du temps
Le problème est que :
1. Dans les 5% restants il faut être encore plus attentif que si tu conduis une voiture normale
2. La voiture ne sait même pas te dire quand elle est face à une situation qu'elle ne sait pas gérer.

Donc elle est mieux qu'un chauffeur normal 95% du temps et c'est une arme dans les 5% qui restent, c'est 5% étant un état inacceptable pour une voiture qui partage la route.

Tesla était tellement innovant qu'il rendait jaloux les autres, maintenant c'est un papy qui t'explique qu'il a toujours le génie d'antan.

Citation Envoyé par abriotde Voir le message
L'alternative, c'est une voiture qui utilise des équipements bien plus cher (GPS au centimetre, radar laser, sonar, radar...), un canal de communication avec le monde ultra-fiable et haut débit... pour un résultat utilisable que sur les auto-routes ou les grandes ville mais jamais en rase campagne ou terrain privé...
Ca serait quand meme dingue si Tesla avait eu des radars dans ses voiture et avait décidé de le retirer pour ne se baser que sur des caméras. (Wait What)
Citation Envoyé par abriotde Voir le message
C'est vrai qu'une tel voiture pourra rouler a vitesse normal dans le brouillard (ou en contre jour, ou la nuit sans les phares), mais qui sera d'accord pour lui faire confiance?
Rouler à la limite de vitesse dans une situation dégradée n'a aucun sens. Je suis contre même si elle est en capacité de le faire pour une raison simple : son entourage n'a pas forcément a capacité de perception et il est donc nécessaire de permettre à son entourage de réagir à sa présence.

J'ai du mal à condamner le FSD pour être incapable de conduire sous la neige, une bonne partie des chauffeurs (citadins?) le sont autant. Mais mon dieu, ne dites plus que ce système est pertinent, ce truc ressemble à un projet d'étude super bien réalisé mais pas fini : ca marche quand ça marche, le reste du temps c'est la roulette russe.
2  0 
Avatar de Sylvain_LD
Nouveau membre du Club https://www.developpez.com
Le 07/01/2023 à 11:34
Elon Musk est un homme qui croit que tout peut s'acheter et il ne se gène pas pour vendre des produits qui ne respectent pas les lois.
Sa Tesla prétendument "écologique" est un leurre, l'autonomie est loin de celle annoncée que ce soit l'hiver ou l'été (la clim est un gros consommateur d’énergie).

Quand à la promotion du "Full Self Driving", elle induit les conducteurs en erreur ! Et les petits malins qui ont compris le fonctionnement du système qui qui le leurrent sont comme tous les amateurs de bricolage : des "irresponsables".

Malheureusement c'est pas nos politiques qui prendront les bonnes décisions pour légiférer sur ce genre de produit car ils sont comme beaucoup aveuglés par les publicités soient-elles mensongères ou non et surtout par le lobbying!
3  1 
Avatar de nirgal76
Membre chevronné https://www.developpez.com
Le 11/01/2023 à 15:09
Le freinage fantôme est une chose, le carambolage lui est causé par des distances de sécurités non respectées / non adaptés.
4  2