IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un ingénieur Tesla témoigne que la vidéo de 2016 faisant la promo de la conduite autonome du véhicule était truquée
Pendant un procès impliquant la mort d'un individu suite aux erreurs d'Autopilot

Le , par Stéphane le calme

564PARTAGES

26  0 
Une vidéo de 2016 que Tesla a utilisée pour promouvoir sa technologie Autopilot a été mise en scène pour montrer des capacités telles que s'arrêter à un feu rouge et accélérer à un feu vert que le système n'avait pas, selon le témoignage d'un ingénieur principal. La vidéo, qui reste archivée sur le site Web de Tesla, a été publiée en octobre 2016 et promue sur Twitter par le directeur général Elon Musk comme preuve que « Tesla se conduit toute seule ».

Mais le Model X ne se conduisait pas avec la technologie que Tesla avait déployée, a déclaré Ashok Elluswamy, directeur du logiciel Autopilot chez Tesla, dans la transcription d'une déposition de juillet prise comme preuve dans un procès contre Tesla pour un accident mortel en 2018 impliquant un ancien ingénieur d'Apple. Le témoignage précédemment non rapporté d'Elluswamy représente la première fois qu'un employé de Tesla confirme et détaille comment la vidéo a été produite.


Le système Autopilot de Tesla, avec son option « Full Self-Driving », n'est rien de ce que son nom l'indique : ce n'est ni un véritable pilote automatique, ni un véhicule capable de se conduire entièrement. Au lieu de cela, il s'agit d'un système avancé d'aide à la conduite qui peut aider à alléger la charge de travail du conducteur lorsqu'il se trouve sur une autoroute ou dans des rues urbaines clairement marquées.

Dans une vidéo promotionnelle vantant les prouesses technologiques de Tesla, une Tesla Model X est présentée en train de rouler, s'arrêter à un feu rouge et accélérer au feu vert. Elle est toujours sur le site Web de Tesla et porte le slogan : « la personne qui occupe le siège du conducteur n'est là que pour des raisons légales. Elle ne fait rien. La voiture se conduit toute seule ».


La vidéo datant de 2016 faisant la promotion de la conduite autonome de Tesla

Que nenni, a clamé Ashok Elluswamy dans un témoignage en juillet dont la transcription vient de fuiter. Il a expliqué que l'équipe d'Autopilot de Tesla avait entrepris de concevoir et d'enregistrer une « démonstration des capacités du système » à la demande d'Elon Musk.

Pour créer la vidéo, la Tesla a utilisé la cartographie 3D sur un itinéraire prédéterminé entre une maison de Menlo Park, en Californie, et le siège social de Tesla à Palo Alto, une fonctionnalité qui n'est pas disponible pour les clients. Il faut dire que lorsqu'il lui a été demandé si la vidéo de 2016 montrait les performances du système Tesla Autopilot disponible dans une voiture de série à l'époque, Elluswamy a répondu : « Ce n'est pas le cas ».

Et d'expliquer que les conducteurs sont intervenus pour prendre le contrôle lors des essais. En essayant de montrer que le Model X pouvait se garer sans conducteur, une voiture d'essai s'est écrasée contre une clôture dans le parking de Tesla, a-t-il reconnu.

Cependant, « l'intention de la vidéo n'était pas de décrire avec précision ce qui était disponible pour les clients en 2016. [L'intention] était de décrire ce qu'il était possible d'intégrer au système », a déclaré Elluswamy, selon une transcription de son témoignage vue par Reuters. Pourtant, Musk a fait la promotion de la vidéo à l'époque, tweetant que les véhicules Tesla ne nécessitent « aucune intervention humaine » pour traverser les rues urbaines jusqu'aux autoroutes et éventuellement trouver une place de parking.

Dans sa déposition de juillet, qui a été prise comme preuve dans un procès contre Tesla pour un accident en 2018 qui a coûté la vie à l'ancien ingénieur d'Apple Walter Huang, Elluswamy a déclaré que Musk voulait que l'équipe Autopilot enregistre « une démonstration des capacités du système ».

Andrew McDevitt, l'avocat qui représente la femme de Huang et qui a interrogé Elluswamy en juillet, a déclaré à Reuters qu'il était « manifestement trompeur de présenter cette vidéo sans aucun avertissement ni astérisque ». Le National Transportation Safety Board a conclu en 2020 que l'accident mortel de Huang était probablement causé par sa distraction et les limites de l'Autopilot. Il a déclaré que la « surveillance inefficace de l'engagement du conducteur" de Tesla avait contribué à l'accident.

Elluswamy a déclaré que les conducteurs pouvaient « tromper le système », faisant croire à un système Tesla qu'ils prêtaient attention en fonction des commentaires du volant alors qu'ils ne le faisaient pas. Mais il a dit qu'il ne voyait aucun problème de sécurité avec Autopilot si les conducteurs étaient attentifs.

Walter Huang s'était déjà plaint du mauvais fonctionnement de sa voiture

Walter Huang, l'ancien ingénieur logiciel d’Apple mort dans un accident de circulation en mars 2018 lorsque son véhicule Tesla Model X a heurté un mur Jersey, s’était déjà plaint du mauvais fonctionnement de sa voiture sur le même tronçon de l’autoroute de la Silicon Valley où il a trouvé la mort. Un mur Jersey ou barrière Jersey est une barrière en béton utilisée pour séparer des voies de circulation. Il est conçu pour minimiser les dommages au véhicule en cas de contact accidentel, tout en empêchant sa traversée en cas de collision frontale.


Ses plaintes ont été détaillées dans des documents publiés en février 2020 par les enquêteurs fédéraux dans le cadre d’une investigation concernant deux accidents de Tesla impliquant Autopilot, l’un en Californie et l’autre en Floride.

Les documents publiés par le NTSB (National Transportation Safety Board, l’agence américaine indépendante responsable des enquêtes sur les accidents aéronautiques, routiers, maritimes, ferroviaires, ainsi que ceux concernant les pipelines [gazoducs et oléoducs]) indiquent que Walter Huang avait confié à sa femme, à son frère, à un ami qui possède un modèle X et à l’avocat familial que, sur le même tronçon près de Mountain View, l'Autopilot de sa Tesla avait déjà dirigé son 4x4 vers le mur Jersey où il s’est écrasé par la suite. Selon l’avocat de la famille de Huang, après ce premier incident, Huang avait confié à son ami avoir noté que l’application d’une mise à jour du logiciel Autopilot a affecté les performances de son véhicule et probablement causé le comportement kamikaze étrange de ce dernier.

Les enregistrements d’un iPhone récupéré sur le lieu de l’accident ont montré que Huang l’utilisait peut-être avant l’accident. Les enregistrements obtenus d’AT&T ont montré que les données avaient été utilisées alors que le véhicule était en mouvement, mais la source des transmissions n’a pas pu être déterminée, a écrit le NTSB. Une transmission a eu lieu moins d’une minute avant l’accident.

Lors de l’accident en Floride, Jeremy Banner, qui est décédé environ un an plus tard à Delray Beach, a activé la fonction Autopilot de sa berline Model 3 10 secondes avant l’accident, puis a retiré ses mains du volant, selon des documents du NTSB. La voiture est alors passée sous un semi-remorque qui traversait devant lui, faisant une embardée sur le toit de la voiture et tuant Banner. Cet accident était étrangement similaire à un autre survenu en Floride en 2016 dans lequel un véhicule Tesla sur pilote automatique est passé sous une semi-remorque. Dans un rapport préliminaire, le NTSB a toutefois précisé que les causes de l’accident mortel de Banner n’ont pas encore été élucidées.

De toute évidence, selon les experts, Huang et Banner sont morts parce qu’ils ont confié la direction des opérations de conduite à l’Autopilot et ont pensé, peut-être juste l’espace d’un instant, que le système d’assistance à la conduite de Tesla était vraiment autonome et infaillible.

Le nom donné par Tesla au système Autopilot embarqué dans les voitures autonomes de la marque peut prêter à confusion, car à l’heure actuelle, l’Autopilot est un système partiellement automatisé conçu pour maintenir un véhicule sur sa voie et garder une distance de sécurité avec les véhicules qui le précèdent. Il peut également changer de voie avec l’accord du conducteur. Selon les dernières recommandations du constructeur, l’Autopilot est au stade de son développement actuel destiné à être utilisé uniquement pour l’assistance à la conduite et les conducteurs doivent être prêts à intervenir à tout moment. Signalons également que le logiciel Autopilot de Tesla a été bridé sur le marché européen pour se conformer aux nouvelles réglementations de l’UE, mais que l’entreprise a promis de se battre pour lever ces restrictions qui empêcheraient d’offrir une expérience de conduite autonome complète.

Quoi qu’il en soit, depuis le drame, la famille Huang a poursuivi Tesla ainsi que Caltrans (l’entreprise en charge de l’entretien routier sur la voie où a eu lieu l’accident) pour avoir prétendument négligé d’entretenir l’autoroute. Il faut souligner que la portion du mur Jersey au niveau de laquelle la Model X de Huang s’est écrasée avait été endommagée et réparée plus fréquemment que toutes les autres. Au cours des trois années qui ont précédé l'accident de Huang, cette portion a été cognée au moins cinq fois, dont une fois lors d'un accident mortel.

La poursuite allègue que le système d'aide à la conduite Autopilot de Tesla a mal interprété les lignes de voie, n'a pas détecté la glissière de sécurité en béton, a échoué dans le freinage et a plutôt accéléré dans la médiane.

« Mme Huang a perdu son mari et deux enfants ont perdu leur père parce que Tesla est en train de tester son logiciel Autopilot sur des pilotes actifs ». « La famille Huang veut empêcher cette tragédie d'arriver à d'autres conducteurs utilisant des véhicules Tesla ou des véhicules semi-autonomes », a-t-il ajouté.

Les véhicules Tesla ont été impliqués dans plusieurs autres accidents qui ont fait l’objet de poursuite judiciaire au cours de ces dernières années. Ce qui pourrait avoir des conséquences plus larges pour l'entreprise qui tente de convaincre davantage de consommateurs d'acheter ses véhicules. Ces poursuites qui impliquent des problèmes présumés au niveau d'Autopilot pourraient également entraîner des obstacles réglementaires plus importants pour l'entreprise.

Les véhicules Tesla utilisant son système d'assistance à la conduite Autopilot ont été impliqués dans 273 accidents connus de juillet 2021 à juin de l'année dernière, selon les données de la NHTSA. Teslas représentait près de 70% des 329 accidents dans lesquels des systèmes avancés d'assistance à la conduite étaient impliqués, ainsi qu'une majorité de décès et de blessures graves qui leur sont associés, selon les données. Depuis 2016, l'agence fédérale a enquêté sur un total de 35 accidents dans lesquels les systèmes "Full Self-Driving" ou "Autopilot" de Tesla étaient probablement utilisés. Ensemble, ces accidents ont conduit à la mort de 19 personnes.

Le terme Full Self-Driving critiqué par d'autres constructeurs automobiles

Le terme "Full Self-Driving" a été critiqué par d'autres fabricants et groupes industriels comme trompeur et même dangereux. L'année dernière, la société de technologie de conduite autonome Waymo, détenue par la société mère de Google, a annoncé qu'elle n'utiliserait plus le terme.

« Malheureusement, nous constatons que certains constructeurs automobiles utilisent le terme 'self-driving' [ndlr. auto-conduite] de manière inexacte, donnant aux consommateurs et au grand public une fausse impression des capacités de la technologie d'assistance à la conduite (pas entièrement autonome) », a écrit Waymo dans un billet de blog. « Cette fausse impression peut amener quelqu'un à prendre sans le savoir des risques (comme retirer ses mains du volant) qui pourraient mettre en péril non seulement sa propre sécurité, mais aussi celle des personnes qui l'entourent ».

Bien que Waymo ne nomme aucun nom, la déclaration semble clairement motivée par la décision controversée de Musk d'utiliser le terme Full Self Driving.

Dans le même ordre d'idées, le premier groupe de pression pour les voitures autonomes est récemment passé de l'appellation « Self-Driving Coalition for Safer Streets » à « Autonomous Vehicle Industry Association ». Le changement, a déclaré le groupe industriel, reflétait son « engagement envers la précision et la cohérence dans la façon dont l'industrie, les décideurs, les journalistes et le public parlent de la technologie de conduite autonome ».

Le secrétaire aux Transports, Pete Buttigieg, a également critiqué les technologies émergentes d'assistance à la conduite, qui, selon lui, n'ont pas remplacé le besoin d'un conducteur humain alerte : « Je n'arrête pas de le dire ; tout ce que vous pouvez acheter sur le marché aujourd'hui est une technologie d'assistance à la conduite, pas une technologie de remplacement du conducteur », a déclaré Buttigieg. « Je me fiche de comment ça s'appelle. Nous devons nous assurer que nous sommes parfaitement clairs à ce sujet, même si les entreprises ne le sont pas ».

Bien que le langage puisse évoluer, il n'y a toujours pas de restrictions fédérales sur les essais de véhicules autonomes sur la voie publique, bien que les États aient imposé des limites dans certains cas. Tesla n'a annoncé aucun changement au programme ou à son image de marque, mais le crash était l'un des multiples ce mois-là. Plusieurs jours avant l'accident de Bay Bridge, le 18 novembre dans l'Ohio, une Tesla Model 3 s'est écrasée contre un SUV de l'Ohio State Highway Patrol arrêté dont les feux de détresse clignotaient. La Tesla est également soupçonnée d'avoir été en mode Full Self-Driving et fait également l'objet d'une enquête de la NHTSA.

Sources : transcriptions de la déposition d'Ashok Elluswamy, Tesla

Et vous ?

Quelle lecture en faites-vous ?
Êtes-vous surpris par le témoignage de l'ingénieur Tesla qui reconnait que la vidéo utilisée pour la promotion était truquée ?
Que pensez-vous alors des propos d'Elon Musk sur son compte Twitter ? Était-il, selon vous, au courant ? Quelles implications potentielles cela peut-il avoir ?

Voir aussi :

Les rapports évoquant un « freinage fantôme » des Tesla qui détectent des « incidents imaginaires » se multiplient : une Tesla en mode Full Self-Driving freine brusquement, entraînant un carambolage

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Darkzinus
Expert éminent sénior https://www.developpez.com
Le 23/04/2024 à 11:37
C'est beau une inscription sur le site spécialement pour défendre Tesla. Chef de projet SSII pour le service communication de la marque ?
12  2 
Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
9  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 22/04/2024 à 12:23
Il ne fait pas de réduction sur son outil de conduite autonome, il ne fait que donner un prix plus raisonnable à un truc inutile et pas du tout autonome.
Il ne lui reste plus qu'à en changer le nom pour ne plus mentir.
11  2 
Avatar de totozor
Membre expert https://www.developpez.com
Le 23/04/2024 à 8:32
Citation Envoyé par DevCon1234 Voir le message
Je croyais que les développeurs réfléchissaient un peu plus, mais en fait, ils agissent exactement comme les médias grand public,
Chat perché je ne suis pas développeur.
Ne vous demandez-vous pas pourquoi le moindre pneu crevé d'une Tesla en Australie fait la une des journaux ? Pourquoi le moindre accident impliquant une Tesla fait la une de tous les journaux ?
Non, je ne me le demande pas parce que je suis le plus intelligent (même plus que Musk) et que (une partie de) la réponse est simple : Tesla communique plus que n'importe qui. Donc les médias sont rentrée dans la bulle médiatique que la marque a créé, quitte à parler de faits divers.
Pourquoi les utilisateurs deviennent-ils fans alors que ceux qui n'ont jamais conduit crachent dessus ?
J'ai un ami qui a une Tesla qui en faisait des éloges dithyrambique et beaucoup de collègues qui ont hâte que les 5 ans passent pour passer à une autre voiture.
Pourquoi les médias européens reprennent-ils comme des perroquets la moindre information américaine alors que l'on sait que Musk est politiquement visé ?
Parce qu'une partie de ce qui est remonté est factuellement vrai, indépendamment de l'alignement complotiste politique de Musk.
Pourquoi ne parle-t-on que des rappels de Tesla alors que Mercedes ou BMW en font davantage mais ne sont jamais mentionnés dans les médias ?
Parce que Tesla est en avance sur tout le monde en ignorant les risques qu'ils prennent pour les utilisateurs de la route (et pas que ceux qui les conduisent).
Par exemple Mercedes engage sa responsabilité quand son "autopilot" est activé, Tesla fait son max pour n'être responsable de rien.
Pourquoi parle-t-on toujours de piratage alors que ce sont les voitures les plus sûres à ce niveau ?
TOUJOURS? la dernière news ici date d'il y a un an et je n'en retrouve pas d'autre. Après un article en 2021 et un en 2020. vraiment TOUJOURS.
Pourquoi, pourquoi, pourquoi ?
Parce que, parce que, parce que! Musk et Tesla sont des machines à cliques (en prétendant être ce qu'ils ne sont pas et en surcommuniquant).
On appelle ça le revers de la médaille.

Tesla n'est pas parfaite, mais ce sont clairement les meilleures voitures au meilleur prix avec une technologie de pointe qui devrait être admirée par tout développeur digne de ce nom.
Ne pas avoir de bouton physique est l'exemple même d'un système mal conçu.
Vous avez le meilleur programme mais son utilisation est physiquement dangereuse.
Il en va de même pour le FSD, les médias racontent n'importe quoi. Il suffit qu'une jante soit rayée pour invalider la technologie
Un modèle de voiture autonome incapable d'éviter un trottoir c'est inquiétant, non?
Une voiture qui freine en plein milieu de l'autoroute sans obstacle c'est inquiétant, non?
Arrive-t-il a des chauffeurs de faire de même? Oui, mais ils ne crient pas partout qu'ils conduisent mieux que quiconque.
alors qu'elle a déjà parcouru plus d'1 milliard de kilomètres et évité de nombreux accidents (curieusement, on n'en entend jamais parler, pourquoi ?).
C'est quand même dingue que les médias ne soient pas plein de Tesla qui évite des accidents!!!
Combien de news racontent l'histoire de Gérard qui a sauvé un petit vieux de je ne sais quoi?
Combien de news racontent l'histoire de Géraldine qui donne une pièce à un SDF?
Combien de news racontent l'histoire de Marcel/Antoine/Melissa/Sophie qui ont bien géré leur freinage d'urgence et évité un accident?
Je sais bien que Tesla ne dépense pas un centime en publicité, ce qui explique en partie cette haine des médias, mais il y a aussi un aspect politique visant à dévaloriser ses entreprises.
Musk ne dépenses pas un sous en publicité?
Elon Musk était contre la pub, mais après avoir racheté Twitter, il a demandé à Tesla de dépenser 200 000 $ en publicité sur X, et de payer des comptes premium sur X
Je veux bien un salaire de ce genre de pas un centime.
Musk se surmédiatise, si les média s'acharnent sur lui c'est parce qu'il est nul à chier en ce moment. Pendant la période SpaceX les médias faisaient son éloge (et plutôt à raison), les médias ont fait la pub de son Starlink donc les médias n'ont pas du tout toujours été contre lui.
Il serait peut-être temps de prendre un peu de hauteur,
Je vous retourne le compliment.
Je n'ai aucun problème à attaquer Musk et ses entreprises, pourtant il m'arrive aussi de rappeler qu'ils sont suffisament mauvais pour qu'on évite de les attaquer sur des faits divers isolés.
Il y a un avantage à ce que vous faites, c'est de donner un bon moment pour acheter des actions Tesla. Lorsque vous devenez arrogants, que vous vous réjouissez d'une baisse des ventes et que le moindre fait divers vous permet de dénigrer la marque, c'est un bon signe pour acheter
Mais alors de quoi vous plaignez vous?
Vous ressortez gagnante de ça!
Vous êtes la plus intelligente, vous surnagez dans ce marasme.
Vous devriez nous encouragé plutôt que de nous critiquer. (Mais par pitié n'activez jamais le FSD en Belgique j'aimerais éviter de finir sur votre capot parce que votre voiture n'a pas identifié quel type d'obstacle je suis)
11  2 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 17/10/2023 à 23:40
Citation Envoyé par Ryu2000 Voir le message
Ben justement...

Pilote automatique

Autopilot ça ne veut pas dire que ça se conduit tout seul.
Tu mets la définition de "autopilot", mais pourquoi pas la définition de "Full Self-Driving"?
Non, parce qu'il parle de ça aussi. Littéralement "Conduite autonome complète/totale"...

Tesla aurait appelé ça "Self-driving", encore, on aurait pu chipoter, et faire comme tous les constructeurs et parler de niveau 1, 2, 3, 4, 5. Mais là, c'est du foutage de gueule.
Je ré-itère: cet ingénieur est soit un menteur, soit quelqu'un qui devrait ouvrir un dictionnaire.
8  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 18/10/2023 à 22:34
Citation Envoyé par Ryu2000 Voir le message
Ça ne parle pas que de Full Self-Driving ça parle aussi d'Autopilot !
Et autopilot ça ne veut pas dire que ça se conduit tout seul.
C'est un dialogue de sourds

Citation Envoyé par Ryu2000 Voir le message
Pour Full Self-Driving je ne sais pas.
Bon après Tesla aurait du choisir des expressions plus précise pour que les gens comprennent que la voiture ne se conduit pas toute seule.
Quand une entreprise te vend son accès bêta sous le nom de Full Self-Driving, je pense que c'est fait exprès.
7  0 
Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 22/04/2024 à 14:03
Tu peux jouer sur les mots mais dans les faits les études ont montré que l'autopilot de Tesla n'est pas du tout à la hauteur, et les réseaux sociaux regorgent de milliers de témoignages dans ce sens, et qu'il y a déjà eu des accidents mortels, principalement du à la bêtise des gens qui ont vraiment cru qu'ils peuvent dormir, regarder un film, faire des jeux vidéos, ou faire l'amour pendant que le FSD conduisait leur Tesla.

Dans les faits d'autres constructeurs ont un FSD qui est mieux coté que celui de Tesla, le problème de Tesla c'est qu'Elon Musk a fait le buzz, hors maintenant c'est le retour à la réalité : leur voitures sont pourries, elle ne sont pas fiables, certains composants ont étés montés avec du ruban adhésif, les réparations coutent une fortune, Tesla à menti sur l'autonomie réelle, et quand c'est l’hiver ces voitures ne marchent plus, les voitures et les stations de charges tombent en panne, et le FSD Tesla est totalement moisi et dangereux. Donc une fois la Hype passée c'est un désastre.
En Chine les Tesla ne se vendent plus du tout, car les chinois fabriquent des autos plus fiables et moins chères. Elon ne solde pas seulement le FSD mais aussi le prix de plusieurs modèles, qui ne se vendent plus à cause de la réputation horrible, et du fait que les chinois proposent bien mieux.
9  2 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 22/04/2024 à 17:39
Citation Envoyé par LeQueteur Voir le message
pour juste se faire une bonne idée, il me semble que durant le confinement, on était tous… confinés !! Pourquoi faire porter le blâme sur Tesla alors que c'est une décision du GOUVERNEMENT de confiner les espaces publics avec interdiction de sortir… que les employés aient été confines n'apparait donc plus comme un acte d'oppression sinon il va falloir demander des comptes aussi au gouvernement…
Si vous ne voyez pas de différence entre confiner les gens (pas ensembles) pour les protéger et Musk qui entasse ses ouvriers dans son usine pour bosser alors on ne peut plus rien pour vous.

Citation Envoyé par LeQueteur Voir le message
Bon, Tesla falsifie des vidéos et des statistiques de son système quel qu'il soit, vous le dites sans citer aucune source afin de vérifier ces dires… ou alors, c'est qu'un parti pris a déjà été pris a priori…

C'est fou ce qu'on peut être biaisé quand on porte des œillères ...
A qui le dites vous... pas besoin de moi pour donner les sources dont ce fil est rempli

Citation Envoyé par LeQueteur Voir le message
Quand on recherche la vérité, il me parait que le minimum est de mener une bonne investigation et d'écouter, d'abord, les déclarations des deux parties en conflit.
Oui, et il y a aussi les faits qui sont tenaces

Citation Envoyé par LeQueteur Voir le message
Là, on parle du cas de la femme citée dans l'article, les autres cas ne sont pas inclus dans la discussion, sauf si le but n'est pas de traiter l'information équitablement, mais plutôt inventer des excuses afin de ne pas traiter le cas avec objectivité.
Pas de bol, la discussion qui a maintenant pas mal de pages ne parle pas que du cas de cette dame. La question qui m'interpelle ici c'est quelle illusion Musk vous a fait pour voir en lui encore une possibilité de bienveillance face à toutes ces casseroles.

Citation Envoyé par LeQueteur Voir le message
Jouer sur l'émotionnel n'est surement pas la meilleure manière d'aborder une discussion ou il est demandé de faire preuve d'un minimum de bon sens et d'avoir un minimum de jugeote…
Oui, a commencer par lire la discussion et pas juste le dernier poste du rédacteur ainsi que pleins d'autres sources qui racontent la même chose et d'autres choses avec des preuves bien solides...

Quand à la jugeote vous pouvez en effet l'utiliser, lisez un peu sur la conduite autonome, ses problèmes et enjeux et jugeotez sur le choix de ne laisser que quelques cameras placées aux endroits qui permettent de préserver les choix esthétiques du véhicule ; vous trouverez d'un seul coup moins louche le fait que le FSD ne fait pas le job.
9  2 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
6  0