IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un ingénieur Tesla témoigne que la vidéo de 2016 faisant la promo de la conduite autonome du véhicule était truquée
Pendant un procès impliquant la mort d'un individu suite aux erreurs d'Autopilot

Le , par Stéphane le calme

269PARTAGES

26  0 
Une vidéo de 2016 que Tesla a utilisée pour promouvoir sa technologie Autopilot a été mise en scène pour montrer des capacités telles que s'arrêter à un feu rouge et accélérer à un feu vert que le système n'avait pas, selon le témoignage d'un ingénieur principal. La vidéo, qui reste archivée sur le site Web de Tesla, a été publiée en octobre 2016 et promue sur Twitter par le directeur général Elon Musk comme preuve que « Tesla se conduit toute seule ».

Mais le Model X ne se conduisait pas avec la technologie que Tesla avait déployée, a déclaré Ashok Elluswamy, directeur du logiciel Autopilot chez Tesla, dans la transcription d'une déposition de juillet prise comme preuve dans un procès contre Tesla pour un accident mortel en 2018 impliquant un ancien ingénieur d'Apple. Le témoignage précédemment non rapporté d'Elluswamy représente la première fois qu'un employé de Tesla confirme et détaille comment la vidéo a été produite.


Le système Autopilot de Tesla, avec son option « Full Self-Driving », n'est rien de ce que son nom l'indique : ce n'est ni un véritable pilote automatique, ni un véhicule capable de se conduire entièrement. Au lieu de cela, il s'agit d'un système avancé d'aide à la conduite qui peut aider à alléger la charge de travail du conducteur lorsqu'il se trouve sur une autoroute ou dans des rues urbaines clairement marquées.

Dans une vidéo promotionnelle vantant les prouesses technologiques de Tesla, une Tesla Model X est présentée en train de rouler, s'arrêter à un feu rouge et accélérer au feu vert. Elle est toujours sur le site Web de Tesla et porte le slogan : « la personne qui occupe le siège du conducteur n'est là que pour des raisons légales. Elle ne fait rien. La voiture se conduit toute seule ».


La vidéo datant de 2016 faisant la promotion de la conduite autonome de Tesla

Que nenni, a clamé Ashok Elluswamy dans un témoignage en juillet dont la transcription vient de fuiter. Il a expliqué que l'équipe d'Autopilot de Tesla avait entrepris de concevoir et d'enregistrer une « démonstration des capacités du système » à la demande d'Elon Musk.

Pour créer la vidéo, la Tesla a utilisé la cartographie 3D sur un itinéraire prédéterminé entre une maison de Menlo Park, en Californie, et le siège social de Tesla à Palo Alto, une fonctionnalité qui n'est pas disponible pour les clients. Il faut dire que lorsqu'il lui a été demandé si la vidéo de 2016 montrait les performances du système Tesla Autopilot disponible dans une voiture de série à l'époque, Elluswamy a répondu : « Ce n'est pas le cas ».

Et d'expliquer que les conducteurs sont intervenus pour prendre le contrôle lors des essais. En essayant de montrer que le Model X pouvait se garer sans conducteur, une voiture d'essai s'est écrasée contre une clôture dans le parking de Tesla, a-t-il reconnu.

Cependant, « l'intention de la vidéo n'était pas de décrire avec précision ce qui était disponible pour les clients en 2016. [L'intention] était de décrire ce qu'il était possible d'intégrer au système », a déclaré Elluswamy, selon une transcription de son témoignage vue par Reuters. Pourtant, Musk a fait la promotion de la vidéo à l'époque, tweetant que les véhicules Tesla ne nécessitent « aucune intervention humaine » pour traverser les rues urbaines jusqu'aux autoroutes et éventuellement trouver une place de parking.

Dans sa déposition de juillet, qui a été prise comme preuve dans un procès contre Tesla pour un accident en 2018 qui a coûté la vie à l'ancien ingénieur d'Apple Walter Huang, Elluswamy a déclaré que Musk voulait que l'équipe Autopilot enregistre « une démonstration des capacités du système ».

Andrew McDevitt, l'avocat qui représente la femme de Huang et qui a interrogé Elluswamy en juillet, a déclaré à Reuters qu'il était « manifestement trompeur de présenter cette vidéo sans aucun avertissement ni astérisque ». Le National Transportation Safety Board a conclu en 2020 que l'accident mortel de Huang était probablement causé par sa distraction et les limites de l'Autopilot. Il a déclaré que la « surveillance inefficace de l'engagement du conducteur" de Tesla avait contribué à l'accident.

Elluswamy a déclaré que les conducteurs pouvaient « tromper le système », faisant croire à un système Tesla qu'ils prêtaient attention en fonction des commentaires du volant alors qu'ils ne le faisaient pas. Mais il a dit qu'il ne voyait aucun problème de sécurité avec Autopilot si les conducteurs étaient attentifs.

Walter Huang s'était déjà plaint du mauvais fonctionnement de sa voiture

Walter Huang, l'ancien ingénieur logiciel d’Apple mort dans un accident de circulation en mars 2018 lorsque son véhicule Tesla Model X a heurté un mur Jersey, s’était déjà plaint du mauvais fonctionnement de sa voiture sur le même tronçon de l’autoroute de la Silicon Valley où il a trouvé la mort. Un mur Jersey ou barrière Jersey est une barrière en béton utilisée pour séparer des voies de circulation. Il est conçu pour minimiser les dommages au véhicule en cas de contact accidentel, tout en empêchant sa traversée en cas de collision frontale.


Ses plaintes ont été détaillées dans des documents publiés en février 2020 par les enquêteurs fédéraux dans le cadre d’une investigation concernant deux accidents de Tesla impliquant Autopilot, l’un en Californie et l’autre en Floride.

Les documents publiés par le NTSB (National Transportation Safety Board, l’agence américaine indépendante responsable des enquêtes sur les accidents aéronautiques, routiers, maritimes, ferroviaires, ainsi que ceux concernant les pipelines [gazoducs et oléoducs]) indiquent que Walter Huang avait confié à sa femme, à son frère, à un ami qui possède un modèle X et à l’avocat familial que, sur le même tronçon près de Mountain View, l'Autopilot de sa Tesla avait déjà dirigé son 4x4 vers le mur Jersey où il s’est écrasé par la suite. Selon l’avocat de la famille de Huang, après ce premier incident, Huang avait confié à son ami avoir noté que l’application d’une mise à jour du logiciel Autopilot a affecté les performances de son véhicule et probablement causé le comportement kamikaze étrange de ce dernier.

Les enregistrements d’un iPhone récupéré sur le lieu de l’accident ont montré que Huang l’utilisait peut-être avant l’accident. Les enregistrements obtenus d’AT&T ont montré que les données avaient été utilisées alors que le véhicule était en mouvement, mais la source des transmissions n’a pas pu être déterminée, a écrit le NTSB. Une transmission a eu lieu moins d’une minute avant l’accident.

Lors de l’accident en Floride, Jeremy Banner, qui est décédé environ un an plus tard à Delray Beach, a activé la fonction Autopilot de sa berline Model 3 10 secondes avant l’accident, puis a retiré ses mains du volant, selon des documents du NTSB. La voiture est alors passée sous un semi-remorque qui traversait devant lui, faisant une embardée sur le toit de la voiture et tuant Banner. Cet accident était étrangement similaire à un autre survenu en Floride en 2016 dans lequel un véhicule Tesla sur pilote automatique est passé sous une semi-remorque. Dans un rapport préliminaire, le NTSB a toutefois précisé que les causes de l’accident mortel de Banner n’ont pas encore été élucidées.

De toute évidence, selon les experts, Huang et Banner sont morts parce qu’ils ont confié la direction des opérations de conduite à l’Autopilot et ont pensé, peut-être juste l’espace d’un instant, que le système d’assistance à la conduite de Tesla était vraiment autonome et infaillible.

Le nom donné par Tesla au système Autopilot embarqué dans les voitures autonomes de la marque peut prêter à confusion, car à l’heure actuelle, l’Autopilot est un système partiellement automatisé conçu pour maintenir un véhicule sur sa voie et garder une distance de sécurité avec les véhicules qui le précèdent. Il peut également changer de voie avec l’accord du conducteur. Selon les dernières recommandations du constructeur, l’Autopilot est au stade de son développement actuel destiné à être utilisé uniquement pour l’assistance à la conduite et les conducteurs doivent être prêts à intervenir à tout moment. Signalons également que le logiciel Autopilot de Tesla a été bridé sur le marché européen pour se conformer aux nouvelles réglementations de l’UE, mais que l’entreprise a promis de se battre pour lever ces restrictions qui empêcheraient d’offrir une expérience de conduite autonome complète.

Quoi qu’il en soit, depuis le drame, la famille Huang a poursuivi Tesla ainsi que Caltrans (l’entreprise en charge de l’entretien routier sur la voie où a eu lieu l’accident) pour avoir prétendument négligé d’entretenir l’autoroute. Il faut souligner que la portion du mur Jersey au niveau de laquelle la Model X de Huang s’est écrasée avait été endommagée et réparée plus fréquemment que toutes les autres. Au cours des trois années qui ont précédé l'accident de Huang, cette portion a été cognée au moins cinq fois, dont une fois lors d'un accident mortel.

La poursuite allègue que le système d'aide à la conduite Autopilot de Tesla a mal interprété les lignes de voie, n'a pas détecté la glissière de sécurité en béton, a échoué dans le freinage et a plutôt accéléré dans la médiane.

« Mme Huang a perdu son mari et deux enfants ont perdu leur père parce que Tesla est en train de tester son logiciel Autopilot sur des pilotes actifs ». « La famille Huang veut empêcher cette tragédie d'arriver à d'autres conducteurs utilisant des véhicules Tesla ou des véhicules semi-autonomes », a-t-il ajouté.

Les véhicules Tesla ont été impliqués dans plusieurs autres accidents qui ont fait l’objet de poursuite judiciaire au cours de ces dernières années. Ce qui pourrait avoir des conséquences plus larges pour l'entreprise qui tente de convaincre davantage de consommateurs d'acheter ses véhicules. Ces poursuites qui impliquent des problèmes présumés au niveau d'Autopilot pourraient également entraîner des obstacles réglementaires plus importants pour l'entreprise.

Les véhicules Tesla utilisant son système d'assistance à la conduite Autopilot ont été impliqués dans 273 accidents connus de juillet 2021 à juin de l'année dernière, selon les données de la NHTSA. Teslas représentait près de 70% des 329 accidents dans lesquels des systèmes avancés d'assistance à la conduite étaient impliqués, ainsi qu'une majorité de décès et de blessures graves qui leur sont associés, selon les données. Depuis 2016, l'agence fédérale a enquêté sur un total de 35 accidents dans lesquels les systèmes "Full Self-Driving" ou "Autopilot" de Tesla étaient probablement utilisés. Ensemble, ces accidents ont conduit à la mort de 19 personnes.

Le terme Full Self-Driving critiqué par d'autres constructeurs automobiles

Le terme "Full Self-Driving" a été critiqué par d'autres fabricants et groupes industriels comme trompeur et même dangereux. L'année dernière, la société de technologie de conduite autonome Waymo, détenue par la société mère de Google, a annoncé qu'elle n'utiliserait plus le terme.

« Malheureusement, nous constatons que certains constructeurs automobiles utilisent le terme 'self-driving' [ndlr. auto-conduite] de manière inexacte, donnant aux consommateurs et au grand public une fausse impression des capacités de la technologie d'assistance à la conduite (pas entièrement autonome) », a écrit Waymo dans un billet de blog. « Cette fausse impression peut amener quelqu'un à prendre sans le savoir des risques (comme retirer ses mains du volant) qui pourraient mettre en péril non seulement sa propre sécurité, mais aussi celle des personnes qui l'entourent ».

Bien que Waymo ne nomme aucun nom, la déclaration semble clairement motivée par la décision controversée de Musk d'utiliser le terme Full Self Driving.

Dans le même ordre d'idées, le premier groupe de pression pour les voitures autonomes est récemment passé de l'appellation « Self-Driving Coalition for Safer Streets » à « Autonomous Vehicle Industry Association ». Le changement, a déclaré le groupe industriel, reflétait son « engagement envers la précision et la cohérence dans la façon dont l'industrie, les décideurs, les journalistes et le public parlent de la technologie de conduite autonome ».

Le secrétaire aux Transports, Pete Buttigieg, a également critiqué les technologies émergentes d'assistance à la conduite, qui, selon lui, n'ont pas remplacé le besoin d'un conducteur humain alerte : « Je n'arrête pas de le dire ; tout ce que vous pouvez acheter sur le marché aujourd'hui est une technologie d'assistance à la conduite, pas une technologie de remplacement du conducteur », a déclaré Buttigieg. « Je me fiche de comment ça s'appelle. Nous devons nous assurer que nous sommes parfaitement clairs à ce sujet, même si les entreprises ne le sont pas ».

Bien que le langage puisse évoluer, il n'y a toujours pas de restrictions fédérales sur les essais de véhicules autonomes sur la voie publique, bien que les États aient imposé des limites dans certains cas. Tesla n'a annoncé aucun changement au programme ou à son image de marque, mais le crash était l'un des multiples ce mois-là. Plusieurs jours avant l'accident de Bay Bridge, le 18 novembre dans l'Ohio, une Tesla Model 3 s'est écrasée contre un SUV de l'Ohio State Highway Patrol arrêté dont les feux de détresse clignotaient. La Tesla est également soupçonnée d'avoir été en mode Full Self-Driving et fait également l'objet d'une enquête de la NHTSA.

Sources : transcriptions de la déposition d'Ashok Elluswamy, Tesla

Et vous ?

Quelle lecture en faites-vous ?
Êtes-vous surpris par le témoignage de l'ingénieur Tesla qui reconnait que la vidéo utilisée pour la promotion était truquée ?
Que pensez-vous alors des propos d'Elon Musk sur son compte Twitter ? Était-il, selon vous, au courant ? Quelles implications potentielles cela peut-il avoir ?

Voir aussi :

Les rapports évoquant un « freinage fantôme » des Tesla qui détectent des « incidents imaginaires » se multiplient : une Tesla en mode Full Self-Driving freine brusquement, entraînant un carambolage

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
5  0 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 20/01/2023 à 11:08
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage.

Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.

Imaginez qu'un pneu éclate sans raison sur votre voiture, vous vous seriez dirigé et arrêté de ce coté de la route.
Et oui, sauf que le FSD l'a fait pour rien et l'a fait avec une brutalité que l'on aurait pas avec un pneu qui éclate, c'est donc bien de sa faute racine et exclusive.
3  0 
Avatar de pmithrandir
Expert éminent https://www.developpez.com
Le 18/01/2023 à 17:48
Pas surpris... Et je pense que le témoignage étant maintenant enregistré on va voir se multiplier les actions en justice pour demander un remboursement partiel du prix d'achat payé.

Le précédent du VW avec le trucage des émissions rejetées montre la voie légale pour obtenir de l'argent, a raison selon moi.
2  0 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 18/01/2023 à 21:44
Citation Envoyé par Uther Voir le message
Justement la distance de sécurité est censé comporter un marge suffisante pour faire tampon et que l’arrêt sec pour les premières voiture devienne de plus en plus progressif et de moins en moins dangereux au fur et a mesure que l'on s'éloigne.
Non justement.
Ce que montre Ryu2000 explique que c'est de pire en pire et le terme que vous utilisez "tampon" est bien choisi, on le rempli/consomme le tampon.
Le premier freine et la distance de secu fait le job et ensuite le "tampon" est consommé de plus en plus avec abaissement de la brutalité de la baisse de vitesse qui entraine une réaction moins rapide qui consomme le "tampon" et ceci jusqu'à ce qu'il n'y ait overflow sur le tampon et craboum.

Il y a des tonnes d'études sur le sujet, c'est sur ces mécanismes là que reposent les obligations de limitation de vitesse pour réguler le trafic et éviter les bouchons.
2  0 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 20/01/2023 à 10:13
Citation Envoyé par Stéphane le calme Voir le message
Quelle lecture en faites-vous ? Des implications potentielles pour Tesla ?
Des essais de prototypes réalisés par de simples clients sur la voie publique
Des faits tragiques qui prouvent de graves dysfonctionnement
Des faits qui montrent sans surprise qu'un conducteur sensé garder l'attention n'a plus la moindre attention quand on lui enlève la charge de la conduite.
Et maintenant la preuve de l'escroquerie quand Tesla et Musk montraient un fake du FSD.
... j'espère que ce destructeur sociétal de Musk sera enfin un peu calmé par les autorités. Le problème va bien au delà du FSD parce qu'en mentant sur le FSD Musk a pu mobiliser des investisseurs pour aller bien plus loin que le FSD dans la destruction sociétale
3  1 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par AoCannaille Voir le message
Je pense que le message d'Uther relève la théorie pure; dans un monde parfait, chaque véhicule respecte un tampon suffisant pour que personne n'ai jamais à freiner sèchement.

Si on prend l'exemple des trains, eux respectent ces distances de sécurités parfaites et j'ai n'ai aucun souvenir d'un train qui rentre dans un autre en France, tout trains confondus (TGV, TER, RER, Métro, Tram...).

Le calcul du tampon est relativement facile à déterminer informatiquement, il dépend de la performance du freinage dans les conditions actuelles de circulation (pluie, revêtement du sol, usure des pneu, usure des plaquettes,.. on peut en mettre des paramètres dans un véhicule plein de capteurs), la vitesse et du temps de réaction (attendu d'être quasi nul dans le cadre d'une décision d'une IA).

Dans le cadre de l'accident de Tesla qui nous occupe, on s'attend selon moi à ce qu'une IA "Full Self Driving" respecte cette distance de sécurité parfaite, ne serait-ce que pour respecter la loi. Ici, ce n'était visiblement pas le cas.
Un train peut être amené à freiner très brusquement dans son canton pour ne pas rentrer dans un autre canton ou il y a déjà un train. Sur la route c'est bien différent d'une part parce que les cantons n'existent pas et d'autre part parce que si une voiture freine brusquement pour respecter ses distances de sécurité elle crée elle même un danger, d'où le tampon qui est consommé pour freiner en douceur. Sur le route, le tampon que constitue la distance de sécurité est forcément consommée en partie, c'est son rôle.

Dans le cas décrit le FSD n'a pas "pas respecté les distances de sécurité", il a créé un danger en plantant pile.
2  0 
Avatar de marc.collin
Membre chevronné https://www.developpez.com
Le 21/01/2023 à 14:59
jouer avec la vie des gens ne devrait pas être toléré

difficile de comprendre ses propos, il changera surement d'avis la journée que ses enfants, femme, famille mourront à cause d'un tel système...

il n'est pas question ici d'un bug qui fait en sorte que les données sont effacé..... et qu'une mauvaise image est mis dans la page....... mais de bug qui cause des accidents dans le monde réel....
2  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 23/01/2023 à 8:31
Citation Envoyé par Stéphane le calme Voir le message
Key, un ancien entrepreneur en logiciels de 69 ans, a opté pour une perspective impartiale sur son propre accident, revêtant sa casquette d'ingénieur : « Le problème avec les objets fixes - je suis désolé, cela semble stupide - c'est qu'ils ne bougent pas »
Et après on s'étonne que les gens se foutent de nous.
M. Key a fait des études supérieures pour déclarer que les objets fixes ne bougent pas. Merci pour cette sagesse infinie.
s'est rassuré en apprenant qu'il y avait une raison derrière l'accident : une limitation logicielle connue, plutôt qu'une sorte d'événement de cygne noir.
M. Key était rassuré parce que Tesla savait qu'elle risquait de tuer des gens parce qu'elle connait les limites de son logiciel.
Mais il ne s'inquiète pas que la société a identifié un risque de tuer mais a décidé de le mettre "en prod" malgré tout sans prévenir le bêta testeur.
Pourtant, depuis l'accident, Key a acheté trois autres Teslas et continue d'utiliser à la fois Autopilot et le FSD
Il en a crashé 2 autres ou il les collectionne? C'est un peu plus cher qu'une majorette ces engins.
Le client idéal de Musk est quelqu'un comme Key, prêt à accepter le blâme quand quelque chose ne va pas mais possédant une foi presque illimitée dans la prochaine mise à jour. Dans une déposition, un ingénieur de Tesla l'a dit de manière tout à fait explicite*: « Nous voulons faire savoir au client que, tout d'abord, vous devez avoir confiance en votre véhicule*: tout fonctionne comme il se doit. Ensuite, la raison de votre accident ou la raison de votre incident retombe toujours sur vous ».
Donc Musk lui meme se définit comme gourou, et les gens le suivent malgré tout.
Comprenez-vous la perspective de Dave Key ? Partagez-vous son point de vue ? Dans quelle mesure ?
« La raison de votre accident ou la raison de votre incident retombe toujours sur vous », êtes-vous d'accord avec les propos tenus par cet ingénieur de Tesla ? Pourquoi ?
On ne parle pas d'un logiciel inoffensif dont les bugs ne font que perdre des heures aux utilisateurs, on parle d'un logiciel qui peut tuer des gens qui ne l'utilisent pas.
On parle d'un logiciel qui est mis sur les routes alors que son développeur sait qu'il risque de tuer des gens mais rassure les ingénieurs mentaux en disant "tkt, la prochaine version diminue la léthalité de 0.001% en étant capable de faire la différence entre une ambulance et un fond d'écran"
Oui je suis d'accord avec l'avis de cet ingénieur mais je ne suis pas d'accord que l'argument soit utilisé après que son employeur ait dit que le système est plus fiable qu'un conducteur humain.

Le cynisme de certains ingénieur me fait sincèrement peur.
3  1 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 20/01/2023 à 10:18
Citation Envoyé par petitours Voir le message
Non justement.
Ce que montre Ryu2000 explique que c'est de pire en pire et le terme que vous utilisez "tampon" est bien choisi, on le rempli/consomme le tampon.
Le premier freine et la distance de secu fait le job et ensuite le "tampon" est consommé de plus en plus avec abaissement de la brutalité de la baisse de vitesse qui entraine une réaction moins rapide qui consomme le "tampon" et ceci jusqu'à ce qu'il n'y ait overflow sur le tampon et craboum.

Il y a des tonnes d'études sur le sujet, c'est sur ces mécanismes là que reposent les obligations de limitation de vitesse pour réguler le trafic et éviter les bouchons.
Je pense que le message d'Uther relève la théorie pure; dans un monde parfait, chaque véhicule respecte un tampon suffisant pour que personne n'ai jamais à freiner sèchement.

Si on prend l'exemple des trains, eux respectent ces distances de sécurités parfaites et j'ai n'ai aucun souvenir d'un train qui rentre dans un autre en France, tout trains confondus (TGV, TER, RER, Métro, Tram...).

Le calcul du tampon est relativement facile à déterminer informatiquement, il dépend de la performance du freinage dans les conditions actuelles de circulation (pluie, revêtement du sol, usure des pneu, usure des plaquettes,.. on peut en mettre des paramètres dans un véhicule plein de capteurs), la vitesse et du temps de réaction (attendu d'être quasi nul dans le cadre d'une décision d'une IA).

Dans le cadre de l'accident de Tesla qui nous occupe, on s'attend selon moi à ce qu'une IA "Full Self Driving" respecte cette distance de sécurité parfaite, ne serait-ce que pour respecter la loi. Ici, ce n'était visiblement pas le cas.
1  0