IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La Tesla Model S qui a provoqué un carambolage à San Francisco était en mode Full Self-Driving
Selon les données publiées par le gouvernement fédéral

Le , par Stéphane le calme

121PARTAGES

9  0 
Des images de surveillance routière montrent un véhicule Tesla Model S changeant de voie, puis freinant brusquement dans la voie la plus à gauche du pont de la baie de San Francisco, entraînant un carambolage de huit véhicules en novembre. Si le conducteur a déclaré à la police qu'il avait utilisé la nouvelle fonction "Full Self-Driving" (FSD) de Tesla, cette information est désormais vérifiée et confirmée par les données que le gouvernement fédéral a publiées mardi.

Les fans de Tesla assurent que les systèmes d'assistance à la conduite Autopilot et Full Self-Driving sont meilleurs que les conducteurs humains. Bien qu'il soit encore en bêta, Full Self-Driving est en mesure de s'en sortir dans diverses situations de circulation, parfois il se comporte « normalement » pendant des heures d'affilée. Cela amène les gens à croire que le système est assez bon pour être utilisé comme un système de conduite quotidienne. Très vite, ils deviennent négligents, l'attention glisse et, au pire moment possible, ils reçoivent un rappel brutal que Full Self-Driving est toujours en bêta pour une raison : il est toujours en phase de développement.

Lorsque cela se produit, cela peut être tragique car souvent, le conducteur humain n'a pas assez de temps pour réagir à une situation dangereuse que le logiciel FSD Beta ne peut pas gérer.

Cela a peut-être été le cas lors du carambolage de novembre sur la I-80 à l'est du Bay Bridge à San Francisco. Le conducteur a déclaré à la police qu'il avait utilisé la nouvelle fonction "Full Self-Driving" (FSD) de Tesla, note le rapport, avant que le « clignotant gauche de Tesla ne soit activé », que ses « freins ne soient activés », et que la voiture ne se déplace à gauche, « ralentissant à un stop directement sur la trajectoire [du deuxième véhicule] ». La Tesla est passée sur la voie rapide avant de freiner rapidement. La décélération inattendue a ensuite conduit à un carambolage de huit véhicules.


L'enfant blessé dans l'accident était un enfant de 2 ans qui a subi une écorchure à l'arrière gauche de la tête ainsi qu'une ecchymose, selon le rapport détaillé de l'incident. Sur une photographie de l'accident, une poussette est garée devant la voiture dans laquelle l'enfant a été blessé.


Ces derniers mois, une vague de rapports est apparue dans laquelle les conducteurs de Tesla se sont plaints d'un « freinage fantôme » soudain lorsque le véhicule est à grande vitesse, provoquant presque des accidents dans de nombreux cas. Plus de 100 plaintes de ce type ont été déposées auprès de la NHTSA en trois mois, selon le Washington Post.

Le quotidien explique que :

Citation Envoyé par Washington Post
Teslas freine de manière inattendue en réponse à des dangers imaginaires – tels que la circulation venant en sens inverse sur des routes à deux voies – ce qui a incité leurs propriétaires terrifiés à déposer une vague de plaintes auprès de la National Highway Traffic Safety Administration au cours des trois derniers mois, selon une analyse du Washington Post des données fédérales sur la sécurité automobile.

Le phénomène, connu sous le nom de « freinage fantôme », est un problème persistant pour les véhicules Tesla.

Le constructeur automobile a été contraint de rappeler une version de son logiciel Full Self-Driving en octobre en raison de faux positifs de son système de freinage d'urgence automatique qui, selon lui, ont été déclenchés par la mise à jour logicielle. Les plaintes ont grimpé en flèche après le rappel et restent élevées, signalant l'inquiétude continue des propriétaires.

Les rapports de propriétaires de freinage fantôme à la NHTSA sont passés à 107 plaintes au cours des trois derniers mois, contre seulement 34 au cours des 22 mois précédents.
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.

La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.

Le terme Full Self-Driving critiqué par d'autres constructeurs automobiles

Le terme "Full Self-Driving" a été critiqué par d'autres fabricants et groupes industriels comme trompeur et même dangereux. L'année dernière, la société de technologie de conduite autonome Waymo, détenue par la société mère de Google, a annoncé qu'elle n'utiliserait plus le terme.

« Malheureusement, nous constatons que certains constructeurs automobiles utilisent le terme 'self-driving' [ndlr. auto-conduite] de manière inexacte, donnant aux consommateurs et au grand public une fausse impression des capacités de la technologie d'assistance à la conduite (pas entièrement autonome) », a écrit Waymo dans un billet de blog. « Cette fausse impression peut amener quelqu'un à prendre sans le savoir des risques (comme retirer ses mains du volant) qui pourraient mettre en péril non seulement sa propre sécurité, mais aussi celle des personnes qui l'entourent ».

Bien que Waymo ne nomme aucun nom, la déclaration semble clairement motivée par la décision controversée de Musk d'utiliser le terme Full Self Driving.

Dans le même ordre d'idées, le premier groupe de pression pour les voitures autonomes est récemment passé de l'appellation « Self-Driving Coalition for Safer Streets » à « Autonomous Vehicle Industry Association ». Le changement, a déclaré le groupe industriel, reflétait son « engagement envers la précision et la cohérence dans la façon dont l'industrie, les décideurs, les journalistes et le public parlent de la technologie de conduite autonome ».

Le secrétaire aux Transports, Pete Buttigieg, a également critiqué les technologies émergentes d'assistance à la conduite, qui, selon lui, n'ont pas remplacé le besoin d'un conducteur humain alerte : « Je n'arrête pas de le dire ; tout ce que vous pouvez acheter sur le marché aujourd'hui est une technologie d'assistance à la conduite, pas une technologie de remplacement du conducteur », a déclaré Buttigieg. « Je me fiche de comment ça s'appelle. Nous devons nous assurer que nous sommes parfaitement clairs à ce sujet, même si les entreprises ne le sont pas ».

Bien que le langage puisse évoluer, il n'y a toujours pas de restrictions fédérales sur les essais de véhicules autonomes sur la voie publique, bien que les États aient imposé des limites dans certains cas. Tesla n'a annoncé aucun changement au programme ou à son image de marque, mais le crash était l'un des multiples ce mois-là. Plusieurs jours avant l'accident de Bay Bridge, le 18 novembre dans l'Ohio, une Tesla Model 3 s'est écrasée contre un SUV de l'Ohio State Highway Patrol arrêté dont les feux de détresse clignotaient. La Tesla est également soupçonnée d'avoir été en mode Full Self-Driving et fait également l'objet d'une enquête de la NHTSA.

Source : CNN

Et vous ?

Quelle lecture en faites-vous ? Des implications potentielles pour Tesla ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
5  0 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 20/01/2023 à 11:08
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage.

Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.

Imaginez qu'un pneu éclate sans raison sur votre voiture, vous vous seriez dirigé et arrêté de ce coté de la route.
Et oui, sauf que le FSD l'a fait pour rien et l'a fait avec une brutalité que l'on aurait pas avec un pneu qui éclate, c'est donc bien de sa faute racine et exclusive.
3  0 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 20/01/2023 à 10:13
Citation Envoyé par Stéphane le calme Voir le message
Quelle lecture en faites-vous ? Des implications potentielles pour Tesla ?
Des essais de prototypes réalisés par de simples clients sur la voie publique
Des faits tragiques qui prouvent de graves dysfonctionnement
Des faits qui montrent sans surprise qu'un conducteur sensé garder l'attention n'a plus la moindre attention quand on lui enlève la charge de la conduite.
Et maintenant la preuve de l'escroquerie quand Tesla et Musk montraient un fake du FSD.
... j'espère que ce destructeur sociétal de Musk sera enfin un peu calmé par les autorités. Le problème va bien au delà du FSD parce qu'en mentant sur le FSD Musk a pu mobiliser des investisseurs pour aller bien plus loin que le FSD dans la destruction sociétale
3  1 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par AoCannaille Voir le message
Je pense que le message d'Uther relève la théorie pure; dans un monde parfait, chaque véhicule respecte un tampon suffisant pour que personne n'ai jamais à freiner sèchement.

Si on prend l'exemple des trains, eux respectent ces distances de sécurités parfaites et j'ai n'ai aucun souvenir d'un train qui rentre dans un autre en France, tout trains confondus (TGV, TER, RER, Métro, Tram...).

Le calcul du tampon est relativement facile à déterminer informatiquement, il dépend de la performance du freinage dans les conditions actuelles de circulation (pluie, revêtement du sol, usure des pneu, usure des plaquettes,.. on peut en mettre des paramètres dans un véhicule plein de capteurs), la vitesse et du temps de réaction (attendu d'être quasi nul dans le cadre d'une décision d'une IA).

Dans le cadre de l'accident de Tesla qui nous occupe, on s'attend selon moi à ce qu'une IA "Full Self Driving" respecte cette distance de sécurité parfaite, ne serait-ce que pour respecter la loi. Ici, ce n'était visiblement pas le cas.
Un train peut être amené à freiner très brusquement dans son canton pour ne pas rentrer dans un autre canton ou il y a déjà un train. Sur la route c'est bien différent d'une part parce que les cantons n'existent pas et d'autre part parce que si une voiture freine brusquement pour respecter ses distances de sécurité elle crée elle même un danger, d'où le tampon qui est consommé pour freiner en douceur. Sur le route, le tampon que constitue la distance de sécurité est forcément consommée en partie, c'est son rôle.

Dans le cas décrit le FSD n'a pas "pas respecté les distances de sécurité", il a créé un danger en plantant pile.
2  0 
Avatar de marc.collin
Membre chevronné https://www.developpez.com
Le 21/01/2023 à 14:59
jouer avec la vie des gens ne devrait pas être toléré

difficile de comprendre ses propos, il changera surement d'avis la journée que ses enfants, femme, famille mourront à cause d'un tel système...

il n'est pas question ici d'un bug qui fait en sorte que les données sont effacé..... et qu'une mauvaise image est mis dans la page....... mais de bug qui cause des accidents dans le monde réel....
2  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 23/01/2023 à 8:31
Citation Envoyé par Stéphane le calme Voir le message
Key, un ancien entrepreneur en logiciels de 69 ans, a opté pour une perspective impartiale sur son propre accident, revêtant sa casquette d'ingénieur : « Le problème avec les objets fixes - je suis désolé, cela semble stupide - c'est qu'ils ne bougent pas »
Et après on s'étonne que les gens se foutent de nous.
M. Key a fait des études supérieures pour déclarer que les objets fixes ne bougent pas. Merci pour cette sagesse infinie.
s'est rassuré en apprenant qu'il y avait une raison derrière l'accident : une limitation logicielle connue, plutôt qu'une sorte d'événement de cygne noir.
M. Key était rassuré parce que Tesla savait qu'elle risquait de tuer des gens parce qu'elle connait les limites de son logiciel.
Mais il ne s'inquiète pas que la société a identifié un risque de tuer mais a décidé de le mettre "en prod" malgré tout sans prévenir le bêta testeur.
Pourtant, depuis l'accident, Key a acheté trois autres Teslas et continue d'utiliser à la fois Autopilot et le FSD
Il en a crashé 2 autres ou il les collectionne? C'est un peu plus cher qu'une majorette ces engins.
Le client idéal de Musk est quelqu'un comme Key, prêt à accepter le blâme quand quelque chose ne va pas mais possédant une foi presque illimitée dans la prochaine mise à jour. Dans une déposition, un ingénieur de Tesla l'a dit de manière tout à fait explicite*: « Nous voulons faire savoir au client que, tout d'abord, vous devez avoir confiance en votre véhicule*: tout fonctionne comme il se doit. Ensuite, la raison de votre accident ou la raison de votre incident retombe toujours sur vous ».
Donc Musk lui meme se définit comme gourou, et les gens le suivent malgré tout.
Comprenez-vous la perspective de Dave Key ? Partagez-vous son point de vue ? Dans quelle mesure ?
« La raison de votre accident ou la raison de votre incident retombe toujours sur vous », êtes-vous d'accord avec les propos tenus par cet ingénieur de Tesla ? Pourquoi ?
On ne parle pas d'un logiciel inoffensif dont les bugs ne font que perdre des heures aux utilisateurs, on parle d'un logiciel qui peut tuer des gens qui ne l'utilisent pas.
On parle d'un logiciel qui est mis sur les routes alors que son développeur sait qu'il risque de tuer des gens mais rassure les ingénieurs mentaux en disant "tkt, la prochaine version diminue la léthalité de 0.001% en étant capable de faire la différence entre une ambulance et un fond d'écran"
Oui je suis d'accord avec l'avis de cet ingénieur mais je ne suis pas d'accord que l'argument soit utilisé après que son employeur ait dit que le système est plus fiable qu'un conducteur humain.

Le cynisme de certains ingénieur me fait sincèrement peur.
3  1 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 20/01/2023 à 10:18
Citation Envoyé par petitours Voir le message
Non justement.
Ce que montre Ryu2000 explique que c'est de pire en pire et le terme que vous utilisez "tampon" est bien choisi, on le rempli/consomme le tampon.
Le premier freine et la distance de secu fait le job et ensuite le "tampon" est consommé de plus en plus avec abaissement de la brutalité de la baisse de vitesse qui entraine une réaction moins rapide qui consomme le "tampon" et ceci jusqu'à ce qu'il n'y ait overflow sur le tampon et craboum.

Il y a des tonnes d'études sur le sujet, c'est sur ces mécanismes là que reposent les obligations de limitation de vitesse pour réguler le trafic et éviter les bouchons.
Je pense que le message d'Uther relève la théorie pure; dans un monde parfait, chaque véhicule respecte un tampon suffisant pour que personne n'ai jamais à freiner sèchement.

Si on prend l'exemple des trains, eux respectent ces distances de sécurités parfaites et j'ai n'ai aucun souvenir d'un train qui rentre dans un autre en France, tout trains confondus (TGV, TER, RER, Métro, Tram...).

Le calcul du tampon est relativement facile à déterminer informatiquement, il dépend de la performance du freinage dans les conditions actuelles de circulation (pluie, revêtement du sol, usure des pneu, usure des plaquettes,.. on peut en mettre des paramètres dans un véhicule plein de capteurs), la vitesse et du temps de réaction (attendu d'être quasi nul dans le cadre d'une décision d'une IA).

Dans le cadre de l'accident de Tesla qui nous occupe, on s'attend selon moi à ce qu'une IA "Full Self Driving" respecte cette distance de sécurité parfaite, ne serait-ce que pour respecter la loi. Ici, ce n'était visiblement pas le cas.
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 15:34
Citation Envoyé par Fleur en plastique Voir le message
pile
À mon avis c'est illégal.
En tout cas dans le code de le route Suisse c'est illégal :
Puis-je freiner devant les conducteurs impatients?
Conformément à cette réglementation, l’art. 12, al. 2 de l’ordonnance sur les règles de la circulation routière (OCR) interdit aux conducteurs de freiner et de s’arrêter brusquement, dès lors qu’un autre véhicule se trouve derrière et qu’il n’y a pas de situation d’urgence. Par freinage brusque non autorisé, les tribunaux entendent un ralentissement brutal et soudain du véhicule. Dans sa jurisprudence récente, le Tribunal fédéral a étendu le champ d’application de l’art. 12, al. 2 OCR à des situations de faible freinage sur l’autoroute. En effet, plus la vitesse est élevée et la distance entre les véhicules est réduite, plus un freinage même faible peut être dangereux pour les conducteurs qui suivent. En raison de ce danger potentiel, les juges de Lausanne partent du principe qu’au sens de l’art. 12, al. 2 OCR, on parle de freinage brusque lorsque qu’un conducteur ralentit de manière marquée en freinant sur une autoroute dès lors qu’un autre véhicule suit.
Bon après tu peux toujours dire "j'ai aperçu un blaireau qui traversait la route", selon la zone géographique ça peut passer.
1  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 27/01/2023 à 16:12
Citation Envoyé par jbrosset Voir le message
* Il est en effet inadmissible de disposer d'un logiciel dont on connaît des bugs, des limitations, qui peuvent entrainer des accidents graves, sans en informer leur utilisateur. Il faut lui demander la vigilance, et ne pas l'illusionner d'un système totalement autonome.
* Et en même temps, le point de vue statistique ne peut pas être balayé non plus d'un revers de main : la technologie devient plus fiable que l'humain. Probablement dès aujourd'hui, et sûrement dans un avenir assez proche. Et donc, statistiquement, il y a moins d'accidents avec le logiciel qu'avec l'humain.
Je propose un mix des deux : il y a moins d'accidents avec le logiciel qu'avec l'humain, mais on connaît des bugs, des limitations, qui peuvent entrainer des accidents graves, on en informer leur utilisateur. et on lui demander la vigilance, et ne pas l'illusionner

Citation Envoyé par jbrosset Voir le message
Lorsque le conducteur est humain, on est fataliste : oui, il a fait une erreur, il n'a pas vu, il a été distrait.
Lorsque le conducteur est un logiciel, on sait qu'il ne peut pas être distrait, alors on est impitoyable. Et en effet, il n'est jamais distrait, mais son intelligence est limitée, il peut se tromper.
Je ne suis pas tout à fait d'accord, j'ai passé des heures en vélo sans respecter le code de la route (parfois par survie) dans une circulation hostile (Toulouse) et je n'ai eu que 2 accidents qui auraient pu être graves.
Pourquoi?
Je voit le chauffeur et je sais anticiper ce qu'il va/pourrait faire et donc je sais anticiper et y réagir. (D'ailleurs dans les deux cas, je ne voyais pas le chauffeur, une fois derrière la voiture, une fois son visage était caché par une planche).
Le pilote automatique peut mettre un clignotant, allumer ses feu de freinage avant de freiner mais ne pourra jamais me signaler qu'il m'a vu ou non, s'il veut passer devant/derrière/à travers moi. etc.

J'ai vu des chauffeurs qui ne m'avaient pas vu et qui auraient pu m'écraser, j'ai réagi en fonction. Si une IA ne me voit pas et ne donne pas de signe de ce qu'elle va faire, je partais directement aux urgences ou à la morgue.
Avec une IA plus chauffeur, il voit qu'elle m'a identifié ou pas, il voit qu'elle compte me passer dessus et dans 95% des cas je lit son visage et je me sauve la vie s'il réagit trop tard.

Le truc est que peut être que le FSD est moins dangereux que le chauffeur moyen MAIS en tant que victime potentielle des deux, je sais éviter un accident avec un chauffeur et pas avec un FSD. Et je refuse d'être la statistique involontaire et impuissante du FSD.
1  0