
Les fans de Tesla assurent que les systèmes d'assistance à la conduite Autopilot et Full Self-Driving sont meilleurs que les conducteurs humains. Bien qu'il soit encore en bêta, Full Self-Driving est en mesure de s'en sortir dans diverses situations de circulation, parfois il se comporte « normalement » pendant des heures d'affilée. Cela amène les gens à croire que le système est assez bon pour être utilisé comme un système de conduite quotidienne. Très vite, ils deviennent négligents, l'attention glisse et, au pire moment possible, ils reçoivent un rappel brutal que Full Self-Driving est toujours en bêta pour une raison : il est toujours en phase de développement.
Lorsque cela se produit, cela peut être tragique car souvent, le conducteur humain n'a pas assez de temps pour réagir à une situation dangereuse que le logiciel FSD Beta ne peut pas gérer.
Cela a peut-être été le cas lors du carambolage de novembre sur la I-80 à l'est du Bay Bridge à San Francisco. Le conducteur a déclaré à la police qu'il avait utilisé la nouvelle fonction "Full Self-Driving" (FSD) de Tesla, note le rapport, avant que le « clignotant gauche de Tesla ne soit activé », que ses « freins ne soient activés », et que la voiture ne se déplace à gauche, « ralentissant à un stop directement sur la trajectoire [du deuxième véhicule] ». La Tesla est passée sur la voie rapide avant de freiner rapidement. La décélération inattendue a ensuite conduit à un carambolage de huit véhicules.
L'enfant blessé dans l'accident était un enfant de 2 ans qui a subi une écorchure à l'arrière gauche de la tête ainsi qu'une ecchymose, selon le rapport détaillé de l'incident. Sur une photographie de l'accident, une poussette est garée devant la voiture dans laquelle l'enfant a été blessé.
Ces derniers mois, une vague de rapports est apparue dans laquelle les conducteurs de Tesla se sont plaints d'un « freinage fantôme » soudain lorsque le véhicule est à grande vitesse, provoquant presque des accidents dans de nombreux cas. Plus de 100 plaintes de ce type ont été déposées auprès de la NHTSA en trois mois, selon le Washington Post.
Le quotidien explique que :

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Le terme Full Self-Driving critiqué par d'autres constructeurs automobiles
Le terme "Full Self-Driving" a été critiqué par d'autres fabricants et groupes industriels comme trompeur et même dangereux. L'année dernière, la société de technologie de conduite autonome Waymo, détenue par la société mère de Google, a annoncé qu'elle n'utiliserait plus le terme.
« Malheureusement, nous constatons que certains constructeurs automobiles utilisent le terme 'self-driving' [ndlr. auto-conduite] de manière inexacte, donnant aux consommateurs et au grand public une fausse impression des capacités de la technologie d'assistance à la conduite (pas entièrement autonome) », a écrit Waymo dans un billet de blog. « Cette fausse impression peut amener quelqu'un à prendre sans le savoir des risques (comme retirer ses mains du volant) qui pourraient mettre en péril non seulement sa propre sécurité, mais aussi celle des personnes qui l'entourent ».
Bien que Waymo ne nomme aucun nom, la déclaration semble clairement motivée par la décision controversée de Musk d'utiliser le terme Full Self Driving.
Dans le même ordre d'idées, le premier groupe de pression pour les voitures autonomes est récemment passé de l'appellation « Self-Driving Coalition for Safer Streets » à « Autonomous Vehicle Industry Association ». Le changement, a déclaré le groupe industriel, reflétait son « engagement envers la précision et la cohérence dans la façon dont l'industrie, les décideurs, les journalistes et le public parlent de la technologie de conduite autonome ».
Le secrétaire aux Transports, Pete Buttigieg, a également critiqué les technologies émergentes d'assistance à la conduite, qui, selon lui, n'ont pas remplacé le besoin d'un conducteur humain alerte : « Je n'arrête pas de le dire ; tout ce que vous pouvez acheter sur le marché aujourd'hui est une technologie d'assistance à la conduite, pas une technologie de remplacement du conducteur », a déclaré Buttigieg. « Je me fiche de comment ça s'appelle. Nous devons nous assurer que nous sommes parfaitement clairs à ce sujet, même si les entreprises ne le sont pas ».
Bien que le langage puisse évoluer, il n'y a toujours pas de restrictions fédérales sur les essais de véhicules autonomes sur la voie publique, bien que les États aient imposé des limites dans certains cas. Tesla n'a annoncé aucun changement au programme ou à son image de marque, mais le crash était l'un des multiples ce mois-là. Plusieurs jours avant l'accident de Bay Bridge, le 18 novembre dans l'Ohio, une Tesla Model 3 s'est écrasée contre un SUV de l'Ohio State Highway Patrol arrêté dont les feux de détresse clignotaient. La Tesla est également soupçonnée d'avoir été en mode Full Self-Driving et fait également l'objet d'une enquête de la NHTSA.
Source : CNN
Et vous ?
