IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La Tesla Model S qui a provoqué un carambolage à San Francisco était en mode Full Self-Driving
Selon les données publiées par le gouvernement fédéral

Le , par Stéphane le calme

200PARTAGES

9  0 
Des images de surveillance routière montrent un véhicule Tesla Model S changeant de voie, puis freinant brusquement dans la voie la plus à gauche du pont de la baie de San Francisco, entraînant un carambolage de huit véhicules en novembre. Si le conducteur a déclaré à la police qu'il avait utilisé la nouvelle fonction "Full Self-Driving" (FSD) de Tesla, cette information est désormais vérifiée et confirmée par les données que le gouvernement fédéral a publiées mardi.

Les fans de Tesla assurent que les systèmes d'assistance à la conduite Autopilot et Full Self-Driving sont meilleurs que les conducteurs humains. Bien qu'il soit encore en bêta, Full Self-Driving est en mesure de s'en sortir dans diverses situations de circulation, parfois il se comporte « normalement » pendant des heures d'affilée. Cela amène les gens à croire que le système est assez bon pour être utilisé comme un système de conduite quotidienne. Très vite, ils deviennent négligents, l'attention glisse et, au pire moment possible, ils reçoivent un rappel brutal que Full Self-Driving est toujours en bêta pour une raison : il est toujours en phase de développement.

Lorsque cela se produit, cela peut être tragique car souvent, le conducteur humain n'a pas assez de temps pour réagir à une situation dangereuse que le logiciel FSD Beta ne peut pas gérer.

Cela a peut-être été le cas lors du carambolage de novembre sur la I-80 à l'est du Bay Bridge à San Francisco. Le conducteur a déclaré à la police qu'il avait utilisé la nouvelle fonction "Full Self-Driving" (FSD) de Tesla, note le rapport, avant que le « clignotant gauche de Tesla ne soit activé », que ses « freins ne soient activés », et que la voiture ne se déplace à gauche, « ralentissant à un stop directement sur la trajectoire [du deuxième véhicule] ». La Tesla est passée sur la voie rapide avant de freiner rapidement. La décélération inattendue a ensuite conduit à un carambolage de huit véhicules.


L'enfant blessé dans l'accident était un enfant de 2 ans qui a subi une écorchure à l'arrière gauche de la tête ainsi qu'une ecchymose, selon le rapport détaillé de l'incident. Sur une photographie de l'accident, une poussette est garée devant la voiture dans laquelle l'enfant a été blessé.


Ces derniers mois, une vague de rapports est apparue dans laquelle les conducteurs de Tesla se sont plaints d'un « freinage fantôme » soudain lorsque le véhicule est à grande vitesse, provoquant presque des accidents dans de nombreux cas. Plus de 100 plaintes de ce type ont été déposées auprès de la NHTSA en trois mois, selon le Washington Post.

Le quotidien explique que :

Citation Envoyé par Washington Post
Teslas freine de manière inattendue en réponse à des dangers imaginaires – tels que la circulation venant en sens inverse sur des routes à deux voies – ce qui a incité leurs propriétaires terrifiés à déposer une vague de plaintes auprès de la National Highway Traffic Safety Administration au cours des trois derniers mois, selon une analyse du Washington Post des données fédérales sur la sécurité automobile.

Le phénomène, connu sous le nom de « freinage fantôme », est un problème persistant pour les véhicules Tesla.

Le constructeur automobile a été contraint de rappeler une version de son logiciel Full Self-Driving en octobre en raison de faux positifs de son système de freinage d'urgence automatique qui, selon lui, ont été déclenchés par la mise à jour logicielle. Les plaintes ont grimpé en flèche après le rappel et restent élevées, signalant l'inquiétude continue des propriétaires.

Les rapports de propriétaires de freinage fantôme à la NHTSA sont passés à 107 plaintes au cours des trois derniers mois, contre seulement 34 au cours des 22 mois précédents.
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.

La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.

Le terme Full Self-Driving critiqué par d'autres constructeurs automobiles

Le terme "Full Self-Driving" a été critiqué par d'autres fabricants et groupes industriels comme trompeur et même dangereux. L'année dernière, la société de technologie de conduite autonome Waymo, détenue par la société mère de Google, a annoncé qu'elle n'utiliserait plus le terme.

« Malheureusement, nous constatons que certains constructeurs automobiles utilisent le terme 'self-driving' [ndlr. auto-conduite] de manière inexacte, donnant aux consommateurs et au grand public une fausse impression des capacités de la technologie d'assistance à la conduite (pas entièrement autonome) », a écrit Waymo dans un billet de blog. « Cette fausse impression peut amener quelqu'un à prendre sans le savoir des risques (comme retirer ses mains du volant) qui pourraient mettre en péril non seulement sa propre sécurité, mais aussi celle des personnes qui l'entourent ».

Bien que Waymo ne nomme aucun nom, la déclaration semble clairement motivée par la décision controversée de Musk d'utiliser le terme Full Self Driving.

Dans le même ordre d'idées, le premier groupe de pression pour les voitures autonomes est récemment passé de l'appellation « Self-Driving Coalition for Safer Streets » à « Autonomous Vehicle Industry Association ». Le changement, a déclaré le groupe industriel, reflétait son « engagement envers la précision et la cohérence dans la façon dont l'industrie, les décideurs, les journalistes et le public parlent de la technologie de conduite autonome ».

Le secrétaire aux Transports, Pete Buttigieg, a également critiqué les technologies émergentes d'assistance à la conduite, qui, selon lui, n'ont pas remplacé le besoin d'un conducteur humain alerte : « Je n'arrête pas de le dire ; tout ce que vous pouvez acheter sur le marché aujourd'hui est une technologie d'assistance à la conduite, pas une technologie de remplacement du conducteur », a déclaré Buttigieg. « Je me fiche de comment ça s'appelle. Nous devons nous assurer que nous sommes parfaitement clairs à ce sujet, même si les entreprises ne le sont pas ».

Bien que le langage puisse évoluer, il n'y a toujours pas de restrictions fédérales sur les essais de véhicules autonomes sur la voie publique, bien que les États aient imposé des limites dans certains cas. Tesla n'a annoncé aucun changement au programme ou à son image de marque, mais le crash était l'un des multiples ce mois-là. Plusieurs jours avant l'accident de Bay Bridge, le 18 novembre dans l'Ohio, une Tesla Model 3 s'est écrasée contre un SUV de l'Ohio State Highway Patrol arrêté dont les feux de détresse clignotaient. La Tesla est également soupçonnée d'avoir été en mode Full Self-Driving et fait également l'objet d'une enquête de la NHTSA.

Source : CNN

Et vous ?

Quelle lecture en faites-vous ? Des implications potentielles pour Tesla ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
9  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
6  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/07/2023 à 23:21
Je ne suis pas un fan de Musk, mais là franchement, il y a de quoi se marrer.

La totalité, je dis bien la totalité des fabricants de voiture falsifient la consommation réelle de leur véhicules!

Les acteurs du secteur automobile se sont mis d'accord pour établir un test de roulement pour établir la consommation moyenne au 100 km qui ne correspond en rien à l'usage normal d'une voiture... Le test a été établi pour s'assurer que la consommation au 100 km soit très inférieure à la réalité.

Tout le monde en a d'ailleurs fait la constatation: Vous achetez un voiture écolo qui indique une consommation de 4,5 litres au 100km? Quand vous vérifiez votre consommation, il s'avère que vous frôlez les 10 litres/100km. Facile ensuite pour votre concessionnaire de vous dire "Mais monsieur, madame, vous avez un usage de votre véhicule qui ne correspond pas à un usage moyen, vous faites trop de trajets en ville ou roulez trop vite sur autoroute".

Idem pour l'autonomie des véhicules électriques, l'autonomie annoncée ne correspond jamais à la réalité "Mais monsieur, madame, vous faites trop de dénivelés... Vous roulez de manière trop sportive, blablabla..."

Et je ne parle pas de la période hivernale, un jour de grand froid et l'autonomie officiellement annoncée est divisée par 2 et puis et puis... Très vite, vous êtes confronté à l'usure de vos batteries dont la capacité de charge baisse de mois en mois...
9  3 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 28/06/2023 à 15:20
Le problème est même pire en fait, car dans ce cas, même le simple régulateur de vitesse avec détection de véhicule de la voiture de mon papa, aurait stoppé la voiture !
5  0 
Avatar de escartefigue
Modérateur https://www.developpez.com
Le 22/08/2023 à 9:49
La meilleure bagnole au monde, ça ne veut rien dire, tout dépend du critère : prix d'achat, consommation en carburant, coût de l'assurance, capacité de chargement, facilité de revente, performances, image... chacun ses priorités
6  1 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 26/05/2023 à 9:20
Citation Envoyé par Olivier Famien Voir le message
Que pensez-vous des informations divulguées par Handelsblatt ? Fake ? Ou authentique ?
Si les clients que se sont plaints confirment ça semble authentique.
Et les révélations semblent aussi cohérentes avec l'attitude habituelle de Tesla, demander la suppression des éléments non désirés puis passer à la menace, sortir la menace légale rapidement (là s'en protéger).
Citation Envoyé par Olivier Famien Voir le message
Selon vous, les plaintes contre l’autopilote des véhicules Tesla sont-elles fondées ?
Combien de personnes sont mortes ou ont été blessé à cause du FSD? Tesla n'a jamais assumé et continue de le diffuser.
Comment ne pas les considérer comme fondées dans cette situation?
Citation Envoyé par Olivier Famien Voir le message
Avez-vous déjà été témoin du comportement dangereux de l’autopilote de Tesla ? Comment avez-vous géré la situation ?
Semaine dernière le chauffeur de la Tesla derrière moi a voulu faire la démonstration de l'efficacité du freinage automatique de sa voiture à son passager, il a accéléré dans une rue bien au dela de la vitesse légale (et encore plus aus dessus de celle raisonnable, on roulait au pas), puis a levé les mains, je confirmes : ça freine vite et bien. En attendant je me suis mis dans le bas coté au cas où.

Je trouves bien qu'on mette en place des systèmes qui peuvent rattraper les erreurs de chauffeurs,
je suis inquiets des chauffeurs qui se permettent donc d'être moins attentifs (le système ne devenant plus de sécurité mais de soutien),
j'ai vraiment peur des chauffeurs qui mettent les autres en danger pour montrer la performance de ces systèmes.
5  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 28/07/2023 à 9:31
Citation Envoyé par Stéphane le calme Voir le message
Au lieu de montrer la valeur réelle, le logiciel aurait donné une estimation « optimiste » de l’autonomie, sur ordre du PDG Elon Musk il y a environ 10 ans.
Moi je préfère la philosophie : "under promise and over deliver".

Je pense que c'est mieux pour l'automobiliste de se dire "c'est chouette j'ai plus d'autonomie que prévu" que "ma voiture m'a dit que j'avais assez d'énergie pour me rendre à une borne de recharge et je suis tombé à sec avant d'y arriver".

Bon après j'ai un véhicule Diesel, j'ai une autonomie de 1000km alors que je n'ai pas toujours une conduite très économique.
Donc je m'en fous un peu de ces histoires de batterie.

====
Citation Envoyé par Stéphane le calme Voir le message
Certains propriétaires ont rapporté des autonomies inférieures à la moitié de celles annoncées, notamment pour le Model 3 qui promet 374 miles (602 km) sur une charge complète. Un conducteur a même déclaré que sa batterie se vidait si rapidement par temps froid qu’il devait s’arrêter pratiquement toutes les heures pour recharger.
Ouais les batteries n'aiment pas le froid.
C'est une mauvaise idée d'acheter un véhicule électrique si vous vivez dans une région où il fait parfois froid.
5  1 
Avatar de Fagus
Membre émérite https://www.developpez.com
Le 22/08/2023 à 13:59
Citation Envoyé par Ryu2000 Voir le message
Dans l'article on voit qu'il est possible de sortir de sa voiture quand la batterie est vide, il faut juste savoir comment.
À mon humble avis c'est exactement ça le problème.

Imagions un petit jeu de rôle :
Un accident. Les batteries lithium court-circuitent, donc tout ce qui est électrique ne fonctionne plus.
Le pilote est assommé. Les passagers arrière qui n'ont pas lu le manuel, ne sont physiquement pas très en forme.
Dans l'action, sachant qu'à l'arrière il n'y a pas de poignée, que le mécanisme d'urgence est caché, que son fonctionnement est ± ésotérique et différent sur chaque modèle... quelles sont les chances pour que les passagers arrivent à sortir sachant que tient, les 1ères flammes surviennent.

Bon, c'est pas si grave, dans une voiture aussi chère, il y a sûrement un marteau brise-vitre dans la portière...
5  1