IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le logiciel « full-self-driving » de Tesla aurait provoqué un accident impliquant huit voitures
Le conducteur a déclaré à la police que « le logiciel de conduite autonome avait mal fonctionné »

Le , par Bruno

121PARTAGES

8  0 
Un conducteur a déclaré aux autorités que le logiciel « full-self-driving » de sa Tesla avait freiné de manière inattendue et provoqué un carambolage de huit voitures dans la baie de San Francisco le mois dernier. Neuf personnes ont été traitées pour des blessures legères, dont un mineur qui a été hospitalisé, selon un rapport d'accident de la California Highway Patrol. Selon un rapport de police rendu public mercredi, le conducteur de la Tesla Model S de 2021 impliquée dans l’accident a déclaré à la police qu'il était en mode de conduite autonome intégrale (FSD) qui avait mal fonctionné.

Le directeur général Elon Musk a présenté le logiciel de conduite autonome de Tesla comme une vache à lait potentielle pour le plus grand constructeur de voitures électriques du monde. Mais les systèmes avancés d'aide à la conduite de Tesla - et les affirmations de Musk à leur sujet - font l'objet d'une surveillance juridique, réglementaire et publique croissante.

Le mois dernier, Tesla a déclaré aux autorités américaines de réglementation de la sécurité automobile qu'elle avait reçu des rapports faisant état de deux nouveaux accidents mortels liés à des systèmes avancés d'aide à la conduite dans ses voitures Tesla Model 3, selon des données publiées mardi par le gouvernement.


La National Highway Traffic Safety Administration (NHTSA) a commencé en juin à publier les données fournies par les constructeurs automobiles sur les rapports d'accidents liés à des systèmes d'aide à la conduite comme le système Autopilot de Tesla. Elle a publié un décret en juin 2021 exigeant des constructeurs automobiles et des entreprises technologiques qu'ils signalent immédiatement tous les accidents impliquant des systèmes avancés d'aide à la conduite (ADAS) et des véhicules équipés de systèmes de conduite automatisée testés sur la voie publique.

« La surveillance de la NHTSA ne se limite pas aux accidents spécifiés discutés dans l'ordonnance ou aux informations soumises dans le cadre de ses obligations de déclaration. L'examen et l'analyse de la NHTSA incluront toutes les informations et tous les incidents relatifs à tout défaut de sécurité potentiel. De plus, la NHTSA peut prendre d'autres mesures en cas d'accident individuel, notamment en envoyant une équipe d'enquête spéciale sur les accidents et en exigeant de l'entreprise qu'elle fournisse des informations supplémentaires. La NHTSA peut également ouvrir des enquêtes sur les défauts, le cas échéant ».

Dans le cas de l’accident du jour de Thanksgiving sur l'Interstate-80 près de Treasure Island, la California Highway Patrol a examiné des vidéos montrant le véhicule Tesla en train de changer de voie et de ralentir pour s'arrêter. Deux voies de circulation ont été fermées pendant environ 90 minutes alors que de nombreuses personnes se rendaient à des événements de vacances. Quatre ambulances ont été appelées sur les lieux.

Le carambolage a eu lieu quelques heures seulement après que le PDG de Tesla, Elon Musk, eut annoncé que le logiciel d'aide à la conduite « full self-driving » de Tesla était disponible pour toute personne en Amérique du Nord qui en faisait la demande. Tesla avait auparavant limité l'accès aux conducteurs ayant obtenu des scores de sécurité élevés dans son système d'évaluation.

« La version bêta de la conduite autonome complète de Tesla est désormais disponible pour toute personne en Amérique du Nord qui en fait la demande », a tweeté Musk, « en supposant que vous ayez acheté cette option. La déclaration de Musk vient à la suite des accusations du ministère californien des véhicules à moteur qui a accusé Tesla de faire des déclarations « fausses ou trompeuses » sur les capacités de ses voitures autonomes.

Le déploiement de la version bêta a démarré en 2020 avec un petit nombre de clients et s'est depuis progressivement étendu pour être disponible à environ 160 000 conducteurs en octobre de cette année. Pour avoir accès à la version bêta, les conducteurs devaient généralement atteindre un seuil de sécurité minimum avec la fonction intégrée Safety Score de Tesla, ainsi que parcourir 161 000 km en utilisant la fonction avancée d'aide à la conduite Autopilot de la société.

Le constructeur automobile de la Silicon Valley vend son logiciel complémentaire de 15 000 dollars qui permet à ses véhicules de changer de voie et de se garer de manière autonome. Cela vient compléter sa fonction standard « Autopilot », qui permet aux voitures de se diriger, d'accélérer et de freiner dans leur voie de circulation sans intervention du conducteur.

La « full-self-driving » est conçue pour suivre le trafic, rester dans sa voie et respecter la signalisation routière. Elle nécessite un conducteur humain attentif prêt à prendre le contrôle total de la voiture à tout moment. Ce système a ravi certains conducteurs, mais en a aussi alarmé d'autres par ses limites. Les conducteurs seraient avertis par Tesla lorsqu'ils installent la « full-self-driving » qu'elle « peut prendre la mauvaise décision au pire moment ».


Le rapport indique que la Tesla Model S roulait à environ 55 mph et s'est déplacée sur la voie d'extrême gauche, mais a ensuite freiné brusquement, ralentissant la voiture à environ 20 mph. Cela a entraîné une réaction en chaîne qui a fini par provoquer l'accident de huit véhicules, qui roulaient tous à des vitesses normales sur l'autoroute.

La présidente du National Transportation Safety Board, Jennifer Homendy, s'est interrogée sur le fait que Tesla commercialise cette fonction en la qualifiant d’entièrement autonome alors qu'elle n'en est pas capable.

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

Tesla signale deux nouveaux accidents mortels impliquant des systèmes d'aide à la conduite, sur les 18 accidents mortels signalés depuis juillet 2021, presque tous impliquaient des véhicules Tesla

La version bêta du mode « Full self-driving » de Tesla est désormais disponible en Amérique du Nord, il est livré sans la mention sur l'obligation de satisfaire aux exigences minimales de sécurité

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
8  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de Darkzinus
Expert éminent sénior https://www.developpez.com
Le 05/01/2023 à 15:46
Ce que je trouve dingue dans le modèle économique de Tesla c'est que les gens achètent une voiture et un abonnement pour être bêta testeurs.
5  0 
Avatar de marc.collin
Membre chevronné https://www.developpez.com
Le 11/01/2023 à 14:00
Il est temps que le gouvernement interdise que le pays devienne un jeu d'expérimentation.
C'est dangereux, il y a eu des mort et cela continue, rien n'est fait
5  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
5  0 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 03/01/2023 à 12:04
Que pensez-vous du motif de l'amende infligée à Tesla en Corée du Sud ?
Que dans notre droit à nous ça correspond pleinement à la définition de l’escroquerie
https://www.service-public.fr/partic...osdroits/F1520
donc il est logique que ce soit pareil en Corée.

Que pensez-vous du montant de l'amende ?
qu'il est trop faible, la preuve, les escrocs continuent, Mulk continue de communiquer

D'autres pays devraient-ils adopter une approche similaire ? Pourquoi ?
Parce que c'est de l'escroquerie et que tant qu'il n'y aura pas de répression les escrocs continuent

Tesla devrait-il, selon vous, continuer à utiliser les appellations Autopilot et Full Self-Driving même si cela induit de nombreux utilisateurs en erreur, pensant à tort que leur système peut gérer toutes les étapes de la conduite ?
Bien sur que non, mais tant qu'il n'en seront pas inquiété ils continueront.
4  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 05/01/2023 à 7:54
Citation Envoyé par Stéphane le calme Voir le message
Le délit de fuite en Allemagne doit-il être imputé au conducteur endormi ou à Tesla ? Lorsque le mode Autopilot est activé, qui devrait être responsable ? Pourquoi ?
Aux deux, le conducteur pour ne pas être maitre de son véhicule (et ne pas être en état de l'être), Tesla pour être incapable de suivre le code de la route.
Une situation comme celle-ci pourrait-elle suggérer que la programmation de l'Autopilot n'est pas terminée (intégration de plus de cas de figure dans la boucle if) ?
Un autopilot doit respecter le code de la route. S'il ne le fait pas il n'est pas terminé ou est défaillant.
En tant que professionnels de l'informatique, comment aborderiez-vous ce cas de figure (la police demande à un individu de se garer sur le côté) dans la programmation de l'Autopilot ? Si vous prenez en compte par exemple les gyrophares, des individus mal intentionnés ne pourraient-ils pas se jouer du système en utilisant des gyrophares pour commettre leurs méfaits ? Ou alors si une voiture de police est détectée à proximité, Autopilot devrait-il se désengager et redonner la main au chauffeur pour que lui seul décide quoi faire ?
Pour moi tout ça devrait se régler avec deux règles :
1. Si la Tesla reçoit une information qu'elle n'arrive pas à traiter elle redonne la main au chauffeur
2. La chauffeur doit pouvoir, à tout moment, reprendre la main sur l'autopilot
Autant je n'aime pas Tesla autant je ne peux pas exiger d'elle qu'elle soit plus capable que moi de reconnaitre un véhicule de police légitime d'un illégitime.
4  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 06/01/2023 à 13:07
Citation Envoyé par abriotde Voir le message
Et le FSD est absolument génial, il fait avancer le monde (l'IA notamment).
La question n'est pas là. Les mots ont un sens et un impact sur les comportements. Le Full Self Driving n'est pas encore *du tout* FULL. A ce titre il s'agit de publicité mensongère, et surtout dangereuse vis-à-vis de l'excés de confiance apportée aux utilisateurs.

Si on te vend des lunettes de soleil te promettant un indice de protection 3 "ont adaptées aux cas de forte ou exceptionnelle luminosité solaire (mer, montagne)." mais qu'en réalité c'est du 0 : "la catégorie 0 associée au symbole d’un nuage ne protège pas des UV solaires ; elle est réservée au confort et à l'esthétique", tu risque d'y perdre la vue à cause d'une fausse promesse.
4  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 26/05/2023 à 9:20
Citation Envoyé par Olivier Famien Voir le message
Que pensez-vous des informations divulguées par Handelsblatt ? Fake ? Ou authentique ?
Si les clients que se sont plaints confirment ça semble authentique.
Et les révélations semblent aussi cohérentes avec l'attitude habituelle de Tesla, demander la suppression des éléments non désirés puis passer à la menace, sortir la menace légale rapidement (là s'en protéger).
Citation Envoyé par Olivier Famien Voir le message
Selon vous, les plaintes contre l’autopilote des véhicules Tesla sont-elles fondées ?
Combien de personnes sont mortes ou ont été blessé à cause du FSD? Tesla n'a jamais assumé et continue de le diffuser.
Comment ne pas les considérer comme fondées dans cette situation?
Citation Envoyé par Olivier Famien Voir le message
Avez-vous déjà été témoin du comportement dangereux de l’autopilote de Tesla ? Comment avez-vous géré la situation ?
Semaine dernière le chauffeur de la Tesla derrière moi a voulu faire la démonstration de l'efficacité du freinage automatique de sa voiture à son passager, il a accéléré dans une rue bien au dela de la vitesse légale (et encore plus aus dessus de celle raisonnable, on roulait au pas), puis a levé les mains, je confirmes : ça freine vite et bien. En attendant je me suis mis dans le bas coté au cas où.

Je trouves bien qu'on mette en place des systèmes qui peuvent rattraper les erreurs de chauffeurs,
je suis inquiets des chauffeurs qui se permettent donc d'être moins attentifs (le système ne devenant plus de sécurité mais de soutien),
j'ai vraiment peur des chauffeurs qui mettent les autres en danger pour montrer la performance de ces systèmes.
5  1