IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tesla doit désormais signaler les accidents liés à son Autopilot au gouvernement ou s'exposer à des amendes
D'après une décision de l'agence fédérale chargée de la sécurité routière

Le , par Stéphane le calme

791PARTAGES

7  0 
La National Highway Traffic Safety Administration (NHTSA), une agence fédérale américaine des États-Unis chargée de la sécurité routière, a franchi une étape importante dans sa mission en publiant une nouvelle règle qui lèvera le voile du secret sur la question de savoir si les fonctionnalités de conduite semi-autonome rendent réellement la conduite plus sûre.

En vertu de la nouvelle règle de la NHTSA, les entreprises doivent signaler tous les accidents dans lesquels des fonctions d'assistance à la conduite dites « semi-autonomes » telles que l'assistance à la direction ou le maintien de voie automatique sont impliquées, y compris Autopilot de Tesla et les options qui peuvent apporter la confusion comme « Full Self-Driving Beta ». La règle s'appliquera également aux entreprises exploitant des programmes pilotes de conduite autonome comme Waymo, Zoox et Cruise. Cela permettra non seulement à l'agence gouvernementale indépendante de mieux comprendre à quel point ces systèmes sont réellement sûrs, mais lui permettra également de repérer des modèles de systèmes particulièrement dangereux.

La nouvelle règle stipule que tout accident impliquant un système semi-autonome et « une blessure conduisant à une hospitalisation, un décès, un remorquage de véhicule, un déploiement d'airbag ou un usager de la route vulnérable comme un piéton ou un cycliste » doit être signalé à la NHTSA dans la journée suivant l'annonce de l'accident suivie par une mise à jour sur la situation 10 jours plus tard. Les entreprises doivent également signaler les accidents impliquant des blessures ou des dommages matériels sur une base mensuelle, à mettre à jour mensuellement avec de nouvelles informations. Le Washington Post a signalé que le non-respect de cette nouvelle règle entraînerait des amendes de 22 992 $ par jour, une pénalité maximale de « plus de 100 millions de dollars » et un envoi du dossier au ministère de la Justice.


Des rapports doivent être soumis pour tout incident à signaler, au sujet duquel une entreprise reçoit un avis, à compter de 10 jours après que l'entreprise en ait reçu l'injonction. Les rapports doivent être soumis à la NHTSA par voie électronique en utilisant un formulaire qui requiert des informations importantes concernant l'accident. La NHTSA utilisera ces informations pour identifier les accidents pour un suivi.

La NHTSA a déclaré dans le communiqué de presse qu'elle utiliserait les données collectées pour « aider l'agence à identifier les problèmes de sécurité potentiels et les impacts résultant de l'utilisation de technologies de pointe sur les routes publiques et à accroître la transparence ».

« L'aide à la conduite automobile de niveau 2 est une fonctionnalité de plus en plus courante sur de nombreux nouveaux véhicules et fournit des fonctions d'assistance à la conduite qui combinent des technologies, telles que l'assistance au centrage de voie et le régulateur de vitesse adaptatif, où le véhicule est capable de contrôler certains aspects de la direction et de la vitesse. Les conducteurs, cependant, doivent rester engagés et vigilants à tout moment lorsqu'ils utilisent ces systèmes, car ils ne sont pas conçus et ne sont pas en mesure d'effectuer les composants de fonctionnement critiques de la tâche de conduite. Les véhicules équipés de l'aide à la conduite automobile, capables d'effectuer l'intégralité de la tâche de conduite dans des circonstances limitées, ne sont actuellement pas vendus aux consommateurs, mais sont peu utilisés sur les routes publiques du pays pour les tests, le covoiturage et la livraison de marchandises.

« La surveillance de la NHTSA ne se limite pas aux accidents spécifiés discutés dans l'ordonnance ou aux informations soumises dans le cadre de ses obligations de déclaration. L'examen et l'analyse de la NHTSA incluront toutes les informations et tous les incidents relatifs à tout défaut de sécurité potentiel. De plus, la NHTSA peut prendre d'autres mesures en cas d'accident individuel, notamment en envoyant une équipe d'enquête spéciale sur les accidents et en exigeant de l'entreprise qu'elle fournisse des informations supplémentaires. La NHTSA peut également ouvrir des enquêtes sur les défauts, le cas échéant ».


Des accidents liés au système Autopilot de Tesla

Le contexte s'y prête fortement. Les régulateurs américains de la sécurité automobile ont annoncé des enquêtes en cours sur des accidents de Tesla impliquant 10 décès où des systèmes avancés d'aide à la conduite seraient impliqués. La NHTSA avait déjà confirmé certaines enquêtes spécifiques sur les accidents de Tesla, mais n'avait pas encore communiqué une comptabilité complète de tous les accidents de Tesla ayant fait l'objet d'une enquête où le système Autopilot de Tesla était soupçonné d'être impliqué. En juin, l’agence a publié une liste offrant des détails sur les accidents en cours d'examen par ses programmes d'enquêtes spéciales sur les accidents.

Sur les 30 accidents de Tesla, la NHTSA a exclu le système Autopilot de Tesla dans trois cas et a publié des rapports sur deux de ces accidents. Une première demande d’une liste complète avait été faite à la NHTSA il y a plus d'un an dans le cadre d'une demande de documents publics. Mais la liste ne comprenait que l'État et le mois où les accidents se sont produits. Auparavant, la NHTSA avait déclaré avoir ouvert 28 enquêtes spéciales sur les accidents de Tesla, dont 24 sont en cours. La feuille de calcul montre un accident de février 2019 où l'utilisation d'Autopilot était indéterminée.

Le système Autopilot utilise des caméras, des capteurs à ultrasons et un radar pour voir et détecter l'environnement de la voiture. L'ensemble des capteurs et des caméras permet au conducteur d'avoir une connaissance de son environnement qu'un conducteur seul n'aurait pas autrement. Un puissant ordinateur de bord traite ces données en quelques millisecondes afin de rendre la conduite "plus sûre et moins stressante", selon la société. L'Autopilot est un système d'aide à la conduite pratique qui ne doit être utilisé qu'avec un conducteur pleinement attentif. Il ne transforme pas une Tesla en voiture autonome.

La feuille de calcul montre que la NHTSA a ouvert huit enquêtes sur des accidents de Tesla depuis mars. La question a fait l'objet d'une nouvelle attention après l'accident incendiaire du 17 avril au Texas qui a tué deux hommes et dans lequel la police avait dit croire que personne n'était au volant. Mais Tesla avait réfuté les affirmations de la police, affirmant qu'un volant déformé suggérait que quelqu'un était probablement à la place du conducteur. Les batteries de la voiture, achetée d'occasion sur eBay en janvier, ont brûlé pendant quatre heures après.

Dans le cas de l'accident du Texas, le National Transportation Safety Board (NSTB) a déclaré en mai que les tests suggéraient que le système de pilotage automatique du véhicule n'était "pas disponible" sur la route où l'accident s'est produit. L’agence a critiqué les mesures de protection du système Autopilot de Tesla, qui permet aux conducteurs de ne pas toucher le volant pendant de longues périodes.

Un autre accident mortel survenu le 5 mai près de Los Angeles fait également l'objet d'une enquête de l'agence. Dans ce cas, le conducteur avait publié sur les médias sociaux des images de lui-même en train de "conduire" sa Tesla sans avoir les mains sur le volant. La Tesla modèle 3 a percuté un camion Mack renversé, et le conducteur a été déclaré mort sur place. L'accident s'est produit sur l'autoroute 210 près de Fontana, en Californie, à environ 80 km à l'est de Los Angeles.

En juin, la présidente de la commission du commerce du Sénat, Maria Cantwell, a cité les accidents de Tesla pour justifier le vote de la commission contre l'adoption d'une réglementation visant à accélérer l'adoption des voitures à conduite autonome. « Il semble que toutes les deux semaines, nous entendons parler d'un nouveau véhicule qui s'est écrasé alors qu'il était sur Autopilot », a déclaré Cantwell.

Conclusion

Ce changement apparemment mineur pourrait avoir un impact important sur la sécurité routière, car le public ne sait tout simplement pas à quel point ces systèmes sont bons, à quelle fréquence ils fonctionnent mal ou dans quelle mesure ils sont mal utilisés par les conducteurs. Jusqu'à présent, pratiquement toutes les données disponibles sur les fonctions de conduite informatisées, allant des diverses fonctionnalités de direction automatique, que pratiquement tous les constructeurs automobiles offrent de nos jours, au service de taxi entièrement autonome de Waymo en passant par Autopilot semi-autonome de Tesla, provenaient des entreprises elles-mêmes, qui ont un intérêt évident à faire en sorte que leur produit paraisse aussi sûr que possible. Cela n'a laissé au grand public qu'une anecdote occasionnelle (ou, dans le cas de Tesla, fréquente) sur une mauvaise utilisation ou un dysfonctionnement. Mais bientôt, le public devrait avoir des informations réelles pour déterminer si les accidents et dysfonctionnements ne sont que de simples anecdotes ou s'il s'agit de quelque chose de plus fréquent.

Cette décision pourrait également signaler que la NHTSA se réveille de son long sommeil de complaisance.

Source : NHTSA

Voir aussi :

L'Autopilot d'une Tesla Model 3, impliquée dans un accident, était activé lorsque le véhicule s'est écrasé contre un camion, indique le NTSB
Autopilot de Tesla peut être "facilement" trompé pour fonctionner sans personne sur le siège du conducteur, selon Consumer Reports, mais « vous ne devriez pas essayer ça »
Deux personnes sont tuées dans un accident d'une voiture Tesla sans personne au volant, l'Autopilot serait activé et les batteries de la voiture ne cessaient de raviver les flammes

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Karakoa
Membre à l'essai https://www.developpez.com
Le 18/08/2021 à 11:49
Citation Envoyé par Anselme45 Voir le message
Les fonctionnaires sont vraiment tous les mêmes, quelque soit le pays!
En voilà un de commentaire intelligent et pertinent...
11  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 14/03/2024 à 9:19
Citation Envoyé par Uther Voir le message
C'est fou qu'on parle systématiquement de Tesla pour lancer les trolls alors que ce genre de triste accident est déjà arrivé avec bien d'autres marques de voitures. Mais il faut croire que Tesla fait plus de clics.
On peut aussi dire qu'il s'agit du retour de bâton des campagnes d'Elon Musk sur ses voitures.

On nous a noyés a une époque sur les Tesla, l'autopilot, la démonstration de la solidité des vitres etc.
12  1 
Avatar de totozor
Membre expert https://www.developpez.com
Le 25/08/2023 à 8:19
Bis repetita

Je ne suis même plus étonné, et presque plus révolté de lire ça.
Supprimons les traces pour que ça n'existe plus.
La méthode est redoutable et paye à long terme.
7  0 
Avatar de grunk
Modérateur https://www.developpez.com
Le 12/06/2023 à 11:44
L'ingénieur Apple décédé lorsque son Tesla Model X s'est écrasé contre la barrière en béton s'est plaint avant sa mort que le système Autopilot du SUV fonctionnait mal dans la zone où l'accident s'est produit.
Et a quel moment tu continues à faire une confiance aveugle à quelque chose qui te semble défaillant

J'ai que l'autopilote de base sur ma Tesla et franchement c'est a peine mieux que ce que font les autres avec des systèmes plus traditionnel. Le maintien dans les lignes est le meilleurs que j'ai pu essayer. Le régulateur adaptatif est, comme tous les autres ,inconfortable dès qu'il y'a du traffic. Et comme tous les autres systèmes on se prend régulièrement des ralentissement, voir des freinage intempestif car la voiture n'a pas été capable de comprendre qu'il n'y avait pas de danger.
Les 2 cas les plus typiques :
Sur autoroute , dépassement d'un véhicule, si le dépassement n'est pas suffisamment anticipé (plus de 2 lignes continue) il y'a de forte chance qu'elle décide de ralentir malgré la présence du clignotant
Toujours sur autoroute , si vous vous faites doubler et que l'utilisateur se rabat un peu proche c'est pas rare de prendre un coup de frein alors que c'est inutile puisque la voiture s'éloigne.

Dans les deux cas ca créer des comportement imprévisible pour les autre usager et donc du danger.

J'avais le même genre de pb sur mes autres véhicule , c'est donc pas lié directement a Tesla. La différence étant que certains possesseur de Tesla font une confiance aveugle au système qu'on leur propose et "oublie" de conduire
4  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 12/06/2023 à 12:26
Musk a défendu à plusieurs reprises sa décision de pousser les technologies d'assistance à la conduite aux propriétaires de Tesla, arguant que les avantages l'emportent sur les inconvénients.

Peut-être qu'il serait temps de remettre l'usage de la technologie à plat lorsque les inconvénients sont des morts d'êtres humains évitables par un être humain.

Mettre une technologie en Beta à la disponibilité de tous, c'est criminel lorsqu'il s'agit de sécurité routière. Et de tous les accidents évités par l'Autopilot et le Full Self Driving, combien auraient pu être évités par un être humain ? Pour moi, la technologie est loin d'être au point et nécessite plus de tests hors du grand public pour envisager les cas de figure les plus courants afin de sécuriser au maximum et surtout bien mieux que ce qui est vendu actuellement.
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 12/06/2023 à 17:49
A la lecture de ce score déplorable, une seule question me vient à l'esprit:

Comment se fait-il qu'aux USA, ce pays où le fabriquant de distributeur de boisson chaude doit imprimer sur ses gobelets en carton en toutes lettres "Attention, une boisson chaude peut occasionner des brulures en cas d'inattention de l'utilisateur... On décline toute responsabilité, blabla, blabla" pour s'éviter un procès qui va le condamner à des millions de dollars de dommages et intérêts, les aventures technologiques de Musk peuvent tuer des centaines de gens sans subir la moindre intervention d'un tribunal?

Est-ce que Musk inonde les familles des victimes de millions pour les faire taire et éviter ainsi le dépôt de plaintes ou est-ce qu'il y a une loi "Musk" aux USA qui lui évite tout risque de condamnation?
4  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 15/03/2024 à 17:42
Citation Envoyé par Uther Voir le message
C'est fou qu'on parle systématiquement de Tesla pour lancer les trolls alors que ce genre de triste accident est déjà arrivé avec bien d'autres marques de voitures. Mais il faut croire que Tesla fait plus de clics.
On est bien d'accord, c'est du piège à clics, mais je suis content de me faire piéger parce que ça m'intéresse de savoir comment éviter les accidents mortels.

Par ex, on note que sur les teslas
- l'ouverture des portes est électrique (et le dispositif d'ouverture d'urgence mécanique est caché quasi impossible à trouver dans la panique).
- les vitres sont électriques et incassables même avec un marteau.
- il n'y a pas de comme sur les Renault etc une bague à tirer ou un bouton à presser et un levier à glissière pour débloquer la marche arrière, mais un petit levier sous le volant avec deux mouvements : avant, arrière, afin de se déplacer logiciellement dans une liste d'états. Il est donc facile de faire une fausse manip de marche arrière accidentellement (sur une voiture à forte accélération ça peut ne pas pardonner, en plus ça cale pas).

ça fait beaucoup d'éléments pour conclure que même si tu es jeune et fort, si tu dois sortir en urgence d'une tesla ou voiture avec autant de défauts en urgence avec une panne électrique (incendie, eau), c'est la fin.

Je travaille avec des machines complexes qui peuvent créer divers accidents graves et qui bien sûr sont buguées. Au moins il y a un gros bouton rouge "panique" coupe circuit (et ça sert...). Parce que c'est pas dans la panique, quand toutes les sécurités logicielles sont en train de planter qu'on va trouver une solution plus intelligente que taper sur un gros bouton.

PS : On pourrait penser que c'est de la parano etc. Il se trouve que pas plus tard que la semaine dernière, je garais une électrique en pente. Une défaillance électronique est survenue pendant la marche avant avec perte de toutes les commandes et de l'assistance, passage automatique en roue libre, arrêt moteur. Le temps de se ressaisir et de piler plus fort, la voiture avait reculé de 20 cm dans une butée. Heureusement que c'était pas le bord d'un lac hein. Ce n'est que quelques heures après la panne que la voiture a décidé d'afficher un message sibyllin style technical intervention now avant de s'éteindre.
4  0 
Avatar de ALT
Membre émérite https://www.developpez.com
Le 20/08/2021 à 10:14
Citation Envoyé par Karakoa
En voilà un de commentaire intelligent et pertinent...
En effet.

11 accidents avec 760 000 véhicules (une partie des véhicules [Tesla] vendus, donc en circulation), ce n'est pas énorme.

Si l'administration devait enquêter à chaque accident... Certes, ça améliorerait la sécurité routière, mais à condition d'être réalisée avec la même rigueur que pour les accidents d'avion.
On en est (très) loin !

Maintenant, on peut dire aussi que c'est onze accidents de trop. J'espère que Tesla n'a pas attendu l'enquête pour corriger ces dysfonctionnements. C'est d'ailleurs son intérêt, commercialement.
Et plus les automatismes seront poussés, plus ce sera complexe.
On n'a donc pas fini de gloser sur le énième accident provoqué par un véhicule automatique, alors qu'il y en a moins (proportionnellement) que d'accidents provoqués par les humains.
5  2 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 13/06/2023 à 17:14
Citation Envoyé par smarties Voir le message
En dehors du souci majeur de sécurité du système il y a que des avantages :
- trafic plus fluide
Pas besoin de connecter les voitures autonome pour ça, avoir des IA qui prévoient plus tôt, décéllerent plus régulièrement et accéllere plus régulièrement suffit.
Citation Envoyé par smarties Voir le message
- réduction des distances de sécurité possible donc capacité du trafic augmentée... ça fonctionnerait aussi pour le ferroviaire
Pas souhaitable du tout, si un seul hacker fait croire à un coup de frein quelque part, c'est carrambolage assuré. Trop risqué

Citation Envoyé par smarties Voir le message
- prédiction plus fiable des comportements
Pas besoin de connecter les voitures pour ça.

Citation Envoyé par smarties Voir le message
La voiture est un moyen de se déplacer, conduire n'est pas toujours désiré (mais obligé pour se rendre au travail ou ailleurs quand cela est trop contraignant via d'autres moyens) (il y en a qui aiment conduire aussi mais je ne suis pas certain que le faire dans les bouchons soit plaisant)).
Je suis d'accord avec toi, je vais clarifier ma position : Je suis pour les voitures autonomes, mais contres les voitures connectées. Et ça dans le cadre d'un process de développement logiciel aux qualités équivalente à ce qui existe dans l'avionique. Ce qui n'est pas le cas de Tesla qui est en permanence en mode "startup" avec un moto "Move fast, break things" qui prend un sens bien différent dans l'automobile!

Citation Envoyé par smarties Voir le message
De toute façon, on voit que dans la Sillicon Valley (et probablement dans d'autres pays) ils aménagent quelques carrefours pour communiquer avec des voitures "autonomes" afin de développer la technologie.
Pareil, pas souhaitable selon moi. Un hackeur pour faire croire à toutes les voitures d'un carrefour qu'elles ont le feu vert et encore une belle pile de bagnole en perspective.

à combien de minute gagnée par an évalues-tu la vie de quelqu'un? D'autant plus si ces minutes seront moins "perdues" qu'auparavant : 100% des voyageurs pourront travailler dans la voiture, se reposer, se distraire....

Il faut absolument que les voitures AUTONOMES soient AUTONOMES et se repose sur leur propres capteurs ET leurs propres capacité d'analyse d'info de leurs capteurs.
3  0 
Avatar de Uther
Expert éminent sénior https://www.developpez.com
Le 14/03/2024 à 8:47
C'est fou qu'on parle systématiquement de Tesla pour lancer les trolls alors que ce genre de triste accident est déjà arrivé avec bien d'autres marques de voitures. Mais il faut croire que Tesla fait plus de clics.
9  6