IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tesla doit désormais signaler les accidents liés à son Autopilot au gouvernement ou s'exposer à des amendes
D'après une décision de l'agence fédérale chargée de la sécurité routière

Le , par Stéphane le calme

201PARTAGES

7  0 
La National Highway Traffic Safety Administration (NHTSA), une agence fédérale américaine des États-Unis chargée de la sécurité routière, a franchi une étape importante dans sa mission en publiant une nouvelle règle qui lèvera le voile du secret sur la question de savoir si les fonctionnalités de conduite semi-autonome rendent réellement la conduite plus sûre.

En vertu de la nouvelle règle de la NHTSA, les entreprises doivent signaler tous les accidents dans lesquels des fonctions d'assistance à la conduite dites « semi-autonomes » telles que l'assistance à la direction ou le maintien de voie automatique sont impliquées, y compris Autopilot de Tesla et les options qui peuvent apporter la confusion comme « Full Self-Driving Beta ». La règle s'appliquera également aux entreprises exploitant des programmes pilotes de conduite autonome comme Waymo, Zoox et Cruise. Cela permettra non seulement à l'agence gouvernementale indépendante de mieux comprendre à quel point ces systèmes sont réellement sûrs, mais lui permettra également de repérer des modèles de systèmes particulièrement dangereux.

La nouvelle règle stipule que tout accident impliquant un système semi-autonome et « une blessure conduisant à une hospitalisation, un décès, un remorquage de véhicule, un déploiement d'airbag ou un usager de la route vulnérable comme un piéton ou un cycliste » doit être signalé à la NHTSA dans la journée suivant l'annonce de l'accident suivie par une mise à jour sur la situation 10 jours plus tard. Les entreprises doivent également signaler les accidents impliquant des blessures ou des dommages matériels sur une base mensuelle, à mettre à jour mensuellement avec de nouvelles informations. Le Washington Post a signalé que le non-respect de cette nouvelle règle entraînerait des amendes de 22 992 $ par jour, une pénalité maximale de « plus de 100 millions de dollars » et un envoi du dossier au ministère de la Justice.


Des rapports doivent être soumis pour tout incident à signaler, au sujet duquel une entreprise reçoit un avis, à compter de 10 jours après que l'entreprise en ait reçu l'injonction. Les rapports doivent être soumis à la NHTSA par voie électronique en utilisant un formulaire qui requiert des informations importantes concernant l'accident. La NHTSA utilisera ces informations pour identifier les accidents pour un suivi.

La NHTSA a déclaré dans le communiqué de presse qu'elle utiliserait les données collectées pour « aider l'agence à identifier les problèmes de sécurité potentiels et les impacts résultant de l'utilisation de technologies de pointe sur les routes publiques et à accroître la transparence ».

« L'aide à la conduite automobile de niveau 2 est une fonctionnalité de plus en plus courante sur de nombreux nouveaux véhicules et fournit des fonctions d'assistance à la conduite qui combinent des technologies, telles que l'assistance au centrage de voie et le régulateur de vitesse adaptatif, où le véhicule est capable de contrôler certains aspects de la direction et de la vitesse. Les conducteurs, cependant, doivent rester engagés et vigilants à tout moment lorsqu'ils utilisent ces systèmes, car ils ne sont pas conçus et ne sont pas en mesure d'effectuer les composants de fonctionnement critiques de la tâche de conduite. Les véhicules équipés de l'aide à la conduite automobile, capables d'effectuer l'intégralité de la tâche de conduite dans des circonstances limitées, ne sont actuellement pas vendus aux consommateurs, mais sont peu utilisés sur les routes publiques du pays pour les tests, le covoiturage et la livraison de marchandises.

« La surveillance de la NHTSA ne se limite pas aux accidents spécifiés discutés dans l'ordonnance ou aux informations soumises dans le cadre de ses obligations de déclaration. L'examen et l'analyse de la NHTSA incluront toutes les informations et tous les incidents relatifs à tout défaut de sécurité potentiel. De plus, la NHTSA peut prendre d'autres mesures en cas d'accident individuel, notamment en envoyant une équipe d'enquête spéciale sur les accidents et en exigeant de l'entreprise qu'elle fournisse des informations supplémentaires. La NHTSA peut également ouvrir des enquêtes sur les défauts, le cas échéant ».


Des accidents liés au système Autopilot de Tesla

Le contexte s'y prête fortement. Les régulateurs américains de la sécurité automobile ont annoncé des enquêtes en cours sur des accidents de Tesla impliquant 10 décès où des systèmes avancés d'aide à la conduite seraient impliqués. La NHTSA avait déjà confirmé certaines enquêtes spécifiques sur les accidents de Tesla, mais n'avait pas encore communiqué une comptabilité complète de tous les accidents de Tesla ayant fait l'objet d'une enquête où le système Autopilot de Tesla était soupçonné d'être impliqué. En juin, l’agence a publié une liste offrant des détails sur les accidents en cours d'examen par ses programmes d'enquêtes spéciales sur les accidents.

Sur les 30 accidents de Tesla, la NHTSA a exclu le système Autopilot de Tesla dans trois cas et a publié des rapports sur deux de ces accidents. Une première demande d’une liste complète avait été faite à la NHTSA il y a plus d'un an dans le cadre d'une demande de documents publics. Mais la liste ne comprenait que l'État et le mois où les accidents se sont produits. Auparavant, la NHTSA avait déclaré avoir ouvert 28 enquêtes spéciales sur les accidents de Tesla, dont 24 sont en cours. La feuille de calcul montre un accident de février 2019 où l'utilisation d'Autopilot était indéterminée.

Le système Autopilot utilise des caméras, des capteurs à ultrasons et un radar pour voir et détecter l'environnement de la voiture. L'ensemble des capteurs et des caméras permet au conducteur d'avoir une connaissance de son environnement qu'un conducteur seul n'aurait pas autrement. Un puissant ordinateur de bord traite ces données en quelques millisecondes afin de rendre la conduite "plus sûre et moins stressante", selon la société. L'Autopilot est un système d'aide à la conduite pratique qui ne doit être utilisé qu'avec un conducteur pleinement attentif. Il ne transforme pas une Tesla en voiture autonome.

La feuille de calcul montre que la NHTSA a ouvert huit enquêtes sur des accidents de Tesla depuis mars. La question a fait l'objet d'une nouvelle attention après l'accident incendiaire du 17 avril au Texas qui a tué deux hommes et dans lequel la police avait dit croire que personne n'était au volant. Mais Tesla avait réfuté les affirmations de la police, affirmant qu'un volant déformé suggérait que quelqu'un était probablement à la place du conducteur. Les batteries de la voiture, achetée d'occasion sur eBay en janvier, ont brûlé pendant quatre heures après.

Dans le cas de l'accident du Texas, le National Transportation Safety Board (NSTB) a déclaré en mai que les tests suggéraient que le système de pilotage automatique du véhicule n'était "pas disponible" sur la route où l'accident s'est produit. L’agence a critiqué les mesures de protection du système Autopilot de Tesla, qui permet aux conducteurs de ne pas toucher le volant pendant de longues périodes.

Un autre accident mortel survenu le 5 mai près de Los Angeles fait également l'objet d'une enquête de l'agence. Dans ce cas, le conducteur avait publié sur les médias sociaux des images de lui-même en train de "conduire" sa Tesla sans avoir les mains sur le volant. La Tesla modèle 3 a percuté un camion Mack renversé, et le conducteur a été déclaré mort sur place. L'accident s'est produit sur l'autoroute 210 près de Fontana, en Californie, à environ 80 km à l'est de Los Angeles.

En juin, la présidente de la commission du commerce du Sénat, Maria Cantwell, a cité les accidents de Tesla pour justifier le vote de la commission contre l'adoption d'une réglementation visant à accélérer l'adoption des voitures à conduite autonome. « Il semble que toutes les deux semaines, nous entendons parler d'un nouveau véhicule qui s'est écrasé alors qu'il était sur Autopilot », a déclaré Cantwell.

Conclusion

Ce changement apparemment mineur pourrait avoir un impact important sur la sécurité routière, car le public ne sait tout simplement pas à quel point ces systèmes sont bons, à quelle fréquence ils fonctionnent mal ou dans quelle mesure ils sont mal utilisés par les conducteurs. Jusqu'à présent, pratiquement toutes les données disponibles sur les fonctions de conduite informatisées, allant des diverses fonctionnalités de direction automatique, que pratiquement tous les constructeurs automobiles offrent de nos jours, au service de taxi entièrement autonome de Waymo en passant par Autopilot semi-autonome de Tesla, provenaient des entreprises elles-mêmes, qui ont un intérêt évident à faire en sorte que leur produit paraisse aussi sûr que possible. Cela n'a laissé au grand public qu'une anecdote occasionnelle (ou, dans le cas de Tesla, fréquente) sur une mauvaise utilisation ou un dysfonctionnement. Mais bientôt, le public devrait avoir des informations réelles pour déterminer si les accidents et dysfonctionnements ne sont que de simples anecdotes ou s'il s'agit de quelque chose de plus fréquent.

Cette décision pourrait également signaler que la NHTSA se réveille de son long sommeil de complaisance.

Source : NHTSA

Voir aussi :

L'Autopilot d'une Tesla Model 3, impliquée dans un accident, était activé lorsque le véhicule s'est écrasé contre un camion, indique le NTSB
Autopilot de Tesla peut être "facilement" trompé pour fonctionner sans personne sur le siège du conducteur, selon Consumer Reports, mais « vous ne devriez pas essayer ça »
Deux personnes sont tuées dans un accident d'une voiture Tesla sans personne au volant, l'Autopilot serait activé et les batteries de la voiture ne cessaient de raviver les flammes

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Karakoa
Membre à l'essai https://www.developpez.com
Le 18/08/2021 à 11:49
Citation Envoyé par Anselme45 Voir le message

Les fonctionnaires sont vraiment tous les mêmes, quelque soit le pays!
En voilà un de commentaire intelligent et pertinent...
10  0 
Avatar de ALT
Membre chevronné https://www.developpez.com
Le 20/08/2021 à 10:14
Citation Envoyé par Karakoa
En voilà un de commentaire intelligent et pertinent...
En effet.

11 accidents avec 760 000 véhicules (une partie des véhicules [Tesla] vendus, donc en circulation), ce n'est pas énorme.

Si l'administration devait enquêter à chaque accident... Certes, ça améliorerait la sécurité routière, mais à condition d'être réalisée avec la même rigueur que pour les accidents d'avion.
On en est (très) loin !

Maintenant, on peut dire aussi que c'est onze accidents de trop. J'espère que Tesla n'a pas attendu l'enquête pour corriger ces dysfonctionnements. C'est d'ailleurs son intérêt, commercialement.
Et plus les automatismes seront poussés, plus ce sera complexe.
On n'a donc pas fini de gloser sur le énième accident provoqué par un véhicule automatique, alors qu'il y en a moins (proportionnellement) que d'accidents provoqués par les humains.
4  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 17/08/2021 à 17:05
Il y a des rapides dans l'administration américaine... Il faut attendre 11 crashs inexpliqués avant de lancer des investigations?

Les fonctionnaires sont vraiment tous les mêmes, quelque soit le pays!
3  12