IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

17 morts, 736 accidents : le bilan alarmant d'Autopilot et Full Self-Driving de Tesla indique-t-il une course à l'innovation au mépris de la sécurité ?
Les statistiques de la NHTSA inquiètent

Le , par Stéphane le calme

332PARTAGES

6  0 
Le système d’assistance à la conduite de Tesla, connu sous le nom d'Autopilot, a été impliqué dans beaucoup plus d’accidents qu’on ne le pensait auparavant, selon une analyse d'un site dédié. Un expert en sécurité estime que l’augmentation est probablement liée au déploiement élargi de la technologie “Full Self Driving” (littéralement "conduite entièrement autonome" qui est encore en bêta.

Le nombre de décès et de blessures graves associés à Autopilot a augmenté de manière significative, selon les données publiées par la NHTSA (National Highway Traffic Safety Administration, l'agence fédérale américaine des États-Unis chargée de la sécurité routière). En juin 2022, lorsque l'agence a fait un décompte partiel, elle a noté que le logiciel de Tesla était impliqué dans 273 accidents en 2021. Il faut préciser que, depuis 2021, les constructeurs automobiles sont tenus d'informer la NHTSA si l'un de leurs véhicules est impliqué dans un accident alors qu'ils utilisent des systèmes de conduite partiellement automatisés, également appelés systèmes SAE de niveau 2. Comme beaucoup le soupçonnaient, le système Autopilot de Tesla était à l'origine de la majorité des accidents depuis le début de la période de référence. En fait, Tesla représentait les trois quarts de tous les accidents ADAS, soit 273 accidents sur 367 signalés entre juillet 2021 et le 15 mai 2022.

Mais ce n'est pas tout. Sur les six décès répertoriés dans l'ensemble de données publié par la NHTSA en juin 2022, cinq étaient liés à des véhicules Tesla – dont un accident de juillet 2021 impliquant un piéton à Flushing, dans le Queens, et un accident mortel en mars à Castro Valley, en Californie. Certains remontaient à 2019. Les données les plus récentes de l'agence américaine incluent au moins 17 incidents mortels, dont 11 depuis mai dernier, et cinq blessés graves.

Ces données sont plutôt limitées étant donné qu'elles concernent le marché américain. Le site Tesla Deaths, quant à lui, fournit une perspective plus globale. Il est expliqué : « Nous fournissons un registre mis à jour des décès par Tesla et des décès par accident de Tesla qui ont été signalés et autant de données d'accident connexes que possible (par exemple, lieu de l'accident, noms des personnes décédées, etc.) ».

Selon le site, le nombre de décès liés à Tesla au 12 juin 2023 est de 393. Le nombre de décès directement associés au logiciel Autopilot est de 33.


Elon Musk milite pour l'utilisation d'Aupilot et Full Self-Driving

Le PDG de Tesla, Elon Musk, a déclaré que les voitures fonctionnant en mode Autopilot de Tesla sont plus sûres que celles pilotées uniquement par des conducteurs humains, citant les taux d'accidents lorsque les modes de conduite sont comparés. Il a poussé le constructeur automobile à développer et à déployer des fonctionnalités programmées pour manœuvrer sur les routes (l'outil est entraîné à « prendre des décisions » sur des scénarios comme des autobus scolaires arrêtés, des camions de pompiers, des panneaux d'arrêt, des piétons, etc.), arguant que la technologie inaugurera un avenir plus sûr et pratiquement sans accident. Bien qu'il soit impossible de dire combien d'accidents ont pu être évités, les données montrent des failles évidentes dans la technologie testée en temps réel sur les autoroutes américaines.

La NHTSA a déclaré qu'un rapport d'accident impliquant une assistance à la conduite n'impliquait pas en soi que la technologie en était la cause. « La NHTSA mène une enquête active sur Autopilot de Tesla, y compris Full Self-Driving », a déclaré la porte-parole Veronica Morales, notant que l'agence ne commente pas les enquêtes ouvertes. « La NHTSA rappelle au public que tous les systèmes avancés d'aide à la conduite exigent que le conducteur humain soit en contrôle et pleinement engagé dans la tâche de conduite à tout moment. En conséquence, toutes les lois des États tiennent le conducteur humain responsable du fonctionnement de ses véhicules.*»


Le personnel d'urgence travaille sur les lieux où un SUV électrique Tesla s'est écrasé contre une barrière sur l'autoroute américaine 101 à Mountain View, en Californie, le 23 mars 2018. L'ingénieur Apple décédé lorsque son Tesla Model X s'est écrasé contre la barrière en béton s'est plaint avant sa mort que le système Autopilot du SUV fonctionnait mal dans la zone où l'accident s'est produit.

Musk a défendu à plusieurs reprises sa décision de pousser les technologies d'assistance à la conduite aux propriétaires de Tesla, arguant que les avantages l'emportent sur les inconvénients.

« Au point où vous pensez que l'ajout d'autonomie réduit les blessures et les décès, je pense que vous avez l'obligation morale de le déployer même si vous allez être poursuivi et blâmé par beaucoup de gens », a déclaré Musk l'année dernière. « Parce que les personnes dont vous avez sauvé la vie ne savent pas que leur vie a été sauvée. Et les gens qui meurent ou se blessent occasionnellement, ils le savent certainement – ou leur état le sait ».

Le nombre total d'accidents impliquant la technologie est infime par rapport à tous les accidents de la route*; la NHTSA estime que plus de 40 000 personnes sont mortes dans des accidents de voiture l'an dernier.

Depuis l'introduction des exigences de déclaration, la grande majorité des 807 accidents liés à l'automatisation ont impliqué Tesla, selon les données. Tesla (qui a expérimenté l'automatisation de manière plus agressive que les autres constructeurs automobiles) est également liée à presque tous les décès.

Subaru se classe deuxième avec 23 accidents signalés depuis 2019. L'énorme gouffre reflète probablement un déploiement et une utilisation plus larges de l'automatisation dans la flotte de véhicules de Tesla, ainsi que le plus large éventail de circonstances dans lesquelles les conducteurs de Tesla sont encouragés à utiliser Autopilot.

De plus, les données ne se prêtent pas facilement à des comparaisons entre différents constructeurs, car elles n'incluent pas d'informations telles que le nombre de kilomètres parcourus par les différents systèmes d'assistance à la conduite ou l'étendue de leur déploiement dans les flottes des constructeurs automobiles.

Pourtant, les informations donnent aux régulateurs un aperçu plus complet qu'auparavant. Avant, les régulateurs s'appuyaient sur une collecte fragmentaire de données provenant des médias, des notifications des fabricants et d'autres sources sporadiques pour en savoir plus sur les incidents impliquant une assistance avancée à la conduite.

« Cela a révélé que plus d'accidents se produisent que la NHTSA ne le savait auparavant », a déclaré Phil Koopman, professeur d'ingénierie à l'Université Carnegie Mellon qui se concentre sur la sécurité des véhicules autonomes. Il a noté que les rapports peuvent omettre plus d'accidents mineurs, y compris les cintreuses d'ailes.

L'ensemble de données n'inclut pas toutes les informations qu'il serait utile de connaître, mais cela pourrait être une première indication de l'accent mis sur la collecte de plus d'informations et leur utilisation pour améliorer les technologies et les réglementations de sécurité, a déclaré Bryant Walker Smith, professeur de droit à l'Université de Caroline du Sud qui étudie les technologies de transport émergentes.

« La promesse de ceux-ci, le potentiel de ceux-ci est en fin de compte de rendre la conduite plus sûre », a-t-il déclaré à propos des technologies d'assistance à la conduite. « C'est une question ouverte de savoir si ces systèmes dans leur ensemble ou des systèmes individuels ont accompli cela ».

Une augmentation « troublante » des accidents de Tesla

L'ancienne conseillère principale en matière de sécurité de la NHTSA, Missy Cummings, professeure au Collège d'ingénierie et d'informatique de l'Université George Mason, a déclaré que l'augmentation des accidents de Tesla était troublante.

« Tesla connaît des accidents plus graves - et mortels - que les personnes dans un ensemble de données normal », a-t-elle déclaré après la publication des statistiques. L'une des causes probables, a-t-elle déclaré, est le déploiement élargi au cours de la dernière année et demie de Full Self-Driving, qui apporte l'assistance au conducteur dans les rues urbaines et résidentielles. « Le fait que… n'importe qui et tout le monde peut l'avoir. … Est-il raisonnable de s'attendre à ce que cela entraîne une augmentation des taux d'accidents ? Bien sûr, absolument ».

Cummings a déclaré que le nombre de décès par rapport au nombre total d'accidents était également une préoccupation.

Il faut rappeler qu'il n'est pas clair si les données capturent chaque accident impliquant les systèmes d'assistance à la conduite de Tesla. Les données de la NHTSA incluent certains incidents où il est «inconnu» si Autopilot ou Full Self-Driving étaient utilisés.

Autopilot, que Tesla a introduit en 2014, est une suite de fonctionnalités qui permettent à la voiture de se manœuvrer d'une bretelle d'accès à une bretelle de sortie, en maintenant la vitesse et la distance derrière les autres véhicules et en suivant les lignes de voie. Tesla le propose en standard sur ses véhicules, dont plus de 800 000 sont équipés d'un Autopilot sur les routes américaines, bien que les itérations avancées aient un coût.

Full Self-Driving, quant à lui, est une fonctionnalité expérimentale que les clients doivent acheter. Elle permet aux Tesla de manœuvrer d'un point A à B en suivant des instructions détaillées le long d'un itinéraire, en s'arrêtant aux panneaux d'arrêt et aux feux de circulation, en effectuant des virages et des changements de voie, et en répondant aux dangers en cours de route. Avec l'un ou l'autre système, Tesla dit que les conducteurs doivent surveiller la route et intervenir si nécessaire.

Ces outils peuvent adopter des comportements curieux. Par exemple, en avril, Tesla a publié une mise à jour de son Full Self-Driving qui s'est accompagnée de nouveaux algorithmes qui déterminent le comportement de la voiture vis-à-vis des piétons. Une vidéo publiée sur Twitter en mai montre que même si le système Tesla peut détecter les piétons qui traversent la route, une Tesla peut choisir de ne pas s’arrêter ou ralentir comme elle le faisait avant.

En février, la NHTSA a demandé à Tesla de rappeler près de 363 000 véhicules équipés du logiciel.

L'agence avait quatre plaintes principales, notamment que « le système FSD Beta peut permettre au véhicule d'agir de manière dangereuse autour des intersections, comme traverser directement une intersection alors qu'il se trouve dans une voie réservée aux virages, entrer dans une intersection où est placé un panneau d'arrêt sans que le véhicule ne s'arrête ou s'engager dans une intersection sans la prudence nécessaire lorsque le feu de signalisation est jaune fixe ». Le feu jaune fixe annonçant un feu rouge, impose l'arrêt, sauf si cet arrêt comporte des risques, griller un feu orange ou un passer au rouge peut donc être tolérer dans une certaine mesure.

Sources : Tesla Deaths, NHTSA

Et vous ?

Que pensez-vous de l'Autopilot de Tesla et de ses performances ? Du Full Self-Driving ?
Avez-vous déjà conduit ou été passager d’un véhicule équipé d’un système d’assistance à la conduite ou de conduite autonome ?
Quels sont les risques et les bénéfices de ces technologies pour la sécurité routière et l’environnement ?
Faites-vous confiance aux constructeurs automobiles et aux autorités pour réguler et contrôler ces systèmes ?
Seriez-vous prêt à acheter ou à utiliser un véhicule doté de ces fonctionnalités ?

Voir aussi :

Les données de désengagement du Full Self-Driving de Tesla mises à disposition par un ensemble de propriétaires semblent si affreuses qu'Elon Musk est mis au défi de prouver le contraire

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Membre expert https://www.developpez.com
Le 25/08/2023 à 8:19
Bis repetita

Je ne suis même plus étonné, et presque plus révolté de lire ça.
Supprimons les traces pour que ça n'existe plus.
La méthode est redoutable et paye à long terme.
7  0 
Avatar de grunk
Modérateur https://www.developpez.com
Le 12/06/2023 à 11:44
L'ingénieur Apple décédé lorsque son Tesla Model X s'est écrasé contre la barrière en béton s'est plaint avant sa mort que le système Autopilot du SUV fonctionnait mal dans la zone où l'accident s'est produit.
Et a quel moment tu continues à faire une confiance aveugle à quelque chose qui te semble défaillant

J'ai que l'autopilote de base sur ma Tesla et franchement c'est a peine mieux que ce que font les autres avec des systèmes plus traditionnel. Le maintien dans les lignes est le meilleurs que j'ai pu essayer. Le régulateur adaptatif est, comme tous les autres ,inconfortable dès qu'il y'a du traffic. Et comme tous les autres systèmes on se prend régulièrement des ralentissement, voir des freinage intempestif car la voiture n'a pas été capable de comprendre qu'il n'y avait pas de danger.
Les 2 cas les plus typiques :
Sur autoroute , dépassement d'un véhicule, si le dépassement n'est pas suffisamment anticipé (plus de 2 lignes continue) il y'a de forte chance qu'elle décide de ralentir malgré la présence du clignotant
Toujours sur autoroute , si vous vous faites doubler et que l'utilisateur se rabat un peu proche c'est pas rare de prendre un coup de frein alors que c'est inutile puisque la voiture s'éloigne.

Dans les deux cas ca créer des comportement imprévisible pour les autre usager et donc du danger.

J'avais le même genre de pb sur mes autres véhicule , c'est donc pas lié directement a Tesla. La différence étant que certains possesseur de Tesla font une confiance aveugle au système qu'on leur propose et "oublie" de conduire
4  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 12/06/2023 à 12:26
Musk a défendu à plusieurs reprises sa décision de pousser les technologies d'assistance à la conduite aux propriétaires de Tesla, arguant que les avantages l'emportent sur les inconvénients.

Peut-être qu'il serait temps de remettre l'usage de la technologie à plat lorsque les inconvénients sont des morts d'êtres humains évitables par un être humain.

Mettre une technologie en Beta à la disponibilité de tous, c'est criminel lorsqu'il s'agit de sécurité routière. Et de tous les accidents évités par l'Autopilot et le Full Self Driving, combien auraient pu être évités par un être humain ? Pour moi, la technologie est loin d'être au point et nécessite plus de tests hors du grand public pour envisager les cas de figure les plus courants afin de sécuriser au maximum et surtout bien mieux que ce qui est vendu actuellement.
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 12/06/2023 à 17:49
A la lecture de ce score déplorable, une seule question me vient à l'esprit:

Comment se fait-il qu'aux USA, ce pays où le fabriquant de distributeur de boisson chaude doit imprimer sur ses gobelets en carton en toutes lettres "Attention, une boisson chaude peut occasionner des brulures en cas d'inattention de l'utilisateur... On décline toute responsabilité, blabla, blabla" pour s'éviter un procès qui va le condamner à des millions de dollars de dommages et intérêts, les aventures technologiques de Musk peuvent tuer des centaines de gens sans subir la moindre intervention d'un tribunal?

Est-ce que Musk inonde les familles des victimes de millions pour les faire taire et éviter ainsi le dépôt de plaintes ou est-ce qu'il y a une loi "Musk" aux USA qui lui évite tout risque de condamnation?
4  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 13/06/2023 à 17:14
Citation Envoyé par smarties Voir le message
En dehors du souci majeur de sécurité du système il y a que des avantages :
- trafic plus fluide
Pas besoin de connecter les voitures autonome pour ça, avoir des IA qui prévoient plus tôt, décéllerent plus régulièrement et accéllere plus régulièrement suffit.
Citation Envoyé par smarties Voir le message

- réduction des distances de sécurité possible donc capacité du trafic augmentée... ça fonctionnerait aussi pour le ferroviaire
Pas souhaitable du tout, si un seul hacker fait croire à un coup de frein quelque part, c'est carrambolage assuré. Trop risqué

Citation Envoyé par smarties Voir le message

- prédiction plus fiable des comportements
Pas besoin de connecter les voitures pour ça.

Citation Envoyé par smarties Voir le message

La voiture est un moyen de se déplacer, conduire n'est pas toujours désiré (mais obligé pour se rendre au travail ou ailleurs quand cela est trop contraignant via d'autres moyens) (il y en a qui aiment conduire aussi mais je ne suis pas certain que le faire dans les bouchons soit plaisant)).
Je suis d'accord avec toi, je vais clarifier ma position : Je suis pour les voitures autonomes, mais contres les voitures connectées. Et ça dans le cadre d'un process de développement logiciel aux qualités équivalente à ce qui existe dans l'avionique. Ce qui n'est pas le cas de Tesla qui est en permanence en mode "startup" avec un moto "Move fast, break things" qui prend un sens bien différent dans l'automobile!

Citation Envoyé par smarties Voir le message

De toute façon, on voit que dans la Sillicon Valley (et probablement dans d'autres pays) ils aménagent quelques carrefours pour communiquer avec des voitures "autonomes" afin de développer la technologie.
Pareil, pas souhaitable selon moi. Un hackeur pour faire croire à toutes les voitures d'un carrefour qu'elles ont le feu vert et encore une belle pile de bagnole en perspective.

à combien de minute gagnée par an évalues-tu la vie de quelqu'un? D'autant plus si ces minutes seront moins "perdues" qu'auparavant : 100% des voyageurs pourront travailler dans la voiture, se reposer, se distraire....

Il faut absolument que les voitures AUTONOMES soient AUTONOMES et se repose sur leur propres capteurs ET leurs propres capacité d'analyse d'info de leurs capteurs.
3  0 
Avatar de Derf59
Membre actif https://www.developpez.com
Le 12/06/2023 à 12:22
Les chiffres sont toujours très compliqués à interpréter.
Par exemple
Passer de 100 morts à 200 morts c'est 100% d'augmentation.
Maintenant passer de 100 à 200 morts parce qu'en parallèle on est passés de xx Tesla à xx Tesla dans le monde fait que le nombre de morts par voiture Tesla roulant diminue
Ventes de Tesla
2020 : 499 550
2021 : 936 172
2022 : 1 313 851

On reste dans tous les cas sur pour moi une "aide" à la conduite, on devrait juste IMPOSER à Tesla de changer les dénominations (qui trompe les "naifs"
AutoPilot & Full Self-Driving

je sais pas un
Pilot Assistance & Semi Self Driving
2  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 13/06/2023 à 18:10
Citation Envoyé par smarties Voir le message
De toute façon, on voit que dans la Sillicon Valley (et probablement dans d'autres pays) ils aménagent quelques carrefours pour communiquer avec des voitures "autonomes" afin de développer la technologie.
Quand on voit les dégâts que peut occasionner un feu mal réglé, je ne m'appuierai pas trop sur cette technologie. Un exemple tout con, je rentrais du boulot au début des années 90. Les pouvoirs publics avaient enfin décidé d'installer un feu au niveau du croisement de la nationale où la môme Piaf avait eu un accident en 1958. Manque de bol la temporisation entre les feux était mal réglée. Résultat : 2 morts un blessé grave. Et re manque de bol un avocat réputé de la région a été un des témoins du carton.

Conclusion : 2 employés de la voirie ont fait de la prison pour homicide involontaire.
Donc imaginons le moindre hack ou dysfonctionnement et ce sont des morts assurés.
2  0 
Avatar de PomFritz
Membre confirmé https://www.developpez.com
Le 27/08/2023 à 12:15
Citation Envoyé par Bruno Voir le message
Malgré la prétention de Musk que les Model S et les Model X étaient plus sûres que les humains en mode autonome, aucune Tesla n’avait cette capacité. Il a donc été poursuivi en justice. Un juge californien a demandé à interroger Musk sous serment afin de déterminer s'il a fait des déclarations spécifiques sur l'Autopilot de Tesla, mais pour éviter que d'éventuelles frasques du milliardaire ne se retrouvent sur la place publique, ses avocats ont déclaré que la vidéo en question pourrait n'être qu'un deepfake. Une affirmation que le juge a qualifiée de troublante.

Les avocats de Tesla ont déclaré que Musk ne pouvait pas se souvenir des détails de ses affirmations. Selon eux, comme beaucoup de personnalités publiques, il fait l'objet de plusieurs vidéos et enregistrements audio deepfakes qui prétendent le montrer en train de dire et de faire des choses qu'il n'a jamais dites ou faites en réalité. Toutefois, un juge de l'État de Californien a réfuté cet argument et a finalement rendu une ordonnance provisoire exigeant que le PDG de Tesla se présente au tribunal en vue d'une déposition sous serment.
Fallait oser. Musk l'a fait. Ils se foutent quand même de la gueule du monde! Exactement comme dans la série The Capture...
2  0 
Avatar de AndMax
Membre éprouvé https://www.developpez.com
Le 12/06/2023 à 12:53
Citation Envoyé par grunk Voir le message
J'avais le même genre de pb sur mes autres véhicule , c'est donc pas lié directement a Tesla. La différence étant que certains possesseur de Tesla font une confiance aveugle au système qu'on leur propose et "oublie" de conduire
C'est vrai que tous les systèmes ont leurs limites, mais crois que Tesla a un gros problème que les autres n'ont pas: le vocabulaire, ou au moins les noms de leurs produits qui sont extrêmement prétentieux. "Autopilot" et "Full self driving" + un patron qui ment dans ses conférences en disant depuis 2019 que ses voitures sont 100% autonomes, capables de traverser les USA sans intervention humaine, et que le "robotaxi" est dispo. Aucune autre marque ne fait ce genre de déclarations, et le fait d'ajouter "beta" dans le nom, de toute évidence, ça ne suffit pas pour que certains conducteurs restent vigilants.
1  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 12/06/2023 à 17:22
Citation Envoyé par smarties Voir le message
Ca sera toujours le cas à mon avis tant que les véhicules ne sont pas capables de communiqués entre eux. Chaque constructeur automobile fait les choses dans son coin et c'est idiot.
On cherche à reproduire une conduite humaine alors qu'il faudrait mettre en place une conduite interconnectée entre les véhicules.
Et pour les vieux véhicules, mettre un boîtier qui permet de signaler aux véhicules autonomes leurs position et gabarit permettrait de faire de gros progrès.
Non. Une voiture autonome doit être autonome et ne pas être dépendante ni d'un réseau de donnée, ni d'infrastructure serveur ni de véhicules annexes.

Si la voiture devient connectée sur ses fonctions de conduites, alors elle devient la cible de hacking et c'est la fin de la sécurité, pas le début; c'est une vrai fausse bonne idée.
2  1