IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

17 morts, 736 accidents : le bilan alarmant d'Autopilot et Full Self-Driving de Tesla indique-t-il une course à l'innovation au mépris de la sécurité ?
Les statistiques de la NHTSA inquiètent

Le , par Stéphane le calme

335PARTAGES

6  0 
Le système d’assistance à la conduite de Tesla, connu sous le nom d'Autopilot, a été impliqué dans beaucoup plus d’accidents qu’on ne le pensait auparavant, selon une analyse d'un site dédié. Un expert en sécurité estime que l’augmentation est probablement liée au déploiement élargi de la technologie “Full Self Driving” (littéralement "conduite entièrement autonome") qui est encore en bêta.

Le nombre de décès et de blessures graves associés à Autopilot a augmenté de manière significative, selon les données publiées par la NHTSA (National Highway Traffic Safety Administration, l'agence fédérale américaine des États-Unis chargée de la sécurité routière). En juin 2022, lorsque l'agence a fait un décompte partiel, elle a noté que le logiciel de Tesla était impliqué dans 273 accidents en 2021. Il faut préciser que, depuis 2021, les constructeurs automobiles sont tenus d'informer la NHTSA si l'un de leurs véhicules est impliqué dans un accident alors qu'ils utilisent des systèmes de conduite partiellement automatisés, également appelés systèmes SAE de niveau 2. Comme beaucoup le soupçonnaient, le système Autopilot de Tesla était à l'origine de la majorité des accidents depuis le début de la période de référence. En fait, Tesla représentait les trois quarts de tous les accidents ADAS, soit 273 accidents sur 367 signalés entre juillet 2021 et le 15 mai 2022.

Mais ce n'est pas tout. Sur les six décès répertoriés dans l'ensemble de données publié par la NHTSA en juin 2022, cinq étaient liés à des véhicules Tesla – dont un accident de juillet 2021 impliquant un piéton à Flushing, dans le Queens, et un accident mortel en mars à Castro Valley, en Californie. Certains remontaient à 2019. Les données les plus récentes de l'agence américaine incluent au moins 17 incidents mortels, dont 11 depuis mai dernier, et cinq blessés graves.

Ces données sont plutôt limitées étant donné qu'elles concernent le marché américain. Le site Tesla Deaths, quant à lui, fournit une perspective plus globale. Il est expliqué : « Nous fournissons un registre mis à jour des décès par Tesla et des décès par accident de Tesla qui ont été signalés et autant de données d'accident connexes que possible (par exemple, lieu de l'accident, noms des personnes décédées, etc.) ».

Selon le site, le nombre de décès liés à Tesla au 12 juin 2023 est de 393. Le nombre de décès directement associés au logiciel Autopilot est de 33.


Elon Musk milite pour l'utilisation d'Aupilot et Full Self-Driving

Le PDG de Tesla, Elon Musk, a déclaré que les voitures fonctionnant en mode Autopilot de Tesla sont plus sûres que celles pilotées uniquement par des conducteurs humains, citant les taux d'accidents lorsque les modes de conduite sont comparés. Il a poussé le constructeur automobile à développer et à déployer des fonctionnalités programmées pour manœuvrer sur les routes (l'outil est entraîné à « prendre des décisions » sur des scénarios comme des autobus scolaires arrêtés, des camions de pompiers, des panneaux d'arrêt, des piétons, etc.), arguant que la technologie inaugurera un avenir plus sûr et pratiquement sans accident. Bien qu'il soit impossible de dire combien d'accidents ont pu être évités, les données montrent des failles évidentes dans la technologie testée en temps réel sur les autoroutes américaines.

La NHTSA a déclaré qu'un rapport d'accident impliquant une assistance à la conduite n'impliquait pas en soi que la technologie en était la cause. « La NHTSA mène une enquête active sur Autopilot de Tesla, y compris Full Self-Driving », a déclaré la porte-parole Veronica Morales, notant que l'agence ne commente pas les enquêtes ouvertes. « La NHTSA rappelle au public que tous les systèmes avancés d'aide à la conduite exigent que le conducteur humain soit en contrôle et pleinement engagé dans la tâche de conduite à tout moment. En conséquence, toutes les lois des États tiennent le conducteur humain responsable du fonctionnement de ses véhicules.*»


Le personnel d'urgence travaille sur les lieux où un SUV électrique Tesla s'est écrasé contre une barrière sur l'autoroute américaine 101 à Mountain View, en Californie, le 23 mars 2018. L'ingénieur Apple décédé lorsque son Tesla Model X s'est écrasé contre la barrière en béton s'est plaint avant sa mort que le système Autopilot du SUV fonctionnait mal dans la zone où l'accident s'est produit.

Musk a défendu à plusieurs reprises sa décision de pousser les technologies d'assistance à la conduite aux propriétaires de Tesla, arguant que les avantages l'emportent sur les inconvénients.

« Au point où vous pensez que l'ajout d'autonomie réduit les blessures et les décès, je pense que vous avez l'obligation morale de le déployer même si vous allez être poursuivi et blâmé par beaucoup de gens », a déclaré Musk l'année dernière. « Parce que les personnes dont vous avez sauvé la vie ne savent pas que leur vie a été sauvée. Et les gens qui meurent ou se blessent occasionnellement, ils le savent certainement – ou leur état le sait ».

Le nombre total d'accidents impliquant la technologie est infime par rapport à tous les accidents de la route*; la NHTSA estime que plus de 40 000 personnes sont mortes dans des accidents de voiture l'an dernier.

Depuis l'introduction des exigences de déclaration, la grande majorité des 807 accidents liés à l'automatisation ont impliqué Tesla, selon les données. Tesla (qui a expérimenté l'automatisation de manière plus agressive que les autres constructeurs automobiles) est également liée à presque tous les décès.

Subaru se classe deuxième avec 23 accidents signalés depuis 2019. L'énorme gouffre reflète probablement un déploiement et une utilisation plus larges de l'automatisation dans la flotte de véhicules de Tesla, ainsi que le plus large éventail de circonstances dans lesquelles les conducteurs de Tesla sont encouragés à utiliser Autopilot.

De plus, les données ne se prêtent pas facilement à des comparaisons entre différents constructeurs, car elles n'incluent pas d'informations telles que le nombre de kilomètres parcourus par les différents systèmes d'assistance à la conduite ou l'étendue de leur déploiement dans les flottes des constructeurs automobiles.

Pourtant, les informations donnent aux régulateurs un aperçu plus complet qu'auparavant. Avant, les régulateurs s'appuyaient sur une collecte fragmentaire de données provenant des médias, des notifications des fabricants et d'autres sources sporadiques pour en savoir plus sur les incidents impliquant une assistance avancée à la conduite.

« Cela a révélé que plus d'accidents se produisent que la NHTSA ne le savait auparavant », a déclaré Phil Koopman, professeur d'ingénierie à l'Université Carnegie Mellon qui se concentre sur la sécurité des véhicules autonomes. Il a noté que les rapports peuvent omettre plus d'accidents mineurs, y compris les cintreuses d'ailes.

L'ensemble de données n'inclut pas toutes les informations qu'il serait utile de connaître, mais cela pourrait être une première indication de l'accent mis sur la collecte de plus d'informations et leur utilisation pour améliorer les technologies et les réglementations de sécurité, a déclaré Bryant Walker Smith, professeur de droit à l'Université de Caroline du Sud qui étudie les technologies de transport émergentes.

« La promesse de ceux-ci, le potentiel de ceux-ci est en fin de compte de rendre la conduite plus sûre », a-t-il déclaré à propos des technologies d'assistance à la conduite. « C'est une question ouverte de savoir si ces systèmes dans leur ensemble ou des systèmes individuels ont accompli cela ».

Une augmentation « troublante » des accidents de Tesla

L'ancienne conseillère principale en matière de sécurité de la NHTSA, Missy Cummings, professeure au Collège d'ingénierie et d'informatique de l'Université George Mason, a déclaré que l'augmentation des accidents de Tesla était troublante.

« Tesla connaît des accidents plus graves - et mortels - que les personnes dans un ensemble de données normal », a-t-elle déclaré après la publication des statistiques. L'une des causes probables, a-t-elle déclaré, est le déploiement élargi au cours de la dernière année et demie de Full Self-Driving, qui apporte l'assistance au conducteur dans les rues urbaines et résidentielles. « Le fait que… n'importe qui et tout le monde peut l'avoir. … Est-il raisonnable de s'attendre à ce que cela entraîne une augmentation des taux d'accidents ? Bien sûr, absolument ».

Cummings a déclaré que le nombre de décès par rapport au nombre total d'accidents était également une préoccupation.

Il faut rappeler qu'il n'est pas clair si les données capturent chaque accident impliquant les systèmes d'assistance à la conduite de Tesla. Les données de la NHTSA incluent certains incidents où il est «inconnu» si Autopilot ou Full Self-Driving étaient utilisés.

Autopilot, que Tesla a introduit en 2014, est une suite de fonctionnalités qui permettent à la voiture de se manœuvrer d'une bretelle d'accès à une bretelle de sortie, en maintenant la vitesse et la distance derrière les autres véhicules et en suivant les lignes de voie. Tesla le propose en standard sur ses véhicules, dont plus de 800 000 sont équipés d'un Autopilot sur les routes américaines, bien que les itérations avancées aient un coût.

Full Self-Driving, quant à lui, est une fonctionnalité expérimentale que les clients doivent acheter. Elle permet aux Tesla de manœuvrer d'un point A à B en suivant des instructions détaillées le long d'un itinéraire, en s'arrêtant aux panneaux d'arrêt et aux feux de circulation, en effectuant des virages et des changements de voie, et en répondant aux dangers en cours de route. Avec l'un ou l'autre système, Tesla dit que les conducteurs doivent surveiller la route et intervenir si nécessaire.

Ces outils peuvent adopter des comportements curieux. Par exemple, en avril, Tesla a publié une mise à jour de son Full Self-Driving qui s'est accompagnée de nouveaux algorithmes qui déterminent le comportement de la voiture vis-à-vis des piétons. Une vidéo publiée sur Twitter en mai montre que même si le système Tesla peut détecter les piétons qui traversent la route, une Tesla peut choisir de ne pas s’arrêter ou ralentir comme elle le faisait avant.

En février, la NHTSA a demandé à Tesla de rappeler près de 363 000 véhicules équipés du logiciel.

L'agence avait quatre plaintes principales, notamment que « le système FSD Beta peut permettre au véhicule d'agir de manière dangereuse autour des intersections, comme traverser directement une intersection alors qu'il se trouve dans une voie réservée aux virages, entrer dans une intersection où est placé un panneau d'arrêt sans que le véhicule ne s'arrête ou s'engager dans une intersection sans la prudence nécessaire lorsque le feu de signalisation est jaune fixe ». Le feu jaune fixe annonçant un feu rouge, impose l'arrêt, sauf si cet arrêt comporte des risques, griller un feu orange ou un passer au rouge peut donc être tolérer dans une certaine mesure.

Sources : Tesla Deaths, NHTSA

Et vous ?

Que pensez-vous de l'Autopilot de Tesla et de ses performances ? Du Full Self-Driving ?
Avez-vous déjà conduit ou été passager d’un véhicule équipé d’un système d’assistance à la conduite ou de conduite autonome ?
Quels sont les risques et les bénéfices de ces technologies pour la sécurité routière et l’environnement ?
Faites-vous confiance aux constructeurs automobiles et aux autorités pour réguler et contrôler ces systèmes ?
Seriez-vous prêt à acheter ou à utiliser un véhicule doté de ces fonctionnalités ?

Voir aussi :

Les données de désengagement du Full Self-Driving de Tesla mises à disposition par un ensemble de propriétaires semblent si affreuses qu'Elon Musk est mis au défi de prouver le contraire

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de walfrat
Membre émérite https://www.developpez.com
Le 14/03/2024 à 9:19
Citation Envoyé par Uther Voir le message
C'est fou qu'on parle systématiquement de Tesla pour lancer les trolls alors que ce genre de triste accident est déjà arrivé avec bien d'autres marques de voitures. Mais il faut croire que Tesla fait plus de clics.
On peut aussi dire qu'il s'agit du retour de bâton des campagnes d'Elon Musk sur ses voitures.

On nous a noyés a une époque sur les Tesla, l'autopilot, la démonstration de la solidité des vitres etc.
12  1 
Avatar de totozor
Membre expert https://www.developpez.com
Le 25/08/2023 à 8:19
Bis repetita

Je ne suis même plus étonné, et presque plus révolté de lire ça.
Supprimons les traces pour que ça n'existe plus.
La méthode est redoutable et paye à long terme.
7  0 
Avatar de grunk
Modérateur https://www.developpez.com
Le 12/06/2023 à 11:44
L'ingénieur Apple décédé lorsque son Tesla Model X s'est écrasé contre la barrière en béton s'est plaint avant sa mort que le système Autopilot du SUV fonctionnait mal dans la zone où l'accident s'est produit.
Et a quel moment tu continues à faire une confiance aveugle à quelque chose qui te semble défaillant

J'ai que l'autopilote de base sur ma Tesla et franchement c'est a peine mieux que ce que font les autres avec des systèmes plus traditionnel. Le maintien dans les lignes est le meilleurs que j'ai pu essayer. Le régulateur adaptatif est, comme tous les autres ,inconfortable dès qu'il y'a du traffic. Et comme tous les autres systèmes on se prend régulièrement des ralentissement, voir des freinage intempestif car la voiture n'a pas été capable de comprendre qu'il n'y avait pas de danger.
Les 2 cas les plus typiques :
Sur autoroute , dépassement d'un véhicule, si le dépassement n'est pas suffisamment anticipé (plus de 2 lignes continue) il y'a de forte chance qu'elle décide de ralentir malgré la présence du clignotant
Toujours sur autoroute , si vous vous faites doubler et que l'utilisateur se rabat un peu proche c'est pas rare de prendre un coup de frein alors que c'est inutile puisque la voiture s'éloigne.

Dans les deux cas ca créer des comportement imprévisible pour les autre usager et donc du danger.

J'avais le même genre de pb sur mes autres véhicule , c'est donc pas lié directement a Tesla. La différence étant que certains possesseur de Tesla font une confiance aveugle au système qu'on leur propose et "oublie" de conduire
4  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 12/06/2023 à 12:26
Musk a défendu à plusieurs reprises sa décision de pousser les technologies d'assistance à la conduite aux propriétaires de Tesla, arguant que les avantages l'emportent sur les inconvénients.

Peut-être qu'il serait temps de remettre l'usage de la technologie à plat lorsque les inconvénients sont des morts d'êtres humains évitables par un être humain.

Mettre une technologie en Beta à la disponibilité de tous, c'est criminel lorsqu'il s'agit de sécurité routière. Et de tous les accidents évités par l'Autopilot et le Full Self Driving, combien auraient pu être évités par un être humain ? Pour moi, la technologie est loin d'être au point et nécessite plus de tests hors du grand public pour envisager les cas de figure les plus courants afin de sécuriser au maximum et surtout bien mieux que ce qui est vendu actuellement.
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 12/06/2023 à 17:49
A la lecture de ce score déplorable, une seule question me vient à l'esprit:

Comment se fait-il qu'aux USA, ce pays où le fabriquant de distributeur de boisson chaude doit imprimer sur ses gobelets en carton en toutes lettres "Attention, une boisson chaude peut occasionner des brulures en cas d'inattention de l'utilisateur... On décline toute responsabilité, blabla, blabla" pour s'éviter un procès qui va le condamner à des millions de dollars de dommages et intérêts, les aventures technologiques de Musk peuvent tuer des centaines de gens sans subir la moindre intervention d'un tribunal?

Est-ce que Musk inonde les familles des victimes de millions pour les faire taire et éviter ainsi le dépôt de plaintes ou est-ce qu'il y a une loi "Musk" aux USA qui lui évite tout risque de condamnation?
4  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 15/03/2024 à 17:42
Citation Envoyé par Uther Voir le message
C'est fou qu'on parle systématiquement de Tesla pour lancer les trolls alors que ce genre de triste accident est déjà arrivé avec bien d'autres marques de voitures. Mais il faut croire que Tesla fait plus de clics.
On est bien d'accord, c'est du piège à clics, mais je suis content de me faire piéger parce que ça m'intéresse de savoir comment éviter les accidents mortels.

Par ex, on note que sur les teslas
- l'ouverture des portes est électrique (et le dispositif d'ouverture d'urgence mécanique est caché quasi impossible à trouver dans la panique).
- les vitres sont électriques et incassables même avec un marteau.
- il n'y a pas de comme sur les Renault etc une bague à tirer ou un bouton à presser et un levier à glissière pour débloquer la marche arrière, mais un petit levier sous le volant avec deux mouvements : avant, arrière, afin de se déplacer logiciellement dans une liste d'états. Il est donc facile de faire une fausse manip de marche arrière accidentellement (sur une voiture à forte accélération ça peut ne pas pardonner, en plus ça cale pas).

ça fait beaucoup d'éléments pour conclure que même si tu es jeune et fort, si tu dois sortir en urgence d'une tesla ou voiture avec autant de défauts en urgence avec une panne électrique (incendie, eau), c'est la fin.

Je travaille avec des machines complexes qui peuvent créer divers accidents graves et qui bien sûr sont buguées. Au moins il y a un gros bouton rouge "panique" coupe circuit (et ça sert...). Parce que c'est pas dans la panique, quand toutes les sécurités logicielles sont en train de planter qu'on va trouver une solution plus intelligente que taper sur un gros bouton.

PS : On pourrait penser que c'est de la parano etc. Il se trouve que pas plus tard que la semaine dernière, je garais une électrique en pente. Une défaillance électronique est survenue pendant la marche avant avec perte de toutes les commandes et de l'assistance, passage automatique en roue libre, arrêt moteur. Le temps de se ressaisir et de piler plus fort, la voiture avait reculé de 20 cm dans une butée. Heureusement que c'était pas le bord d'un lac hein. Ce n'est que quelques heures après la panne que la voiture a décidé d'afficher un message sibyllin style technical intervention now avant de s'éteindre.
4  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 16/04/2024 à 8:09
Citation Envoyé par Stéphane le calme Voir le message
Cette décision fait suite à un début d'année difficile pour le constructeur de voitures électriques. Tesla a déclaré avoir effectué environ 387 000 livraisons à ses clients au cours du premier trimestre 2024, manquant ainsi les attentes du marché d'environ 13 %. Il s'agit de la première baisse des livraisons en près de quatre ans.
L'article parle beaucoup de Musk et Twitter mais je vois une autre chose :
Dans mon entreprise Tesla est le seul constructeur automobile qui propose des voiture conformes aux règles (5 portes, fourchette de prix etc) qu'on ne peut pas commander. Leur délai de livraison (il y a deux ans) était absurdement long alors que les autres constructeurs avaient déjà des délais qui montaient facilement à 12-18 mois.
Avant qu'on ne puisse plus les commander il fallait venir avec un devis pour chaque couleur parce que Tesla produit des séries de voitures par couleur et choisir la mauvaise couleur pouvait ajouter des mois de livraisons.

Et je soupçonne qu'ils payent aujourd'hui l'amateurisme d'hier, parce que oui dans l'industrie automobile être incapable de produire une voiture noire, un rouge puis une blanche est de l'ordre de l'amateurisme.

Je peux aussi parler de la voiture qui annonce une autonomie plus élevée que la réalité qui a beaucoup frustré ses conducteurs.

Donc je penses que les communications de Musk sur Twitter freinent quelques acheteurs potentiels mais son abandon (réél ou perçu) de Tesla en est une cause bien plus importante.
Et à la fin il assume ses conneries en virant 14 000 personnes, la "décision a été difficile" mais s'est il posé la question de sa responsabilité dans l'histoire?
4  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 13/06/2023 à 17:14
Citation Envoyé par smarties Voir le message
En dehors du souci majeur de sécurité du système il y a que des avantages :
- trafic plus fluide
Pas besoin de connecter les voitures autonome pour ça, avoir des IA qui prévoient plus tôt, décéllerent plus régulièrement et accéllere plus régulièrement suffit.
Citation Envoyé par smarties Voir le message
- réduction des distances de sécurité possible donc capacité du trafic augmentée... ça fonctionnerait aussi pour le ferroviaire
Pas souhaitable du tout, si un seul hacker fait croire à un coup de frein quelque part, c'est carrambolage assuré. Trop risqué

Citation Envoyé par smarties Voir le message
- prédiction plus fiable des comportements
Pas besoin de connecter les voitures pour ça.

Citation Envoyé par smarties Voir le message
La voiture est un moyen de se déplacer, conduire n'est pas toujours désiré (mais obligé pour se rendre au travail ou ailleurs quand cela est trop contraignant via d'autres moyens) (il y en a qui aiment conduire aussi mais je ne suis pas certain que le faire dans les bouchons soit plaisant)).
Je suis d'accord avec toi, je vais clarifier ma position : Je suis pour les voitures autonomes, mais contres les voitures connectées. Et ça dans le cadre d'un process de développement logiciel aux qualités équivalente à ce qui existe dans l'avionique. Ce qui n'est pas le cas de Tesla qui est en permanence en mode "startup" avec un moto "Move fast, break things" qui prend un sens bien différent dans l'automobile!

Citation Envoyé par smarties Voir le message
De toute façon, on voit que dans la Sillicon Valley (et probablement dans d'autres pays) ils aménagent quelques carrefours pour communiquer avec des voitures "autonomes" afin de développer la technologie.
Pareil, pas souhaitable selon moi. Un hackeur pour faire croire à toutes les voitures d'un carrefour qu'elles ont le feu vert et encore une belle pile de bagnole en perspective.

à combien de minute gagnée par an évalues-tu la vie de quelqu'un? D'autant plus si ces minutes seront moins "perdues" qu'auparavant : 100% des voyageurs pourront travailler dans la voiture, se reposer, se distraire....

Il faut absolument que les voitures AUTONOMES soient AUTONOMES et se repose sur leur propres capteurs ET leurs propres capacité d'analyse d'info de leurs capteurs.
3  0 
Avatar de Uther
Expert éminent sénior https://www.developpez.com
Le 14/03/2024 à 8:47
C'est fou qu'on parle systématiquement de Tesla pour lancer les trolls alors que ce genre de triste accident est déjà arrivé avec bien d'autres marques de voitures. Mais il faut croire que Tesla fait plus de clics.
9  6 
Avatar de Aurelien.Regat-Barrel
Expert éminent sénior https://www.developpez.com
Le 18/03/2024 à 14:46
PDG milliardaire de la société de transport maritime [...] s'est tragiquement noyée [...] dans un étang
c'est quand même pas banal
3  0