IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les données d'accidents montrent que le système Autopilot est beaucoup moins sûr que ce que Tesla prétend,
Musk n'a toujours pas concrétisé ces promesses audacieuses aux investisseurs

Le , par Bruno

1.2KPARTAGES

4  0 
La sécurité des véhicules de plus en plus automatisés préoccupe beaucoup les régulateurs, mais les taux d'accidents sont généralement communiqués par les constructeurs avec des paramètres propriétaires. En l'absence de définitions cohérentes des accidents et de l'exposition, la comparaison des taux d'accidents des véhicules automatisés avec des ensembles de données de référence devient difficile. Après des années de battage médiatique autour de son système de conduite autonome, les faits se font jour sur la sécurité réelle de Tesla et du système Autopilot.

Le système Autopilot de Tesla, qui peut diriger, ralentir et accélérer une voiture de manière autonome, fait l'objet depuis plusieurs années de critiques de la part des experts en sécurité, car il permet aux conducteurs de lâcher le volant pendant de longues périodes, alors qu'ils ne sont pas censés le faire.

La société d'Elon Musk admet que trois de ses véhicules se sont écrasés alors que le système Autopilot était activé, dont un accident mortel dans lequel le véhicule de Joshua Brown a foncé directement dans un semi-remorque. À la suite de la mort de Joshua Brown, Musk a affirmé qu'Autopilot sauverait des milliers de vies s'il était déployé universellement aujourd'hui. Cette affirmation audacieuse est fondée sur des données insuffisantes et des comparaisons erronées entre les véhicules Tesla et toutes les autres voitures, qui font pencher la balance en faveur de l'entreprise.

La renommée de Musk, qui se décrit lui-même comme un « spécialiste de la physique appliquée et un entrepreneur en série », a suscité une confiance apparemment inépuisable du public dans son intelligence et son leadership, mais en promouvant une comparaison statistique aussi erronée du système controversé de son entreprise, il remet cette confiance en question.

Dans un rapport intitulé A Methodology for Normalizing Safety Statistics of Partially Automated Vehicles, Noah Goodall, Chercheur scientifique au ministère des Transports de Virginie, présente les résultats d’une étude qui examine les taux d'accidents sur route rapportés par le système de conduite Autopilot de Tesla.

Les taux d'accidents rapportés sont ajustés en fonction de la classification des routes et des caractéristiques démographiques des conducteurs afin de permettre une comparaison directe avec les systèmes d'aide à la conduite avancés du même fabricant. Des recommandations pour des normes uniformes de rapport d'accident sont fournies. Avertissement : les points de vue et opinions exprimés dans cet article sont ceux de l'auteur et ne reflètent pas nécessairement les politiques ou positions officielles d'une agence du Commonwealth de Virginie.

Les taux d'accidents déclarés par Tesla pour les véhicules avec Autopilot et les dispositifs de sécurité active activés, et les dispositifs de sécurité active uniquement (ASO) activés, ont été comparés aux taux d'accidents nationaux. Les taux de sécurité du constructeur ont été obtenus à partir de ses rapports trimestriels de sécurité publiés par lui-même (Tesla, 2021), qui indiquaient les kilomètres parcourus par accident, mais pas les kilométrages spécifiques ni le nombre d'accidents.

Tesla définit un accident comme un incident où « l'alerte d'accident indique qu'un airbag ou un autre dispositif de retenue actif » a été déployé (Tesla, 2021). Selon le rapport, cela « correspond à presque tous les accidents à environ 20 km/h ou plus, en fonction des forces d'impact générées » (Tesla, 2021).

Les taux d'accidents pour lesquels aucun dispositif de sécurité active n'était utilisé ont également été signalés, mais ils sont exclus de cette analyse, car les dispositifs de sécurité active sont activés par défaut. L'utilisation de la sécurité active uniquement est considérée comme un fonctionnement sous contrôle manuel lors de la comparaison avec d'autres ensembles de données.

Le ratio des kilomètres parcourus par Tesla avec Autopilot et sécurité active uniquement sur les autoroutes a été obtenu à partir d'une étude non publiée de 2018 (Fridman et al., 2018). Dans ce rapport, il était question d'une étude de conduite naturaliste de 28 véhicules dotés de fonctions de conduite automatisée, dont 25 étaient des modèles Tesla équipés d'Autopilot. Les véhicules avaient parcouru un total de 323 384 miles au moment de la rédaction du rapport.

L'étude était principalement axée sur l'attention du conducteur, le rapport (Fridman et al., 2018) présente une ventilation des distances parcourues sur des routes soumises à diverses limitations de vitesse.


L'étude a ensuite été retirée pour des raisons qui semblent liées à la partie de l'étude concernant l'attention du conducteur. Un auteur aurait confirmé dans une correspondance avec Goodall que tous les kilométrages de l'étude sont exacts (Reimer, 2021).

Musk a entrepris de créer la perception utopique de la conduite autonome en 2013, lorsqu'il a déclaré qu'Autopilot serait capable de gérer « 90 % des kilomètres parcourus » d'ici 2016. À la mi-2014, Musk promettait aux investisseurs que le système pourrait gérer toute la conduite sur autoroute, « de la bretelle d'accès à la sortie », dans les 12 mois suivant le déploiement. Tesla n'a toujours pas concrétisé ces promesses audacieuses, et ses concurrents affirment que le matériel de détection relativement simple de Tesla ne sera jamais capable de fonctionner en toute sécurité à un tel niveau d'autonomie.

À la suite de l'accident mortel de Brown, le fournisseur de capteurs de Tesla, Mobileye, a précisé que sa technologie actuelle n'était pas conçue pour empêcher un accident avec un trafic se déplaçant latéralement, comme le semi-remorque qui tournait et que la Model S de Brown a heurté. Cette semaine, Tesla a révélé un autre accident d'Autopilot qui a vu un Model X faire une embardée dans des piquets de bois à 88,5 km/h dans une route de canyon. Les experts ont compris les limites matérielles d'Autopilot depuis un certain temps, mais les propriétaires et les investisseurs de Tesla ont clairement cru qu'Autopilot était un système de conduite autonome, ou quelque chose de très proche. Brown croyait clairement que l'Autopilot était « autonome » et l'a décrit comme tel dans la description d'une vidéo que Musk a partagée sur Twitter.


Sa foi apparente dans les capacités autonomes de l'Autopilot était si grande qu'il aurait regardé un DVD au moment de son accident fatal. L'étendue des capacités réelles de l'Autopilote, qui varie en fonction de chaque mise à jour logicielle et micrologicielle que Tesla apporte à la voiture, fait l'objet d'un vif débat sur les forums Tesla, où même les acolytes les plus fervents de Musk oscillent entre l'exaltation de ses pouvoirs miraculeux et le blâme des conducteurs pour leur inattention, selon les circonstances.

Cette ambiguïté et cette confiance excessive dans les systèmes semi-autonomes expliqueraient pourquoi Google refuse de développer autre chose que des systèmes entièrement autonomes ne nécessitant aucune intervention du conducteur, un niveau de performance qui, selon le géant de la recherche, nécessite des tests approfondis et des capteurs LIDAR coûteux que Musk a souvent rejetés. C'est également la raison pour laquelle les grands constructeurs automobiles développent des systèmes de surveillance de la vigilance du conducteur qui, selon eux, empêcheront les conducteurs de véhicules semi-autonomes de trop se fier aux capacités limitées de leur véhicule.

Plutôt que d'attendre que les coûts du LIDAR baissent ou d'intégrer un système complexe de surveillance de la vigilance du conducteur, Tesla a choisi de blâmer ses fidèles bêta-testeurs pour tout problème survenant lors des tests. Un propriétaire de Tesla décrit ce cercle vicieux, après s'être entendu dire qu'un accident était de sa faute parce qu'il avait désactivé l'Autopilot en appuyant sur les freins : « Donc si vous ne freinez pas, c'est votre faute parce que vous n'étiez pas attentif », a-t-il déclaré au Wall Street Journal. « Et si vous freinez, c'est votre faute parce que vous conduisiez ».

« La technologie de conduite autonome n'a jamais été mentionnée dans l'ambitieux "plan directeur top secret" de 2006 de Musk pour Tesla, et semble avoir été ajoutée à sa mission de changement du monde en réponse au programme de voiture autonome de Google, qui a fait l'objet d'un battage médiatique massif (mais qui n'a pas encore été déployé commercialement) », déclare Edward Niedermeyer, directeur des communications de Partners for Automated Vehicle Education (PAVE), un organisme sans but lucratif soutenu par les secteurs de l'automobile et de la technologie.

Taux d'accidents des constructeurs ajustés en fonction de l'utilisation de la route et de l'âge du propriétaire

Selon Niedermeyer, la révélation du concept radical de voiture autonome à contrôle humain nul de Google en 2014 a soudainement donné aux voitures du futur de Tesla un air résolument passéiste. Et contrairement à Google, dont la communication sur la conduite autonome était entièrement axée sur les avantages de la technologie en termes de sécurité à long terme, « la volonté de Musk de devancer la concurrence sur le marché ressemble davantage à une course pour protéger l'image high-tech de Tesla qu'à la pure poursuite de routes plus sûres. »

Lorsque Morgan Stanley, en 2015, a augmenté de 90 % l'objectif de cours de l'action Tesla en se fondant sur la prévision que Musk conduirait l'industrie automobile vers une « utopie autonome », elle a montré que même un avantage perçu en matière de conduite autonome pourrait aider Tesla à lever les énormes capitaux dont elle a besoin pour poursuivre sa croissance.

Selon la National Highway Traffic Safety Administration (NHTSA).il manque un moyen efficace de s'assurer que les conducteurs gardent les yeux sur la route. La combinaison de la conduite mains libres et du fait que les conducteurs détournent le regard de la route a été liée à au moins 12 décès sur la route depuis 2016 dans des voitures Tesla qui fonctionnaient en mode Autopilot.

« C'est un gros problème si le lecteur est visible pour le conducteur, c'est certain… l'ajout des jeux vidéo réclame à grands cris que la NHTSA fournisse des conseils et une réglementation », a déclaré Jonathan Adkins, directeur exécutif de la Governors Highway Safety Association, qui coordonne les efforts des États pour promouvoir la sécurité au volant.

Pour certains analystes, le logiciel de conduite autonome de Tesla est un échec total. D'anciens employés affirment que la première vidéo de la société montrant la fonction de conduite autonome sur une Model S a été entièrement mise en scène. Cette vidéo allait devenir le moyen préféré de Tesla pour prouver ostensiblement que le projet de conduite autonome complète était bien vivant.

La National Highway Traffic Safety Administration (NHTSA) veut savoir pourquoi Tesla laisse les propriétaires de ses voitures jouer au solitaire tout en conduisant. La NHTSA a publié une déclaration indiquant qu'elle examinait cette fonctionnalité. « Nous sommes conscients des préoccupations des conducteurs et nous discutons de cette fonctionnalité avec le fabricant », a déclaré la NHTSA.

En décembre 2021, le gouvernement américain demande à Tesla pourquoi il laisse les gens jouer à des jeux vidéo en conduisant. En effet, des vidéos montrant des conducteurs de Tesla accédant à un jeu en mouvement sont apparues sur YouTube et ont été remarquées cette semaine. Si la possibilité de jouer dans une Tesla n'est pas nouvelle (la société a commencé à ajouter des jeux de style arcade en 2019), le fait de le faire pendant que les véhicules ne sont pas garés l'est. Le constructeur automobile a ajouté les jeux dans une mise à jour logicielle qui a été envoyée à la plupart de ses voitures cet été.

Les lois locales américaines semblent alignées contre l'idée d'avoir un jeu visiblement en marche pendant qu'une voiture est en mouvement, même si le conducteur n'est pas celui qui joue. Un tour d'horizon de 2014 de la Consumer Electronics Association a révélé que des lois sur la « restriction des écrans vidéo » étaient en vigueur dans 34 États et dans le District de Columbia.

Bien que les lois spécifiques varient, la plupart des réglementations se concentrent sur le fonctionnement des écrans de « télévision » qui sont visibles par le conducteur lorsque la voiture est en mouvement (la loi californienne restreint plus largement l'utilisation de tout moniteur vidéo ou écran vidéo ou tout autre dispositif similaire qui affiche un signal vidéo).

La Tesla autopilotée fait les choses les plus folles que vous pouvez imaginer

Ogan, un jeune professionnel de Boston qui possède sa Tesla depuis octobre 2021, a posté mardi une vidéo de la voiture se conduisant toute seule dans le sud de Boston. Taylor Ogan dit qu'il se sent plus en sécurité en conduisant lui-même sa Tesla Model Y dans les rues de Boston qu'en utilisant son programme bêta d'autoconduite complète et pour une bonne raison. La vidéo montre ce qu'Ogan a dit être des problèmes de sécurité fréquents qui se produisent en laissant la voiture prendre le contrôle.

Au cours de cette vidéo d'une minute, la Tesla se dirige presque toute seule sur la mauvaise voie, ne ralentit pas ou ne s'arrête pas pour un camion qui tourne, et effectue des virages serrés qui font que la voiture a presque percuté un autre véhicule garé.
« Elle est commercialisée sous le nom de FSC, ce qui signifie Full self-driving (conduite autonome). Et je pense que la vidéo montre qu'il ne s'agit absolument pas d'une conduite autonome complète », a déclaré Ogan.

La vidéo fait suite à des informations contradictoires émanant de l'entreprise au cours des deux dernières semaines. La semaine dernière, lors de la conférence sur les résultats de Tesla pour le quatrième trimestre 2021, le PDG Elon Musk aurait déclaré qu'il serait choqué si Tesla n'atteignait pas « une conduite entièrement autonome plus sûre que l'homme cette année ».

Pourtant, le 1er février, Tesla a rappelé près de 54 000 voitures et SUV parce que son logiciel Full Self-Driving laisse les voitures rouler sur les panneaux d'arrêt sans s'arrêter complètement. La National Highway Traffic Safety Administration (NHTSA) a déclaré que le rappel concerne certains véhicules Model S et Model X 2016-2022, Model 3 2017-2022 et Model Y 2020-2022. La NHTSA a déclaré que la fonction également connue sous le nom de FSD Beta peut permettre aux véhicules de traverser une intersection à arrêt complet sans s'arrêter au préalable.

Tesla effectuera une mise à jour logicielle over-the-air qui désactivera la fonctionnalité rolling stop, a déclaré la NHTSA. L'agence a ajouté qu'elle « maintient des discussions régulières avec tous les fabricants pour discuter des problèmes de sécurité potentiels de ces types de systèmes. »

Ogan a déclaré qu'il avait partagé cette vidéo parce qu'il avait vu de nombreuses vidéos « parfaitement élaborées » de personnes utilisant la fonction de conduite autonome de Tesla sur de belles routes de Californie sans aucun problème. Il a dit qu'il voulait faire savoir aux gens que la technologie est loin d'être parfaite.
« C'est juste les choses les plus folles que vous pouvez imaginer. Vous n'avez aucune idée de ce qu'elle va faire ensuite », a-t-il déclaré. Bien qu'Ogan ait déclaré être un fan de Tesla en tant qu'entreprise, il s'est montré critique à l'égard de cette technologie en particulier.

« Je suis choqué que les régulateurs autorisent encore cela, surtout dans une ville progressiste comme Boston », a-t-il déclaré. Ogan a souligné que la vidéo montrait des extraits d'un trajet de seulement 22 minutes sur 7 kilomètres, et même avec ce court trajet, la technologie avait de nombreux problèmes. « Il y a des entreprises qui ont des voitures autonomes, mais Tesla n'en fait pas partie », a déclaré Ogan.

Alors que certains analystes expriment leurs scepticismes à l’endroit des déclarations d’Elon Musk, le milliardaire sud-africain promet une nouvelle fois que les Tesla se conduiront toutes seules dans un avenir proche. « Je regardais une émission de télé qui avait un milliardaire parodique comme Elon. Il travaillait sur un produit impossible à développer, et n'arrêtait pas de dire qu'il serait bientôt prêt. Finalement, le personnage principal a découvert que le milliardaire n'avait même pas commencé à le développer, déclare l’un d’entre eux, ironisant sur celle de Musk. Je suis toujours prudent quant à ce que dit Elon Musk. »

Sources : rapport d'étude by Noah Goodall, Edward Niedermeyer

Et vous ?

Que pensez-vous de la conduite autonome ?

Quel est votre avis sur l'Autopilot de Tesla ?

Quel commentaire faites-vous des promesses d'Elon Musk aux investisseurs ? Audacieuses ou non ?

Voir aussi :

Le siège social de Tesla va déménager à Austin, Elon Musk serait attiré par les politiques sociales de l'État du Texas

Tesla rappelle près de 54 000 véhicules susceptibles de ne pas respecter les panneaux d'arrêt, les Model S et Model X 2016-2022, Model 3 2017-2022 et Model Y 2020-2022 sont concernés

Le Gouvernement américain demande à Tesla pourquoi les gens peuvent jouer à des jeux vidéo dans des voitures en mouvement, la fonctionnalité fait l'objet d'un examen

Tesla perd trois vice-présidents en une semaine, alors que l'entreprise se dépêchait de livrer ses voitures aux clients

Une erreur dans cette actualité ? Signalez-nous-la !