IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tesla fait face à de nouvelles enquêtes sur les décès de motocyclistes et la publicité mensongère,
Les véhicules Tesla semblent avoir du mal à reconnaître les motocyclistes et les piétons

Le , par Bill Fassinou

308PARTAGES

17  0 
L'année 2022 continue d'être très mouvementée pour Tesla. La National Highway Traffic Safety Administration (NHTSA) des États-Unis a lancé au début du mois deux nouvelles enquêtes sur le constructeur de véhicules électriques. L'une porte sur la mort de deux motocyclistes percutés par l'arrière par des véhicules Tesla en juillet et l'autre sur des allégations de publicités mensongères portées contre l'entreprise en Californie. La NHTSA cherche à savoir si l'Autopilot, le système avancé d'aide à la conduite (ADAS) de Tesla, est capable de reconnaître correctement les motocyclistes le jour comme la nuit.

Les accidents mortels impliquant l'Autopilot de Tesla sont de plus en plus fréquents et les autorités routières semblent plus inquiètes que jamais au sujet de la fiabilité du logiciel. Deux accidents mortels ont particulièrement attiré l'attention des régulateurs fédéraux américains au cours du dernier mois. Le premier accident mortel s'est produit aux premières heures du 7 juillet à Riverside, en Californie, lorsqu'une Tesla Model Y circulant sur la State Route 91 a percuté une moto par l'arrière, tuant son conducteur. Le deuxième accident mortel de moto s'est produit le 24 juillet, de nuit également, cette fois sur la I-15 à la sortie de Draper, dans l'Utah.

Dans ce cas, une Tesla Model 3 roulait derrière une moto et l'a percutée, tuant son conducteur. Selon les rapports sur ces deux accidents, la patrouille routière de la Californie cherche toujours à savoir si l'Autopilot était actif lors du premier accident, mais le conducteur de l'Utah a admis qu'il utilisait l'assistance à la conduite au moment de son accident. Cette semaine, les médias américains ont rapporté que des enquêteurs de la NHTSA se sont rendus sur les lieux des accidents dans le cadre d'une nouvelle enquête. La NHTSA soupçonne que le système d'aide à la conduite partiellement automatisé de Tesla était utilisé dans chaque cas.



L'agence indique qu'une fois qu'elle aura recueilli davantage d'informations, elle pourra inclure ces accidents dans une enquête plus large portant sur les véhicules Tesla heurtant des véhicules d'urgence stationnés le long des autoroutes. La NHTSA enquête également sur plus de 750 plaintes selon lesquelles les véhicules Tesla peuvent freiner sans raison. Michael Brooks, directeur par intérim de l'organisation à but non lucratif Center for Auto Safety, a appelé la NHTSA à rappeler l'Autopilot de Tesla, car il ne reconnaît pas les motocyclistes, les véhicules d'urgence ou les piétons. Il s'agit d'une accusation soutenue par plusieurs critiques.

« Il est assez clair pour moi, et cela devrait l'être pour beaucoup de propriétaires de Tesla maintenant, que ce système ne fonctionne pas correctement et qu'il ne répondra pas aux attentes, et qu'il met des personnes innocentes en danger sur les routes », a déclaré Brooks. Selon des rapports de la NHTSA, depuis 2016, l'agence a envoyé des équipes sur 39 accidents dans lesquels des systèmes de conduite automatisée sont soupçonnés d'être utilisés. Parmi ceux-ci, 30 impliquaient des Teslas, y compris des accidents qui ont causé 19 décès. Brooks a critiqué l'agence pour avoir continué à enquêter, mais sans prendre des mesures.

« Qu'est-ce qu'ils font pendant que ces accidents continuent de se produire ? Les conducteurs sont leurrés en pensant que cela les protège, eux et les autres sur les routes, mais cela ne fonctionne tout simplement pas », a-t-il déclaré. Tesla a abandonné l'utilisation du radar de ses systèmes et s'appuie uniquement sur des caméras et la mémoire des ordinateurs. Mais Brooks et d'autres défenseurs de la sécurité affirment que l'absence de radar nuit à la vision dans l'obscurité. Tesla a déclaré que l'Autopilot et le FSD (Full Self-Driving) ne peuvent pas se conduire eux-mêmes, et que les conducteurs doivent être prêts à intervenir à tout moment.

La NHTSA enquête également pour déterminer si la suppression du capteur radar est à l'origine d'un problème de "freinage fantôme" qui a donné lieu à des centaines de plaintes auprès du régulateur. L'absence de radar prospectif et le recours exclusif aux caméras pourraient bien être un facteur déterminant dans ces deux accidents mortels, même si des systèmes de régulation adaptative de la vitesse moins controversés ont montré qu'ils avaient des problèmes avec les motos si elles roulaient près du bord d'une voie. La seconde enquête ouverte au début du mois par l'agence porte sur des allégations de publicités mensongères visant Tesla.

En effet, l'Autopilot est un système avancé d'aide à la conduite qui est censé améliorer la sécurité et la commodité au volant. Cependant, le nom "Autopilot" a toujours induit les conducteurs de Tesla en erreur, les amenant à être distraits au volant, voire à s'endormir parfois. Même lorsque l'Autopilot est complété par le FSD, c'est loin d'être un système parfait, car il ne parvient pas à réussir plusieurs manœuvres simples qu'un conducteur humain peut réaliser facilement. Par exemple, au début du mois, un youtubeur a montré comment l'Autopilot de Tesla fait foncer son Model 3 sur un tramway venant en sens inverse.

Le département californien des véhicules à moteur a accusé Tesla de publicité mensongère dans sa promotion de l'Autopilot et de sa version améliorée, le FSD. Selon les médias locaux, les accusations ont été formulées dans des plaintes déposées auprès du bureau des audiences administratives de l'État le 28 juillet. Dans une interview en juin, l'administrateur de la NHTSA, Steven Cliff, a déclaré que l'agence intensifiait ses efforts pour comprendre les risques posés par les véhicules automatisés afin de pouvoir décider des réglementations nécessaires pour protéger les conducteurs, les passagers et les piétons.

Il n'existe pas de réglementation fédérale couvrant directement les véhicules autonomes ou ceux dotés de systèmes d'aide à la conduite partiellement automatisés tels que le système Autopilot. Cependant, l'agence affirme que cette technologie est très prometteuse pour réduire les accidents de la route. Elle a également ordonné à tous les constructeurs automobiles et aux entreprises technologiques dotés de systèmes de conduite automatisée de signaler tous les accidents. L'agence a publié un premier lot de données en juin, montrant que près de 400 accidents ont été signalés sur une période de 10 mois, dont 273 avec des Teslas.

Sur 367 accidents signalés entre juillet 2021 et le 15 mai 2022, les véhicules Tesla représentaient les trois quarts de tous les accidents impliquant un système d'aide à la conduite. La nouvelle fournit encore plus de données sapant les affirmations selon lesquelles l'Autopilot est un système sécurisé. Malgré le nom du système, Tesla a été forcé par les autorités de rappeler aux conducteurs d'être vigilants sur la route et de maintenir leurs mains sur le volant. Le PDG de Tesla, Elon Musk, affirme que l'Autopilot rend la conduite plus sûre et permet d'éviter les accidents. Cependant, les rapports accablants sur l'Autopilot tendent à démontrer le contraire.

La NHTSA a toutefois mis en garde contre les comparaisons, affirmant que la télématique de Tesla lui permet de recueillir des données en temps réel, et beaucoup plus rapidement que les autres entreprises. Le mois dernier, le tribunal de district de Munich I a condamné Tesla à rembourser à un client la majeure partie du prix d'achat de 112 000 euros pour un SUV Model X. Dans le cadre du jugement, le tribunal s'est basé sur un rapport, qui n'a pas encore été rendu public, selon lequel le système d'assistance ne reconnaît pas de manière fiable les obstacles - comme le balisage d'un chantier de construction.

L'argument des avocats de Tesla, selon lequel Autopilot n'était pas destiné au trafic urbain, n'a pas été retenu par le tribunal. « Une fois de plus, cela montre que Tesla ne tient pas ses promesses en matière d'Autopilot », a déclaré l'avocat du plaignant Christoph Lindner. Dans un jugement rendu en juillet 2020, un tribunal de Munich a interdit à Tesla Allemagne de répéter des « déclarations trompeuses » concernant les capacités de sa technologie Autopilot. Selon le jugement, Tesla ne pourra plus inclure les expressions « plein potentiel de conduite autonome » ou « pilote automatique inclus » dans ses supports publicitaires allemands.

Chaque année, la NHTSA ouvre en moyenne plus de 100 enquêtes spéciales sur des accidents pour étudier les nouvelles technologies et d'autres problèmes de sécurité potentiels dans l'industrie automobile. En février dernier, Tesla a dû rappeler 53 822 véhicules équipés de l'Autopilot, qui peut permettre à certains modèles d'effectuer un "rolling stop" (arrêt roulant) et de ne pas s'arrêter complètement à certaines intersections, ce qui pose un risque pour la sécurité. La NHTSA a déclaré que le rappel concerne certains véhicules Model S et Model X 2016-2022, Model 3 2017-2022 et Model Y 2020-2022. Elle a invité Tesla à désactiver cette fonction.

À terme, Musk affirme que les véhicules Tesla se conduiront tout seuls, permettant ainsi la création d'une flotte de robotaxis autonomes qui augmenteront les bénéfices de Tesla. En 2019, Musk s'était engagé à faire fonctionner les robotaxis en 2020. Cependant, l'entreprise ne parvient toujours pas à convaincre avec l'Autopilot.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des accidents impliquant l'Autopilot de Tesla ?
Que pensez-vous du système d'aide à la conduite de l'entreprise ? Est-il fiable ?
Pensez-vous que les autorités devraient interdire à Tesla de commercialiser l'Autopilot ?

Voir aussi

L'Autopilot de Tesla fait pratiquement foncer un Model 3 sur un tramway venant en sens inverse, l'option « Full Self-Driving » était activée

Un véhicule Tesla avec l'Autopilot activé percute une moto sur l'autoroute et tue le conducteur, l'accident remet à nouveau en cause la fiabilité du système d'aide à la conduite de Tesla

Des véhicules Teslas exécutant Autopilot étaient impliqués dans 273 accidents signalés depuis l'année dernière, selon les données de la National Highway Traffic Safety

Tesla rappelle près de 54 000 véhicules susceptibles de ne pas respecter les panneaux d'arrêt, les Model S et Model X 2016-2022, Model 3 2017-2022 et Model Y 2020-2022 sont concernés

Le tribunal de Munich ordonne à Tesla de rembourser un client suite à ses problèmes avec Autopilot, après avoir constaté des lacunes en matière de sécurité dans la technologie du constructeur auto

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
9  0 
Avatar de Doatyn
Membre habitué https://www.developpez.com
Le 22/08/2022 à 17:07
C'est de la folie de mettre de tels systèmes défaillants sur la voie publique, presque criminel.
Quand je vois la sécurité qui est exigé pour des transports autonomes en site propre, tel que des métros ou des téléphériques, ... Tesla n'aurais jamais la moindre autorisation.
10  2 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/08/2022 à 11:24
La vraie question intéressante à mon sens est la suivante:

Est-ce que les USA appliquent une loi "Musk"?

Alors qu'un simple café-restaurant américain peut se voir condamner à des millions de dollar d'amende pour un client qui se serait brûlé la langue en buvant un café servi trop chaud, Tesla qui est déjà responsable de plusieurs dizaines de morts avec son pseudo auto-pilote n'est jamais inquiété.

Et devinez quoi? Pas une seule condamnation, pas un seul juge pour prononcer une interdiction de poursuivre des essais sur route qui ne sont d'ailleurs plus des essais puisque réalisés dans la circulation normale par des clients lambda.
10  2 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 17/10/2023 à 23:40
Citation Envoyé par Ryu2000 Voir le message
Ben justement...

Pilote automatique

Autopilot ça ne veut pas dire que ça se conduit tout seul.
Tu mets la définition de "autopilot", mais pourquoi pas la définition de "Full Self-Driving"?
Non, parce qu'il parle de ça aussi. Littéralement "Conduite autonome complète/totale"...

Tesla aurait appelé ça "Self-driving", encore, on aurait pu chipoter, et faire comme tous les constructeurs et parler de niveau 1, 2, 3, 4, 5. Mais là, c'est du foutage de gueule.
Je ré-itère: cet ingénieur est soit un menteur, soit quelqu'un qui devrait ouvrir un dictionnaire.
8  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 18/10/2023 à 22:34
Citation Envoyé par Ryu2000 Voir le message
Ça ne parle pas que de Full Self-Driving ça parle aussi d'Autopilot !
Et autopilot ça ne veut pas dire que ça se conduit tout seul.
C'est un dialogue de sourds

Citation Envoyé par Ryu2000 Voir le message
Pour Full Self-Driving je ne sais pas.
Bon après Tesla aurait du choisir des expressions plus précise pour que les gens comprennent que la voiture ne se conduit pas toute seule.
Quand une entreprise te vend son accès bêta sous le nom de Full Self-Driving, je pense que c'est fait exprès.
7  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
6  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/07/2023 à 23:21
Je ne suis pas un fan de Musk, mais là franchement, il y a de quoi se marrer.

La totalité, je dis bien la totalité des fabricants de voiture falsifient la consommation réelle de leur véhicules!

Les acteurs du secteur automobile se sont mis d'accord pour établir un test de roulement pour établir la consommation moyenne au 100 km qui ne correspond en rien à l'usage normal d'une voiture... Le test a été établi pour s'assurer que la consommation au 100 km soit très inférieure à la réalité.

Tout le monde en a d'ailleurs fait la constatation: Vous achetez un voiture écolo qui indique une consommation de 4,5 litres au 100km? Quand vous vérifiez votre consommation, il s'avère que vous frôlez les 10 litres/100km. Facile ensuite pour votre concessionnaire de vous dire "Mais monsieur, madame, vous avez un usage de votre véhicule qui ne correspond pas à un usage moyen, vous faites trop de trajets en ville ou roulez trop vite sur autoroute".

Idem pour l'autonomie des véhicules électriques, l'autonomie annoncée ne correspond jamais à la réalité "Mais monsieur, madame, vous faites trop de dénivelés... Vous roulez de manière trop sportive, blablabla..."

Et je ne parle pas de la période hivernale, un jour de grand froid et l'autonomie officiellement annoncée est divisée par 2 et puis et puis... Très vite, vous êtes confronté à l'usure de vos batteries dont la capacité de charge baisse de mois en mois...
9  3 
Avatar de Eric80
Membre éclairé https://www.developpez.com
Le 18/08/2022 à 23:45
et pendant ce temps, Mercedes a obtenu le niveau 3 pour son Drive Pilot en Allemagne, dispo sur ses classes S et EQS:
https://journalauto.com/constructeur...e-de-niveau-3/
le niveau 3 n est toutefois validé QUE sur les autoroutes et QUE < 60 km/h, et exclu en cas de pluie, donc que ds les bouchons en fait.

il est évident que le AutoPilot/FSD de Tesla est un logiciel beta depuis des années: il est surtout scandaleux que Tesla fasse son marketing dessus alors qu il n a jamais obtenu + que le niveau 2.
5  0