IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un véhicule Tesla avec l'Autopilot activé percute une moto sur l'autoroute et tue le conducteur,
L'accident remet à nouveau en cause la fiabilité du système d'aide à la conduite de Tesla

Le , par Bill Fassinou

453PARTAGES

12  0 
L'Autopilot, le système avancé d'aide à la conduite, de Tesla est de nouveau impliqué dans un accident mortel. Une voiture Tesla avec l'Autopilot activé a mortellement percuté un motocycliste par l'arrière à Draper, dans l'Utah, aux États-Unis. Le conducteur de la Tesla a déclaré aux enquêteurs qu'il n'avait pas vu le motocycliste, ce qui suggère qu'il était distrait et avait placé toute sa confiance dans l'Autopilot. Les incidents mortels impliquant des véhicules Tesla s'accumulent et les autorités américaines enquêtent sur ces événements afin de déterminer le niveau d'implication de l'Autopilot, mais également si le logiciel est aussi sécurisé que Tesla le prétend.

Les accidents mortels impliquant l'Autopilot de Tesla se sont multipliés au cours de ces dernières années. Le dernier en date a eu lieu à Draper où un conducteur de Tesla a percuté par l'arrière un motocycliste dimanche matin, tuant le motocycliste sur le coup. La patrouille routière de l'Utah a indiqué que la fonction Autopilot de la voiture était activée au moment de la collision. Cet accident intervient quelques jours après que La National Highway Traffic Safety Administration (NHTSA) a ouvert une enquête spéciale sur un accident mortel, dans lequel une Tesla Model Y de 2021 a tué un motocycliste en Californie au début du mois.

En effet, l'Autopilot est un système avancé d'aide à la conduite qui est censé améliorer la sécurité et la commodité au volant. Cependant, le nom "Autopilot" a toujours induit les conducteurs de Tesla en erreur, les amenant à être distraits au volant, voire à s'endormir parfois. Même lorsque l'Autopilot est complété par l'option "Full Self-Driving" (FSD), c'est loin d'être un système parfait, car il ne parvient pas à réussir plusieurs manœuvres simples qu'un conducteur humain peut réaliser facilement. Par exemple, au début du mois, un youtubeur a montré comment l'Autopilot de Tesla fait foncer son Model 3 sur un tramway venant en sens inverse.



Se diriger vers le train qui arrive n'est qu'un des nombreux cas graves signalés par le youtubeur. Dans une vidéo montrant des tests qu'il a réalisés, on peut voir les erreurs graves commises par l'Autopilot. Voici une liste non exhaustive :

  • la Tesla a pratiquement foncé sur une barrière (qui indiquait que la route est bloquée, 07:06) ;
  • la Tesla a choisi la mauvaise voie et s'embrouille visiblement (confère l'affichage sur le tableau de bord, 11:06) ;
  • la Tesla a essayé de griller un feu rouge, pendant que les voitures circulaient (12:12) ;
  • la Tesla s'est arrêtée au milieu d'une intersection sans raison (13:09) ;
  • la Tesla a choisi la mauvaise voie pour un virage à gauche (13:25) ;
  • la Tesla a activé et désactivé constamment le clignotant gauche sans raison (dans un endroit où il n'était même pas permis de tourner à gauche, 15:02) ;
  • la Tesla n'a pas réussi à tourner correctement à gauche et a presque heurté des piétons (17:13).


Le mois dernier, la NHTSA a publié un rapport selon lequel des voitures Tesla exécutant l'Autopilot étaient impliquées dans 273 accidents signalés l'année dernière. Sur 367 accidents signalés entre juillet 2021 et le 15 mai 2022, les véhicules Tesla représentaient les trois quarts de tous les accidents impliquant un système d'aide à la conduite (ADAS). La nouvelle fournit encore plus de données sapant les affirmations selon lesquelles l'Autopilot est un système sécurisé. Malgré le nom de son système d'aide à la conduite, Tesla a été forcé par les autorités de rappeler aux conducteurs d'être vigilants sur la route et de maintenir leurs mains sur le volant.

« Même si votre véhicule est équipé de fonctions d'aide à la conduite ou de pilotage automatique, tous les véhicules exigent que le conducteur soit toujours attentif et regarde la route », a déclaré Michael Gordon de la patrouille routière de l'Utah, dimanche. L'enquête ouverte par la NHTSA au début du mois est la 38e enquête spéciale sur un accident impliquant un véhicule Tesla depuis 2016. Parmi ces accidents, 18 ont été mortels. Selon les autorités de la NHTSA, la dernière enquête, comme la plupart des autres, cherche à déterminer si Autopilot, le système avancé d'aide à la conduite de Tesla était utilisé ou non au moment de l'accident.

L'agence a refusé de commenter cette affaire, car elle est toujours en cours. Mais les médias locaux ont rapporté que le 7 juillet, un motocycliste de 48 ans a été tué après une collision sur la Riverside Freeway à Riverside, en Californie. Il roulait sur la voie réservée aux véhicules multioccupants et a été approché par l'arrière par la Tesla. La NHTSA a également ouvert une enquête spéciale sur un autre accident mortel de Tesla en Floride, qui a tué un conducteur de la Tesla de 66 ans et un passager de 67 ans. En mai, l'agence a commencé à enquêter sur un accident impliquant une Tesla Model S de 2022 qui a tué trois personnes.

Le mois dernier, la NHTSA a élargi son enquête sur le système Autopilot de Tesla après une série de collisions par l'arrière à travers les États-Unis. Plusieurs véhicules Tesla ont foncé dans des véhicules d'urgence stationnés. Depuis le début de l'enquête en août dernier, la NHTSA a identifié six autres accidents de ce type. L'incident le plus récent s'est produit en janvier. Le constructeur automobile américain avait installé une mise à jour logicielle sur ses véhicules en septembre, qui devrait permettre à l'Autopilot de reconnaître les véhicules d'urgence même dans des conditions d'éclairage difficiles.

L'enquête spéciale porte désormais sur environ 830 000 véhicules des quatre séries de modèles actuels des années 2014 à 2022. Dans le cadre de l'enquête, il s'agit aussi de savoir comment l'Autopilot exacerbe les erreurs humaines. Selon Tesla, l'Autopilot n'est qu'un système d'assistance, le conducteur doit donc garder les mains sur le volant à tout moment. Il faut également être prêt à reprendre le contrôle du véhicule à tout moment. Le PDG de Tesla, Elon Musk, affirme que l'Autopilot rend la conduite plus sûre et permet d'éviter les accidents. Cependant, les rapports accablants sur l'Autopilot tendent à démontrer le contraire.

Chaque année, la NHTSA ouvre en moyenne plus de 100 enquêtes spéciales sur des accidents pour étudier les nouvelles technologies et d'autres problèmes de sécurité potentiels dans l'industrie automobile. En février dernier, Tesla a dû rappeler 53 822 véhicules équipés de l'Autopilot, qui peut permettre à certains modèles d'effectuer un "rolling stop" (arrêt roulant) et de ne pas s'arrêter complètement à certaines intersections, ce qui pose un risque pour la sécurité. La NHTSA a déclaré que le rappel concerne certains véhicules Model S et Model X 2016-2022, Model 3 2017-2022 et Model Y 2020-2022. Elle a invité Tesla à désactiver cette fonction.

Il y a quelques jours, le tribunal de district de Munich I a condamné Tesla à rembourser à un client la majeure partie du prix d'achat de 112 000 euros pour un SUV Model X. Dans le cadre du jugement, le tribunal s'est basé sur un rapport, qui n'a pas encore été rendu public, selon lequel le système d'assistance ne reconnaît pas de manière fiable les obstacles - comme le rétrécissement d'un chantier de construction. De plus, la voiture freine encore et encore inutilement. Cela pourrait signifier un « risque massif » dans les centres-villes en particulier et entraîner des collisions par l'arrière.

L'argument des avocats de Tesla, selon lequel Autopilot n'était pas destiné au trafic urbain, n'a pas été retenu par le tribunal. « Une fois de plus, cela montre que Tesla ne tient pas ses promesses en matière d'Autopilot », a déclaré l'avocat du plaignant Christoph Lindner. Dans un jugement rendu en juillet 2020, un tribunal de Munich a interdit à Tesla Allemagne de répéter des « déclarations trompeuses » concernant les capacités de sa technologie Autopilot. Selon le jugement, Tesla ne pourra plus inclure les expressions « plein potentiel de conduite autonome » ou « pilote automatique inclus » dans ses supports publicitaires allemands.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de l'Autopilot de Tesla ?
Selon vous, le logiciel est-il fiable ? Améliore-t-il réellement la sécurité sur la route ?
Selon vous, qu'est-ce qui explique la grande confiance des conducteurs de Tesla dans l'Autopilot ?

Voir aussi

L'Autopilot de Tesla fait pratiquement foncer un Model 3 sur un tramway venant en sens inverse, l'option « Full Self-Driving » était activée

Des véhicules Teslas exécutant Autopilot étaient impliqués dans 273 accidents signalés depuis l'année dernière, selon les données de la National Highway Traffic Safety

Tesla rappelle près de 54 000 véhicules susceptibles de ne pas respecter les panneaux d'arrêt, les Model S et Model X 2016-2022, Model 3 2017-2022 et Model Y 2020-2022 sont concernés

Le tribunal de Munich ordonne à Tesla de rembourser un client suite à ses problèmes avec Autopilot, après avoir constaté des lacunes en matière de sécurité dans la technologie du constructeur auto

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Doatyn
Membre habitué https://www.developpez.com
Le 22/08/2022 à 17:07
C'est de la folie de mettre de tels systèmes défaillants sur la voie publique, presque criminel.
Quand je vois la sécurité qui est exigé pour des transports autonomes en site propre, tel que des métros ou des téléphériques, ... Tesla n'aurais jamais la moindre autorisation.
10  2 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/08/2022 à 11:24
La vraie question intéressante à mon sens est la suivante:

Est-ce que les USA appliquent une loi "Musk"?

Alors qu'un simple café-restaurant américain peut se voir condamner à des millions de dollar d'amende pour un client qui se serait brûlé la langue en buvant un café servi trop chaud, Tesla qui est déjà responsable de plusieurs dizaines de morts avec son pseudo auto-pilote n'est jamais inquiété.

Et devinez quoi? Pas une seule condamnation, pas un seul juge pour prononcer une interdiction de poursuivre des essais sur route qui ne sont d'ailleurs plus des essais puisque réalisés dans la circulation normale par des clients lambda.
10  2 
Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
8  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 26/07/2022 à 7:27
Citation Envoyé par Bill Fassinou Voir le message
Quel est votre avis sur le sujet ?
Que pensez-vous de l'Autopilot de Tesla ?
Je ne comprends pas pourquoi un système qui ne serait pas capable de passer l'examen du permis de conduire peut être testé sur les routes par autre chose que des professionnels.
Selon vous, le logiciel est-il fiable ? Améliore-t-il réellement la sécurité sur la route ?
Un logiciel qui a tué deux motards en 1 mois?
Selon vous, qu'est-ce qui explique la grande confiance des conducteurs de Tesla dans l'Autopilot ?
Elon Musk est un gourou que certains suivent aveuglément.
Probablement l'attrait de la technologie et l'envie d'être le premier à avoir utiliser ce système fantasmé par la SF depuis des décennies.
Et peut être aussi la charge mentale dont le système libère : Certains soir je serais bien heureux que quelqu'un conduise ma voiture à ma place.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 30/07/2022 à 8:18
Tesla produit des véhicules électriques. Ils semblent agréables et en général appréciés de leurs propriétaires. Personnellement j'ai toujours eu deux réticences, la première venant de l'origine du courant consommé, l'autre motivée par la présence d'une immense télé en manière de tableau de bord. Quand je conduis, je regarde la route et le trafic.

Pourquoi s'obstiner a promettre des fonctions qui ne marchent manifestement pas, et aux dépens de vies humaines ?
Il y a quelques années Audi démontrait un système de conduite quasi-autonome sur autoroute en zone de trafic dense. C'était impressionnant et convaincant. Pourtant à ma connaissance ce système n'est toujours pas proposé à la vente et on n'en parle plus beaucoup. Pourquoi ? Peut-être sont-ils plus lucides que les gens de Tesla, peut-être que n'ayant pas de gourou pour les abriter des conséquences de leurs erreurs les ingénieurs font leur boulot ?

Lorsque je constate le comportement de mon correcteur orthographique, je me dis qu'il y a encore du chemin pour qu'un automate de prédiction basé sur des statistiques atteignent un niveau approchant l'intelligence. Alors pour conduire une voiture en milieu ouvert, avec plein de choses vivantes autour, à moi la peur !
6  1 
Avatar de Eric80
Membre confirmé https://www.developpez.com
Le 18/08/2022 à 23:45
et pendant ce temps, Mercedes a obtenu le niveau 3 pour son Drive Pilot en Allemagne, dispo sur ses classes S et EQS:
https://journalauto.com/constructeur...e-de-niveau-3/
le niveau 3 n est toutefois validé QUE sur les autoroutes et QUE < 60 km/h, et exclu en cas de pluie, donc que ds les bouchons en fait.

il est évident que le AutoPilot/FSD de Tesla est un logiciel beta depuis des années: il est surtout scandaleux que Tesla fasse son marketing dessus alors qu il n a jamais obtenu + que le niveau 2.
5  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 28/11/2022 à 11:21
Citation Envoyé par Nancy Rey Voir le message
Que pensez-vous du FSD ? Les utilisateurs devraient-ils être autorisés à tester les versions bêta du FSD sur les routes ? Le logiciel devrait-il être interdit ?
Comment appréciez-vous les progrès technologiques en matière de véhicules autonomes ? Quelles sont les entreprises qui se démarquent selon vous ?
Je pense qu'il est regrettable que le plus gros obstacle à la mise en circulation d'un projet automobile peu abouti est un projet privé. Et qu'il faille passer par ce genre de lobbying pour éviter des morts.
Ils ont aussi une communication efficace, ils attaquent par la corde la plus sensible : la sécurité des enfants. Mais je suis même surpris que Tesla ne soit pas allé plus loin sur le sujet. Le premier enfant qui meure à cause du système pourrait provoquer la fin pure et simple du FSD, d'autant plus quand on voit le manque de délicatesse de communication de Musk.
On analyse trop les clés de réussite pas assez les clés d'échec.

Je pense que le FSD ne devrait être mis sur les routes qu'avec des pilotes professionnels ayant connaissances complètes de ce qu'ils font. Cette phase de test ne devrait pas être réalisé par des amateurs, d'autant plus des clients qui ont payé ce gadget, et le considèrent comme tel.
5  0 
Avatar de Darkzinus
Expert éminent sénior https://www.developpez.com
Le 05/01/2023 à 15:46
Ce que je trouve dingue dans le modèle économique de Tesla c'est que les gens achètent une voiture et un abonnement pour être bêta testeurs.
5  0