IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Autopilot de Tesla : les États-Unis enquêtent sur la fonctionnalité après que 11 Tesla se soient écrasées contre des véhicules d'urgence

Le , par Stéphane le calme

878PARTAGES

9  0 
Les régulateurs du département américain de la sécurité routière, la National Highway Traffic Safety Administration (NHTSA), ouvrent une enquête sur le système Autopilot de Tesla après que des voitures utilisant cette fonction se soient écrasées contre des véhicules de secours.

La National Highway Transportation Safety Administration a annoncé l'ouverture d'une enquête et elle englobe 765 000 Teslas vendues aux États-Unis, une fraction importante de toutes les ventes de l'entreprise dans le pays. L'agence indique que l'enquête couvrira 11 accidents depuis 2018 ; les accidents ont fait 17 blessés et un mort :

« Depuis janvier 2018, l'Office of Defects Investigation (ODI) a identifié onze accidents dans lesquels des modèles Tesla de diverses configurations ont rencontré des scènes de premiers intervenants et ont par la suite heurté un ou plusieurs véhicules impliqués dans ces scènes. Les incidents sont répertoriés à la fin de ce résumé par date, ville et état. »

« La plupart des incidents ont eu lieu après la tombée de la nuit et les scènes d'accident rencontrées comprenaient des mesures de contrôle de la scène telles que des feux de détresse, des panneaux illuminés ou encore des cônes de signalisation. Il a été confirmé que les véhicules en cause impliqués étaient en mode Autopilot ou Traffic Aware Cruise Control pendant l'approche des accidents. »

« Autopilot est un système avancé d'assistance à la conduite (ADAS) dans lequel le véhicule maintient sa vitesse et son centrage sur la voie lorsqu'il est engagé dans son domaine de conception opérationnelle (ODD). Avec l'ADAS actif, le conducteur est toujours responsable de la détection et de la réponse aux objets et événements (OEDR), par exemple, l'identification des obstacles sur la chaussée ou des manœuvres défavorables des véhicules voisins pendant la tâche de conduite dynamique (DDT). »

« L'ODI a ouvert une évaluation préliminaire du système SAE de niveau 2 ADAS (pilote automatique) pour l'année modèle 2014-2021, modèles Y, X, S et 3. L'enquête évaluera les technologies et les méthodes utilisées pour surveiller, assister et appliquer le l'engagement du conducteur dans la tâche de conduite dynamique pendant le fonctionnement du pilote automatique. L'enquête évaluera en outre l'OEDR des véhicules lorsqu'ils sont engagés en mode pilote automatique, et l'ODD dans lequel le mode pilote automatique est fonctionnel. L'enquête comprendra également l'examen des circonstances contributives des accidents confirmés énumérés ci-dessous et d'autres accidents similaires. »

Liste des incidents :
  • 07/10/2021 San Diego CA
  • 19/05/2021 Miami FL
  • 17/03/2021 Lansing MI
  • 27/02/2021 Comté de Montgomery TX
  • 26/08/2020 Charlotte NC
  • 30/07/2020 Comté de Cochise AZ
  • 22/01/2020 West Bridgewater MA
  • 29/12/2019 Cloverdale EN
  • 10/12/2019 Norwalk CT
  • 29/05/2018 Laguna Beach CA
  • 22/01/2018 Culver City CA »



La NHTSA signale que tous les accidents en question ont eu lieu de nuit et que des outils de signalisation avaient été mis en place par les équipes pour délimiter les zones d’interventions, comme des feux de détresse, des panneaux illuminés ou encore des cônes de signalisation. Elle précise également que les fonctionnalités comme Autopilot et Traffic Aware Cruise Control étaient activées.

La NHTSA a précisé que l’enquête devra montrer si, oui ou non, « la technologie et les méthodes utilisées pour assister et contrôler la conduite et faire en sorte que le conducteur reste attentif » fonctionnent.

L'enquête est un autre signe que la NHTSA adopte une position plus ferme sur la sécurité des véhicules automatisés que sous les administrations précédentes. Auparavant, l'agence était réticente à réglementer la nouvelle technologie de peur d'entraver l'adoption des systèmes potentiellement salvateurs.

L'enquête porte sur l'ensemble de la gamme de modèles actuels de Tesla, les modèles Y, X, S et 3 des années modèles 2014 à 2021.

Le National Transportation Safety Board, qui a également enquêté sur certains des accidents de Tesla datant de 2016, a recommandé que la NHTSA et Tesla limitent l'utilisation d'Autopilot aux zones où il peut fonctionner en toute sécurité. Le NTSB a également recommandé que la NHTSA exige que Tesla dispose d'un meilleur système pour s'assurer que les conducteurs font attention. La NHTSA n'a donné suite à aucune des recommandations. Le NTSB n'a aucun pouvoir d'exécution et ne peut que faire des recommandations à d'autres agences fédérales.

La NHTSA s'intéresse à l'attention requise du conducteur une fois Autopilot activé

Tesla a fait l'objet d'un examen minutieux quant à la façon dont Autopilot vérifie l'attention des conducteurs lorsque le système est activé. Dans une évaluation des systèmes avancés d'aide à la conduite (ADAS), Autopilot a reçu des notes moyennes dans le programme européen d'évaluation des nouvelles voitures. Le système a été entravé par sa relative incapacité à garder les conducteurs engagés dans la route.

Comme beaucoup d'autres systèmes ADAS, Autopilot exige qu'un conducteur garde les mains sur le volant, bien que de tels systèmes puissent être facilement trompés en plaçant un poids sur l'un des rayons du volant. Une enquête récente de Car and Driver a révélé qu'il fallait entre 25 et 40 secondes pour que le véhicule émette un avertissement lorsque les conducteurs retirent les mains du volant, selon le modèle. Si les conducteurs ne répondaient pas, la voiture roulerait encore 30 secondes avant de commencer à freiner. À grande vitesse sur autoroute, cela pourrait entraîner le fonctionnement du système sans implication du conducteur sur 1,6 kilomètre.

À la suite d'un accident en janvier 2018 en Californie, le National Transportation Safety Board a critiqué la façon dont Tesla tente de garder les conducteurs engagés. Lors de cet incident, qui fait également partie de l'enquête de la NHTSA, une Model S 2014 a bloqué un camion de pompiers dans la voie réservée aux véhicules à occupation multiple (VMO) de l'Interstate 405 à Culver City. Le conducteur de la Tesla avait activé Autopilot et suivait un autre véhicule dans la voie réservée aux VOM lorsque le véhicule de tête a changé de voie pour éviter le camion de pompiers garé. Autopilot n'a ni dévié ni freiné, et le conducteur, qui mangeait un bagel, n'a pas repris le contrôle du véhicule. La Tesla a heurté le camion de pompiers à 50 km/h, selon le rapport d'accident.

Le National Transportation Safety Board a déclaré que l'inattention du conducteur était la cause probable de l'accident « en raison de l'inattention et de la dépendance excessive au système avancé d'aide à la conduite du véhicule; la conception d'Autopilot Tesla, qui a permis au conducteur de se désengager de la tâche de conduite*; et l'utilisation du système par le conducteur d'une manière incompatible avec les instructions et les avertissements du fabricant ».

Des modifications apportées à Autopilot

Tesla a récemment commencé à modifier le fonctionnement d'Autopilot, abandonnant le capteur radar des modèles 3 et Y au profit de caméras supplémentaires (les modèles S et X conserveront le radar dans un avenir prévisible). Comme le montrent les accidents qui font partie de l'enquête NHTSA, les données radar ne garantissent pas que les systèmes ADAS détecteront correctement les obstacles sur la chaussée, bien que généralement, des capteurs supplémentaires puissent aider les systèmes à obtenir une image complète de la scène. Étant donné que les données radar et lidar sont essentiellement une série de mesures, elles aident à déterminer à quelle distance un véhicule se trouve d'un objet. Bien que les systèmes ADAS puissent obtenir les mêmes informations à partir d'images de caméra, ils nécessitent des calculs plus compliqués qu'avec un radar ou un lidar. Il n'est pas clair si l'enquête de la NHTSA inclut les nouveaux modèles de Tesla à caméra uniquement.

On ne sait pas non plus si l'enquête affectera la fonction dite d'autoconduite complète de Tesla, dont des versions bêta ont été publiées pour un groupe de conducteurs. Les vidéos du système en action montrent qu'il s'agit d'un travail en cours et qu'il nécessite l'attention du conducteur à tout moment.

Source : NHTSA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Karakoa
Membre à l'essai https://www.developpez.com
Le 18/08/2021 à 11:49
Citation Envoyé par Anselme45 Voir le message
Les fonctionnaires sont vraiment tous les mêmes, quelque soit le pays!
En voilà un de commentaire intelligent et pertinent...
11  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 14/03/2024 à 9:19
Citation Envoyé par Uther Voir le message
C'est fou qu'on parle systématiquement de Tesla pour lancer les trolls alors que ce genre de triste accident est déjà arrivé avec bien d'autres marques de voitures. Mais il faut croire que Tesla fait plus de clics.
On peut aussi dire qu'il s'agit du retour de bâton des campagnes d'Elon Musk sur ses voitures.

On nous a noyés a une époque sur les Tesla, l'autopilot, la démonstration de la solidité des vitres etc.
12  1 
Avatar de totozor
Membre expert https://www.developpez.com
Le 25/08/2023 à 8:19
Bis repetita

Je ne suis même plus étonné, et presque plus révolté de lire ça.
Supprimons les traces pour que ça n'existe plus.
La méthode est redoutable et paye à long terme.
7  0 
Avatar de grunk
Modérateur https://www.developpez.com
Le 12/06/2023 à 11:44
L'ingénieur Apple décédé lorsque son Tesla Model X s'est écrasé contre la barrière en béton s'est plaint avant sa mort que le système Autopilot du SUV fonctionnait mal dans la zone où l'accident s'est produit.
Et a quel moment tu continues à faire une confiance aveugle à quelque chose qui te semble défaillant

J'ai que l'autopilote de base sur ma Tesla et franchement c'est a peine mieux que ce que font les autres avec des systèmes plus traditionnel. Le maintien dans les lignes est le meilleurs que j'ai pu essayer. Le régulateur adaptatif est, comme tous les autres ,inconfortable dès qu'il y'a du traffic. Et comme tous les autres systèmes on se prend régulièrement des ralentissement, voir des freinage intempestif car la voiture n'a pas été capable de comprendre qu'il n'y avait pas de danger.
Les 2 cas les plus typiques :
Sur autoroute , dépassement d'un véhicule, si le dépassement n'est pas suffisamment anticipé (plus de 2 lignes continue) il y'a de forte chance qu'elle décide de ralentir malgré la présence du clignotant
Toujours sur autoroute , si vous vous faites doubler et que l'utilisateur se rabat un peu proche c'est pas rare de prendre un coup de frein alors que c'est inutile puisque la voiture s'éloigne.

Dans les deux cas ca créer des comportement imprévisible pour les autre usager et donc du danger.

J'avais le même genre de pb sur mes autres véhicule , c'est donc pas lié directement a Tesla. La différence étant que certains possesseur de Tesla font une confiance aveugle au système qu'on leur propose et "oublie" de conduire
4  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 12/06/2023 à 12:26
Musk a défendu à plusieurs reprises sa décision de pousser les technologies d'assistance à la conduite aux propriétaires de Tesla, arguant que les avantages l'emportent sur les inconvénients.

Peut-être qu'il serait temps de remettre l'usage de la technologie à plat lorsque les inconvénients sont des morts d'êtres humains évitables par un être humain.

Mettre une technologie en Beta à la disponibilité de tous, c'est criminel lorsqu'il s'agit de sécurité routière. Et de tous les accidents évités par l'Autopilot et le Full Self Driving, combien auraient pu être évités par un être humain ? Pour moi, la technologie est loin d'être au point et nécessite plus de tests hors du grand public pour envisager les cas de figure les plus courants afin de sécuriser au maximum et surtout bien mieux que ce qui est vendu actuellement.
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 12/06/2023 à 17:49
A la lecture de ce score déplorable, une seule question me vient à l'esprit:

Comment se fait-il qu'aux USA, ce pays où le fabriquant de distributeur de boisson chaude doit imprimer sur ses gobelets en carton en toutes lettres "Attention, une boisson chaude peut occasionner des brulures en cas d'inattention de l'utilisateur... On décline toute responsabilité, blabla, blabla" pour s'éviter un procès qui va le condamner à des millions de dollars de dommages et intérêts, les aventures technologiques de Musk peuvent tuer des centaines de gens sans subir la moindre intervention d'un tribunal?

Est-ce que Musk inonde les familles des victimes de millions pour les faire taire et éviter ainsi le dépôt de plaintes ou est-ce qu'il y a une loi "Musk" aux USA qui lui évite tout risque de condamnation?
4  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 15/03/2024 à 17:42
Citation Envoyé par Uther Voir le message
C'est fou qu'on parle systématiquement de Tesla pour lancer les trolls alors que ce genre de triste accident est déjà arrivé avec bien d'autres marques de voitures. Mais il faut croire que Tesla fait plus de clics.
On est bien d'accord, c'est du piège à clics, mais je suis content de me faire piéger parce que ça m'intéresse de savoir comment éviter les accidents mortels.

Par ex, on note que sur les teslas
- l'ouverture des portes est électrique (et le dispositif d'ouverture d'urgence mécanique est caché quasi impossible à trouver dans la panique).
- les vitres sont électriques et incassables même avec un marteau.
- il n'y a pas de comme sur les Renault etc une bague à tirer ou un bouton à presser et un levier à glissière pour débloquer la marche arrière, mais un petit levier sous le volant avec deux mouvements : avant, arrière, afin de se déplacer logiciellement dans une liste d'états. Il est donc facile de faire une fausse manip de marche arrière accidentellement (sur une voiture à forte accélération ça peut ne pas pardonner, en plus ça cale pas).

ça fait beaucoup d'éléments pour conclure que même si tu es jeune et fort, si tu dois sortir en urgence d'une tesla ou voiture avec autant de défauts en urgence avec une panne électrique (incendie, eau), c'est la fin.

Je travaille avec des machines complexes qui peuvent créer divers accidents graves et qui bien sûr sont buguées. Au moins il y a un gros bouton rouge "panique" coupe circuit (et ça sert...). Parce que c'est pas dans la panique, quand toutes les sécurités logicielles sont en train de planter qu'on va trouver une solution plus intelligente que taper sur un gros bouton.

PS : On pourrait penser que c'est de la parano etc. Il se trouve que pas plus tard que la semaine dernière, je garais une électrique en pente. Une défaillance électronique est survenue pendant la marche avant avec perte de toutes les commandes et de l'assistance, passage automatique en roue libre, arrêt moteur. Le temps de se ressaisir et de piler plus fort, la voiture avait reculé de 20 cm dans une butée. Heureusement que c'était pas le bord d'un lac hein. Ce n'est que quelques heures après la panne que la voiture a décidé d'afficher un message sibyllin style technical intervention now avant de s'éteindre.
4  0 
Avatar de ALT
Membre émérite https://www.developpez.com
Le 20/08/2021 à 10:14
Citation Envoyé par Karakoa
En voilà un de commentaire intelligent et pertinent...
En effet.

11 accidents avec 760 000 véhicules (une partie des véhicules [Tesla] vendus, donc en circulation), ce n'est pas énorme.

Si l'administration devait enquêter à chaque accident... Certes, ça améliorerait la sécurité routière, mais à condition d'être réalisée avec la même rigueur que pour les accidents d'avion.
On en est (très) loin !

Maintenant, on peut dire aussi que c'est onze accidents de trop. J'espère que Tesla n'a pas attendu l'enquête pour corriger ces dysfonctionnements. C'est d'ailleurs son intérêt, commercialement.
Et plus les automatismes seront poussés, plus ce sera complexe.
On n'a donc pas fini de gloser sur le énième accident provoqué par un véhicule automatique, alors qu'il y en a moins (proportionnellement) que d'accidents provoqués par les humains.
5  2 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 13/06/2023 à 17:14
Citation Envoyé par smarties Voir le message
En dehors du souci majeur de sécurité du système il y a que des avantages :
- trafic plus fluide
Pas besoin de connecter les voitures autonome pour ça, avoir des IA qui prévoient plus tôt, décéllerent plus régulièrement et accéllere plus régulièrement suffit.
Citation Envoyé par smarties Voir le message
- réduction des distances de sécurité possible donc capacité du trafic augmentée... ça fonctionnerait aussi pour le ferroviaire
Pas souhaitable du tout, si un seul hacker fait croire à un coup de frein quelque part, c'est carrambolage assuré. Trop risqué

Citation Envoyé par smarties Voir le message
- prédiction plus fiable des comportements
Pas besoin de connecter les voitures pour ça.

Citation Envoyé par smarties Voir le message
La voiture est un moyen de se déplacer, conduire n'est pas toujours désiré (mais obligé pour se rendre au travail ou ailleurs quand cela est trop contraignant via d'autres moyens) (il y en a qui aiment conduire aussi mais je ne suis pas certain que le faire dans les bouchons soit plaisant)).
Je suis d'accord avec toi, je vais clarifier ma position : Je suis pour les voitures autonomes, mais contres les voitures connectées. Et ça dans le cadre d'un process de développement logiciel aux qualités équivalente à ce qui existe dans l'avionique. Ce qui n'est pas le cas de Tesla qui est en permanence en mode "startup" avec un moto "Move fast, break things" qui prend un sens bien différent dans l'automobile!

Citation Envoyé par smarties Voir le message
De toute façon, on voit que dans la Sillicon Valley (et probablement dans d'autres pays) ils aménagent quelques carrefours pour communiquer avec des voitures "autonomes" afin de développer la technologie.
Pareil, pas souhaitable selon moi. Un hackeur pour faire croire à toutes les voitures d'un carrefour qu'elles ont le feu vert et encore une belle pile de bagnole en perspective.

à combien de minute gagnée par an évalues-tu la vie de quelqu'un? D'autant plus si ces minutes seront moins "perdues" qu'auparavant : 100% des voyageurs pourront travailler dans la voiture, se reposer, se distraire....

Il faut absolument que les voitures AUTONOMES soient AUTONOMES et se repose sur leur propres capteurs ET leurs propres capacité d'analyse d'info de leurs capteurs.
3  0 
Avatar de Uther
Expert éminent sénior https://www.developpez.com
Le 14/03/2024 à 8:47
C'est fou qu'on parle systématiquement de Tesla pour lancer les trolls alors que ce genre de triste accident est déjà arrivé avec bien d'autres marques de voitures. Mais il faut croire que Tesla fait plus de clics.
9  6