IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une agence américaine renforce l'enquête sur l'Autopilote de Tesla, une étape avant un éventuel rappel,
Les voitures Tesla seraient impliquées dans 16 accidents avec des véhicules d'urgence

Le , par Bruno

297PARTAGES

4  0 
La National Highway Traffic Safety Administration (NHTSA) a indiqué le 9 juin qu'elle mettait à niveau son enquête sur les véhicules Tesla modèles Y, X, S et 3, ce qui représente environ 830 000 véhicules équipés de son système avancé d'aide à la conduite Autopilot, une étape obligatoire avant de pouvoir demander un rappel. La NHTSA se concentre sur la fonction Autopilot de Tesla, qui est censée aider les conducteurs à naviguer sur les routes grâce à l'intelligence artificielle, qui détecte les autres véhicules. La société demande aux conducteurs de faire attention à la route et de garder les mains sur le volant lorsqu'ils utilisent l'Autopilot, bien que certains conducteurs l'aient utilisé en état d'ébriété ou assis sur la banquette arrière de la voiture.

Les 16 accidents à la base de l'enquête ont eu lieu entre janvier 2018 et janvier 2022 et ont fait 15 blessés et un mort. Dans des documents publiés sur son site web, la NHTSA a déclaré que les données judiciaires indiquent que la majorité des conducteurs avaient les mains sur le volant avant l'impact et se conformaient au système tel qu'il a été conçu pour être utilisé. La NHTSA a déclaré cela alors que l'enquête cherche spécifiquement à savoir si la fonction Autopilot finit par miner « l'efficacité de la supervision du conducteur ».


La NHTSA, dans le cadre d'une autre enquête, se penche sur un ensemble distinct de plaintes qui ont été déposées contre des véhicules Tesla qui freinent soudainement à grande vitesse, autrement appelé « freinage de fantaisie ». L'agence a reçu plus de 750 plaintes relatives à ce problème, bien qu'aucun accident ou blessure n'ait été signalé. L'agence a demandé à Tesla de lui fournir davantage d'informations sur sa connaissance du problème.

La NHTSA a déclaré avoir également « examiné de près 191 accidents » qui n'impliquaient pas de véhicules de premiers secours et a réduit cette liste à 106 accidents après avoir éliminé ceux pour lesquels « les informations disponibles ne permettaient pas une évaluation définitive ». Dans environ la moitié de ces 106 accidents, « il y avait des indications selon lesquelles le conducteur n'était pas suffisamment réactif aux besoins de la tâche de conduite dynamique (DDT), comme en témoigne le fait que les conducteurs n'intervenaient pas lorsque cela était nécessaire ou intervenaient par le biais de commandes inefficaces », a déclaré la NHTSA.

Dans environ un quart des 106 accidents, « le principal facteur d'accident semble lié au fonctionnement du système dans un environnement dans lequel, selon le manuel du propriétaire de Tesla, des limitations du système peuvent exister, ou des conditions peuvent interférer avec le bon fonctionnement des composants de l'Autopilot. » Ces conditions comprennent « le fonctionnement sur des routes autres que les autoroutes à accès limité, ou le fonctionnement alors que l'on se trouve dans des environnements à faible traction ou visibilité, tels que la pluie, la neige ou la glace. »

Tesla indique qu'au quatrième trimestre 2021, « nous avons enregistré un accident pour 4,31 millions de kilomètres parcourus au cours desquels les conducteurs utilisaient la technologie Autopilot. Pour les conducteurs qui n'utilisaient pas la technologie Autopilot, nous avons enregistré un accident pour chaque 1,59 million de kilomètres parcourus. À titre de comparaison, les données les plus récentes de la NHTSA montrent qu'aux États-Unis, il y a un accident automobile tous les 484 000 miles. »

Tous les accidents en question se sont produits sur des autoroutes à accès contrôlé. Lorsque la vidéo de l'incident était disponible, l'approche du lieu de l'intervention des premiers secours aurait été visible par le conducteur pendant une moyenne de 8 secondes avant l'impact. Les données scientifiques supplémentaires disponibles pour onze des collisions indiquent qu'aucun conducteur n'a pris de mesures d'évitement entre 2 et 5 secondes avant l'impact, et les véhicules signalés avaient tous les mains sur le volant avant l'impact.

Cependant, la plupart des conducteurs semblaient se conformer au système d'engagement du conducteur du véhicule concerné, comme en témoigne la détection des mains sur le volant et le fait que neuf des onze véhicules ne présentaient aucune alerte visuelle ni aucun carillon d'engagement du conducteur jusqu'à la dernière minute précédant la collision (quatre d'entre eux ne présentaient aucune alerte visuelle et aucun carillon pendant le dernier cycle d'utilisation du pilote automatique).

Depuis des années, l'agence est aux prises avec Tesla, et plus particulièrement avec le fondateur de l'entreprise, Elon Musk, qui ne mâche pas ses mots. Des fonctionnaires anonymes et d'anciens régulateurs ont décrit au début de l'année, les réactions enflammées que les employés de l'agence ont reçues de Musk, et ont noté que les régulateurs ont dû apprendre à traiter avec une entreprise combative.

Dans une lettre adressée à Musk l'automne dernier, Jennifer Homendy, présidente du National Transportation Safety Board (NTSB), une agence fédérale distincte qui enquête sur les accidents et formule des recommandations à l'intention d'autres agences telles que la NHTSA a exhorté Musk à répondre aux recommandations de sécurité qu'elle a émises pour l'Autopilot en 2017. Le NTSB a recommandé à Tesla de mettre en place des mesures de protection qui ne permettraient pas aux conducteurs d'utiliser les véhicules d'une manière incompatible avec leur conception.


Une récente conversation sur Twitter entre le journaliste Ryan McCaffrey et le PDG de Tesla, Elon Musk, a révélé que Tesla envisageait de rendre les jeux Steam disponibles dans ses voitures. Steam est le plus grand logiciel de distribution numérique de jeux vidéo. Musk a mentionné que l'entreprise s'efforce actuellement d'apporter la vaste bibliothèque de jeux vidéo Steam à ses véhicules plutôt que d'ajouter des titres spécifiques individuellement.

Steam est une plateforme de distribution de contenu en ligne, de gestion des droits et de communication développée par Valve et orientée vers les jeux vidéo, elle permet aux utilisateurs d'acheter des jeux, du contenu pour les jeux, de les mettre à jour automatiquement, de gérer la partie multijoueur des jeux et offre des outils communautaires autour des jeux utilisant Steam.

La National Highway Traffic Safety Administration (NHTSA) veut savoir pourquoi Tesla laisse les propriétaires de ses voitures jouer au solitaire tout en conduisant. La NHTSA a publié une déclaration indiquant qu'elle examinait cette fonctionnalité. « Nous sommes conscients des préoccupations des conducteurs et nous discutons de cette fonctionnalité avec le fabricant », a déclaré la NHTSA.

Les lois locales américaines semblent alignées contre l'idée d'avoir un jeu visiblement en marche pendant qu'une voiture est en mouvement, même si le conducteur n'est pas celui qui joue. Un tour d'horizon de 2014 de la Consumer Electronics Association a révélé que des lois sur la « restriction des écrans vidéo » étaient en vigueur dans 34 États et dans le District de Columbia.

Bien que les lois spécifiques varient, la plupart des réglementations se concentrent sur le fonctionnement des écrans de « télévision » qui sont visibles par le conducteur lorsque la voiture est en mouvement (la loi californienne restreint plus largement l'utilisation de tout moniteur vidéo ou écran vidéo ou tout autre dispositif similaire qui affiche un signal vidéo).

Le NTSB a examiné l'avis préalable de proposition de réglementation (ANPRM) de la National NHTSA intitulé Framework for Automated Driving System Safety. Dans son avis, la NHTSA demande des commentaires sur le développement d'un framework pour la sécurité des systèmes de conduite automatisée (ADS). ADS, tel que défini par SAE International et tel qu'utilisé dans l'ANPRM, fait référence aux niveaux 3, 4 et 5 de l'automatisation de la conduite.

Un ADS est le matériel et le logiciel qui sont, collectivement, capables d'exécuter l'ensemble de la tâche de conduite dynamique sur une base durable, indépendamment du fait qu'il soit limité à un domaine de conception opérationnelle spécifique. Plus précisément, l'agence sollicite des commentaires sur son rôle dans la facilitation de la gestion des risques liés aux ADS par le biais de directives, de règlements ou des deux.

La NHTSA demande également des conseils sur la manière dont elle devrait sélectionner et concevoir la structure d'un framework de sécurité et les mécanismes administratifs appropriés pour améliorer la sécurité, atténuer les risques et permettre le développement et l'introduction de technologies de sécurité innovantes. Cette recommandation figure dans la liste des recommandations de sécurité connexes jointe à cette réponse au NPRM.

Et vous ?

Qu’en pensez-vous ?

Que pensez-vous des commentaires publics de Tesla sur les accidents impliquant ces véhicules ?

Quel résultat prévoyez-vous pour cette nouvelle enquête ?

Voir aussi :

Les conducteurs de Tesla peuvent jouer à des jeux vidéo dans des voitures en mouvement, cette fonctionnalité soulève de nouvelles questions de sécurité liées à la distraction au volant

Le Gouvernement américain demande à Tesla pourquoi les gens peuvent jouer à des jeux vidéo dans des voitures en mouvement, la fonctionnalité fait l'objet d'un examen

Autopilot de Tesla peut être "facilement" trompé pour fonctionner sans personne sur le siège du conducteur, selon Consumer Reports, mais « vous ne devriez pas essayer ça »

Tesla doit désormais signaler les accidents liés à son Autopilot au gouvernement ou s'exposer à des amendes, d'après une décision de l'agence fédérale chargée de la sécurité routière

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Membre expert https://www.developpez.com
Le 25/08/2023 à 8:19
Bis repetita

Je ne suis même plus étonné, et presque plus révolté de lire ça.
Supprimons les traces pour que ça n'existe plus.
La méthode est redoutable et paye à long terme.
7  0 
Avatar de grunk
Modérateur https://www.developpez.com
Le 12/06/2023 à 11:44
L'ingénieur Apple décédé lorsque son Tesla Model X s'est écrasé contre la barrière en béton s'est plaint avant sa mort que le système Autopilot du SUV fonctionnait mal dans la zone où l'accident s'est produit.
Et a quel moment tu continues à faire une confiance aveugle à quelque chose qui te semble défaillant

J'ai que l'autopilote de base sur ma Tesla et franchement c'est a peine mieux que ce que font les autres avec des systèmes plus traditionnel. Le maintien dans les lignes est le meilleurs que j'ai pu essayer. Le régulateur adaptatif est, comme tous les autres ,inconfortable dès qu'il y'a du traffic. Et comme tous les autres systèmes on se prend régulièrement des ralentissement, voir des freinage intempestif car la voiture n'a pas été capable de comprendre qu'il n'y avait pas de danger.
Les 2 cas les plus typiques :
Sur autoroute , dépassement d'un véhicule, si le dépassement n'est pas suffisamment anticipé (plus de 2 lignes continue) il y'a de forte chance qu'elle décide de ralentir malgré la présence du clignotant
Toujours sur autoroute , si vous vous faites doubler et que l'utilisateur se rabat un peu proche c'est pas rare de prendre un coup de frein alors que c'est inutile puisque la voiture s'éloigne.

Dans les deux cas ca créer des comportement imprévisible pour les autre usager et donc du danger.

J'avais le même genre de pb sur mes autres véhicule , c'est donc pas lié directement a Tesla. La différence étant que certains possesseur de Tesla font une confiance aveugle au système qu'on leur propose et "oublie" de conduire
4  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 12/06/2023 à 12:26
Musk a défendu à plusieurs reprises sa décision de pousser les technologies d'assistance à la conduite aux propriétaires de Tesla, arguant que les avantages l'emportent sur les inconvénients.

Peut-être qu'il serait temps de remettre l'usage de la technologie à plat lorsque les inconvénients sont des morts d'êtres humains évitables par un être humain.

Mettre une technologie en Beta à la disponibilité de tous, c'est criminel lorsqu'il s'agit de sécurité routière. Et de tous les accidents évités par l'Autopilot et le Full Self Driving, combien auraient pu être évités par un être humain ? Pour moi, la technologie est loin d'être au point et nécessite plus de tests hors du grand public pour envisager les cas de figure les plus courants afin de sécuriser au maximum et surtout bien mieux que ce qui est vendu actuellement.
4  0 
Avatar de Anselme45
Inactif https://www.developpez.com
Le 12/06/2023 à 17:49
A la lecture de ce score déplorable, une seule question me vient à l'esprit:

Comment se fait-il qu'aux USA, ce pays où le fabriquant de distributeur de boisson chaude doit imprimer sur ses gobelets en carton en toutes lettres "Attention, une boisson chaude peut occasionner des brulures en cas d'inattention de l'utilisateur... On décline toute responsabilité, blabla, blabla" pour s'éviter un procès qui va le condamner à des millions de dollars de dommages et intérêts, les aventures technologiques de Musk peuvent tuer des centaines de gens sans subir la moindre intervention d'un tribunal?

Est-ce que Musk inonde les familles des victimes de millions pour les faire taire et éviter ainsi le dépôt de plaintes ou est-ce qu'il y a une loi "Musk" aux USA qui lui évite tout risque de condamnation?
4  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 13/06/2023 à 17:14
Citation Envoyé par smarties Voir le message
En dehors du souci majeur de sécurité du système il y a que des avantages :
- trafic plus fluide
Pas besoin de connecter les voitures autonome pour ça, avoir des IA qui prévoient plus tôt, décéllerent plus régulièrement et accéllere plus régulièrement suffit.
Citation Envoyé par smarties Voir le message
- réduction des distances de sécurité possible donc capacité du trafic augmentée... ça fonctionnerait aussi pour le ferroviaire
Pas souhaitable du tout, si un seul hacker fait croire à un coup de frein quelque part, c'est carrambolage assuré. Trop risqué

Citation Envoyé par smarties Voir le message
- prédiction plus fiable des comportements
Pas besoin de connecter les voitures pour ça.

Citation Envoyé par smarties Voir le message
La voiture est un moyen de se déplacer, conduire n'est pas toujours désiré (mais obligé pour se rendre au travail ou ailleurs quand cela est trop contraignant via d'autres moyens) (il y en a qui aiment conduire aussi mais je ne suis pas certain que le faire dans les bouchons soit plaisant)).
Je suis d'accord avec toi, je vais clarifier ma position : Je suis pour les voitures autonomes, mais contres les voitures connectées. Et ça dans le cadre d'un process de développement logiciel aux qualités équivalente à ce qui existe dans l'avionique. Ce qui n'est pas le cas de Tesla qui est en permanence en mode "startup" avec un moto "Move fast, break things" qui prend un sens bien différent dans l'automobile!

Citation Envoyé par smarties Voir le message
De toute façon, on voit que dans la Sillicon Valley (et probablement dans d'autres pays) ils aménagent quelques carrefours pour communiquer avec des voitures "autonomes" afin de développer la technologie.
Pareil, pas souhaitable selon moi. Un hackeur pour faire croire à toutes les voitures d'un carrefour qu'elles ont le feu vert et encore une belle pile de bagnole en perspective.

à combien de minute gagnée par an évalues-tu la vie de quelqu'un? D'autant plus si ces minutes seront moins "perdues" qu'auparavant : 100% des voyageurs pourront travailler dans la voiture, se reposer, se distraire....

Il faut absolument que les voitures AUTONOMES soient AUTONOMES et se repose sur leur propres capteurs ET leurs propres capacité d'analyse d'info de leurs capteurs.
3  0 
Avatar de Derf59
Membre actif https://www.developpez.com
Le 12/06/2023 à 12:22
Les chiffres sont toujours très compliqués à interpréter.
Par exemple
Passer de 100 morts à 200 morts c'est 100% d'augmentation.
Maintenant passer de 100 à 200 morts parce qu'en parallèle on est passés de xx Tesla à xx Tesla dans le monde fait que le nombre de morts par voiture Tesla roulant diminue
Ventes de Tesla
2020 : 499 550
2021 : 936 172
2022 : 1 313 851

On reste dans tous les cas sur pour moi une "aide" à la conduite, on devrait juste IMPOSER à Tesla de changer les dénominations (qui trompe les "naifs")
AutoPilot & Full Self-Driving

je sais pas un
Pilot Assistance & Semi Self Driving
2  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 13/06/2023 à 18:10
Citation Envoyé par smarties Voir le message
De toute façon, on voit que dans la Sillicon Valley (et probablement dans d'autres pays) ils aménagent quelques carrefours pour communiquer avec des voitures "autonomes" afin de développer la technologie.
Quand on voit les dégâts que peut occasionner un feu mal réglé, je ne m'appuierai pas trop sur cette technologie. Un exemple tout con, je rentrais du boulot au début des années 90. Les pouvoirs publics avaient enfin décidé d'installer un feu au niveau du croisement de la nationale où la môme Piaf avait eu un accident en 1958. Manque de bol la temporisation entre les feux était mal réglée. Résultat : 2 morts un blessé grave. Et re manque de bol un avocat réputé de la région a été un des témoins du carton.

Conclusion : 2 employés de la voirie ont fait de la prison pour homicide involontaire.
Donc imaginons le moindre hack ou dysfonctionnement et ce sont des morts assurés.
2  0 
Avatar de PomFritz
Membre confirmé https://www.developpez.com
Le 27/08/2023 à 12:15
Citation Envoyé par Bruno Voir le message
Malgré la prétention de Musk que les Model S et les Model X étaient plus sûres que les humains en mode autonome, aucune Tesla n’avait cette capacité. Il a donc été poursuivi en justice. Un juge californien a demandé à interroger Musk sous serment afin de déterminer s'il a fait des déclarations spécifiques sur l'Autopilot de Tesla, mais pour éviter que d'éventuelles frasques du milliardaire ne se retrouvent sur la place publique, ses avocats ont déclaré que la vidéo en question pourrait n'être qu'un deepfake. Une affirmation que le juge a qualifiée de troublante.

Les avocats de Tesla ont déclaré que Musk ne pouvait pas se souvenir des détails de ses affirmations. Selon eux, comme beaucoup de personnalités publiques, il fait l'objet de plusieurs vidéos et enregistrements audio deepfakes qui prétendent le montrer en train de dire et de faire des choses qu'il n'a jamais dites ou faites en réalité. Toutefois, un juge de l'État de Californien a réfuté cet argument et a finalement rendu une ordonnance provisoire exigeant que le PDG de Tesla se présente au tribunal en vue d'une déposition sous serment.
Fallait oser. Musk l'a fait. Ils se foutent quand même de la gueule du monde! Exactement comme dans la série The Capture...
2  0 
Avatar de AndMax
Membre éprouvé https://www.developpez.com
Le 12/06/2023 à 12:53
Citation Envoyé par grunk Voir le message
J'avais le même genre de pb sur mes autres véhicule , c'est donc pas lié directement a Tesla. La différence étant que certains possesseur de Tesla font une confiance aveugle au système qu'on leur propose et "oublie" de conduire
C'est vrai que tous les systèmes ont leurs limites, mais crois que Tesla a un gros problème que les autres n'ont pas: le vocabulaire, ou au moins les noms de leurs produits qui sont extrêmement prétentieux. "Autopilot" et "Full self driving" + un patron qui ment dans ses conférences en disant depuis 2019 que ses voitures sont 100% autonomes, capables de traverser les USA sans intervention humaine, et que le "robotaxi" est dispo. Aucune autre marque ne fait ce genre de déclarations, et le fait d'ajouter "beta" dans le nom, de toute évidence, ça ne suffit pas pour que certains conducteurs restent vigilants.
1  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 12/06/2023 à 17:22
Citation Envoyé par smarties Voir le message
Ca sera toujours le cas à mon avis tant que les véhicules ne sont pas capables de communiqués entre eux. Chaque constructeur automobile fait les choses dans son coin et c'est idiot.
On cherche à reproduire une conduite humaine alors qu'il faudrait mettre en place une conduite interconnectée entre les véhicules.
Et pour les vieux véhicules, mettre un boîtier qui permet de signaler aux véhicules autonomes leurs position et gabarit permettrait de faire de gros progrès.
Non. Une voiture autonome doit être autonome et ne pas être dépendante ni d'un réseau de donnée, ni d'infrastructure serveur ni de véhicules annexes.

Si la voiture devient connectée sur ses fonctions de conduites, alors elle devient la cible de hacking et c'est la fin de la sécurité, pas le début; c'est une vrai fausse bonne idée.
2  1