IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Après une mise à jour du "Full Self-Driving", une Tesla détecte un piéton en train de traverser et choisit de ne pas ralentir
Contrairement à ce que le système faisait dans une version précédente

Le , par Stéphane le calme

122PARTAGES

11  0 
Tesla a publié une nouvelle version de son controversé logiciel «Full Self-Driving Beta» le mois dernier. Parmi les mises à jour de la version 11.4, il y a de nouveaux algorithmes qui déterminent le comportement de la voiture vis-à-vis des piétons. Une vidéo publiée sur Twitter le week-end dernier montre que même si le système Tesla peut détecter les piétons qui traversent la route, une Tesla peut choisir de ne pas s’arrêter ou ralentir comme elle le faisait avant.

La vidéo a été postée par le compte Whole Mars Catalog, un compte pro-Tesla très populaire avec plus de 300 000 abonnés. Le tweet, qui a été vu 1,7 million de fois, comportait un clip vidéo de sept secondes avec le texte suivant :

« L’une des choses les plus optimistes / excitantes que j’ai vues sur Tesla Full Self-Driving Beta 11.4.1. Il a détecté le piéton, mais au lieu de freiner brusquement, il a simplement continué comme un humain le ferait en sachant qu’il y avait assez de temps pour le faire ».

La personne qui a posté la vidéo a ensuite précisé qu’elle avait été filmée à San Francisco et que quiconque n’était pas d’accord avec ce comportement de conduite devait être ignorant de la vie urbaine :

Citation Envoyé par Whole Mars Catalogue
Elle a commencé à ralentir un peu au cas où elle déciderait qu'elle devait freiner, mais a estimé qu'elle pouvait continuer.

Beaucoup de gens qui ne vivent pas dans les villes ne comprennent pas cela. Dans des endroits comme San Francisco, les piétons s'engagent sur le passage pour piétons avant que vous [le chauffeur] n'ayez complètement traversé plutôt que d'attendre. L'ancien comportement est qu'elle [la Tesla] s'arrêterait au passage pour piétons. Ce qui est mauvais, continuer d'avancer est plus indiqué.

Auparavant, lorsqu'un piéton entrait dans le passage pour piétons, FSD Beta freinait au milieu du passage pour piétons. Le piéton devait alors marcher de manière dangereuse derrière la voiture et risquait de la percuter s'il marchait / faisait du vélo rapidement. C'est en fait moins sûr, pas plus sûr.

Beaucoup de gens qui ne vivent pas dans les villes commentent : "Eh bien, elle aurait dû s'arrêter !"

Elle s'arrête pour que les piétons empruntent le passage pour piétons, le cas échéant, mais il est également important de savoir quand vous pouvez dégager le passage pour piétons avec succès. C'est souvent la bonne chose à faire.
Dans les commentaires cependant, les personnes assurant vivre dans les grandes villes n'étaient pas unanimes quant à ce comportement de la voiture qui n'a pas besoin de s'arrêter pour que les piétons empruntent le passage qui leur est réservé.

La plupart des systèmes de conduite partiellement automatisés comme le Super Cruise de General Motors ou le BlueCruise de Ford sont géorestreints à un domaine opérationnel contrôlé (généralement des autoroutes à accès limité et à voies séparées). Tesla a adopté une approche différente et permet aux utilisateurs de tester son logiciel FSD beta sur les rues en surface.

Tout le monde n’est pas aussi à l’aise avec le fait que les conducteurs de Tesla testent des logiciels inachevés autour d’autres usagers de la route. En février, la National Highway Traffic Safety Administration (NHTSA) a demandé à Tesla de rappeler près de 363 000 véhicules équipés du logiciel.

L'agence avait quatre plaintes principales, notamment que « le système FSD Beta peut permettre au véhicule d'agir de manière dangereuse autour des intersections, comme traverser directement une intersection alors qu'il se trouve dans une voie réservée aux virages, entrer dans une intersection où est placé un panneau d'arrêt sans que le véhicule ne s'arrête ou s'engager dans une intersection sans la prudence nécessaire lorsque le feu de signalisation est jaune fixe ». Le feu jaune fixe annonçant un feu rouge, impose l'arrêt, sauf si cet arrêt comporte des risques, griller un feu orange ou un passer au rouge peut donc être tolérer dans une certaine mesure.


La mise à jour de la version 11.4 en avril était censée améliorer le comportement des voitures, mais il y a maintenant plus de preuves que la bêta FSD conduit toujours Tesla à enfreindre le code de la route. La section 7 du manuel du conducteur de Californie, qui traite des lois et des règles de la route, stipule que les piétons sont considérés comme des usagers de la route vulnérables et que « les piétons ont la priorité sur les passages pour piétons marqués ou non. S'il y a une limite avant le passage pour piétons, arrêtez-vous à la limite et laissez les piétons traverser la rue. »

Ce n'est pas non plus la première fois que le logiciel de Tesla est programmé pour enfreindre le code de la route.

Des accidents impliquant le « Full Self-Driving » de Tesla

Le « Full Self-Driving » de Tesla n’est pas sans risques. Les véhicules Tesla utilisant son système d'assistance à la conduite Autopilot ont été impliqués dans 273 accidents connus de juillet 2021 à juin de l'année dernière, selon les données de la NHTSA. Tesla représentait près de 70 % des 329 accidents dans lesquels des systèmes avancés d'assistance à la conduite étaient impliqués, ainsi qu'une majorité de décès et de blessures graves qui leur sont associés, selon les données. Depuis 2016, l'agence fédérale a enquêté sur un total de 35 accidents dans lesquels les systèmes "Full Self-Driving" ou "Autopilot" de Tesla étaient probablement utilisés. Ensemble, ces accidents ont conduit à la mort de 19 personnes.

Pour ceux qui se demandent quelle est la différence entre Autopilot et Full Self-Driving, voici quelques points clefs :
  • Tesla Autopilot est un système d'aide à la conduite conçu pour la conduite sur autoroute. Full Self-Driving (FSD) est le système (supposé) entièrement autonome de Tesla conçu pour la conduite urbaine ;
  • Autopilot est un système d'assistance à la conduite. Il utilise des capteurs et des caméras pour aider le conducteur à rester dans sa voie, à changer automatiquement de voie, à tourner dans les virages et à s'arrêter en toute sécurité en cas d'urgence. Autopilot peut également garer votre véhicule ou vous l'amener depuis une place de stationnement ;
  • FSD fonctionne sur toutes les routes dans toutes les conditions (sur le papier), de jour comme de nuit. Il ne nécessite aucune intervention de votre part pour se conduire, mais il a besoin que vous soyez prêt à tout ce qui pourrait arriver, car il vous alertera si quelque chose se produit de manière inattendue afin que vous puissiez prendre le contrôle de votre véhicule si nécessaire ;
  • FSD est une fonctionnalité plus récente qui vous permet de conduire votre voiture en mode mains libres. Il comprend la direction automatique améliorée, où vous pouvez définir une destination et la voiture vous y conduira automatiquement ;
  • Autopilot est livré avec chaque Tesla et peut être utilisé directement. FSD est une mise à niveau de 15 000 $ disponible uniquement aux États-Unis et n'est actuellement pas légale.

Ces derniers mois, une vague de rapports est apparue dans laquelle les conducteurs de Tesla se sont plaints d'un « freinage fantôme » soudain lorsque le véhicule est à grande vitesse, provoquant presque des accidents dans de nombreux cas. Plus de 100 plaintes de ce type ont été déposées auprès de la NHTSA en trois mois, selon le Washington Post.

Le quotidien explique :

Tesla freine de manière inattendue en réponse à des dangers imaginaires – tels que la circulation venant en sens inverse sur des routes à deux voies – ce qui a incité leurs propriétaires terrifiés à déposer une vague de plaintes auprès de la National Highway Traffic Safety Administration au cours des trois derniers mois, selon une analyse du Washington Post des données fédérales sur la sécurité automobile.

Le phénomène, connu sous le nom de « freinage fantôme », est un problème persistant pour les véhicules Tesla.

Le constructeur automobile a été contraint de rappeler une version de son logiciel Full Self-Driving en octobre en raison de faux positifs de son système de freinage d'urgence automatique qui, selon lui, ont été déclenchés par la mise à jour logicielle. Les plaintes ont grimpé en flèche après le rappel et restent élevées, signalant l'inquiétude continue des propriétaires.

Les rapports de propriétaires de freinage fantôme à la NHTSA sont passés à 107 plaintes au cours des trois derniers mois, contre seulement 34 au cours des 22 mois précédents.
Source : manuel du conducteur de Californie

Et vous ?

Pensez-vous que le « Full Self-Driving » de Tesla soit une technologie sûre et fiable ? Un danger pour les piétons ?
Quelles sont les responsabilités des conducteurs de Tesla qui utilisent le « Full Self-Driving » sur les routes publiques ?
Quelles sont les mesures que les régulateurs devraient prendre pour encadrer le développement et le déploiement du « Full Self-Driving » de Tesla ?
Quels sont les avantages et les inconvénients du « Full Self-Driving » de Tesla par rapport aux autres systèmes de conduite partiellement automatisés ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
8  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 26/05/2023 à 9:20
Citation Envoyé par Olivier Famien Voir le message
Que pensez-vous des informations divulguées par Handelsblatt ? Fake ? Ou authentique ?
Si les clients que se sont plaints confirment ça semble authentique.
Et les révélations semblent aussi cohérentes avec l'attitude habituelle de Tesla, demander la suppression des éléments non désirés puis passer à la menace, sortir la menace légale rapidement (là s'en protéger).
Citation Envoyé par Olivier Famien Voir le message
Selon vous, les plaintes contre l’autopilote des véhicules Tesla sont-elles fondées ?
Combien de personnes sont mortes ou ont été blessé à cause du FSD? Tesla n'a jamais assumé et continue de le diffuser.
Comment ne pas les considérer comme fondées dans cette situation?
Citation Envoyé par Olivier Famien Voir le message
Avez-vous déjà été témoin du comportement dangereux de l’autopilote de Tesla ? Comment avez-vous géré la situation ?
Semaine dernière le chauffeur de la Tesla derrière moi a voulu faire la démonstration de l'efficacité du freinage automatique de sa voiture à son passager, il a accéléré dans une rue bien au dela de la vitesse légale (et encore plus aus dessus de celle raisonnable, on roulait au pas), puis a levé les mains, je confirmes : ça freine vite et bien. En attendant je me suis mis dans le bas coté au cas où.

Je trouves bien qu'on mette en place des systèmes qui peuvent rattraper les erreurs de chauffeurs,
je suis inquiets des chauffeurs qui se permettent donc d'être moins attentifs (le système ne devenant plus de sécurité mais de soutien),
j'ai vraiment peur des chauffeurs qui mettent les autres en danger pour montrer la performance de ces systèmes.
5  1 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 17/05/2023 à 14:45
heureusement une fois que l'on a passé le permis notre cerveau ne se met pas à jour sans arrêt OTA.

Leur full machin truc devient un gag digne du premier avril
4  2 
Avatar de Darkzinus
Expert éminent sénior https://www.developpez.com
Le 17/05/2023 à 15:16
L'étape prochaine c'est l'ionisation du piéton avant l'impact (beaucoup plus propre) et ça plaira aux technophiles.
2  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 17/05/2023 à 15:30
Sur un autre fil de discussion où l'on reproche la mise à disposition au grand public de chatgpt en version beta, je peux comparer avec le full self driving de Tesla également en version beta depuis au moins 5 ans maintenant et responsable de dizaines d'accidents. Au moins chatgpt ne tue personne, lui.
2  1 
Avatar de AndyPl
Candidat au Club https://www.developpez.com
Le 22/05/2023 à 9:47
Citation Envoyé par totozor Voir le message
Ce n'est pas récent c'était déjà le cas quand j'ai passé mon permis, il y a 20 ans maintenant.
Et je penses même que c'est le cas en dehors des passages piétons.

Ceci dit ça soulève aussi une question importante : une IA de conduite doit elle plus s'adapter au code de la route ou éviter les accidents et donc s'adapter à certaines habitudes locales?
Ma position aujourd'hui est relativement simple : avançons pas à pas, on est à 1000 lieues de l'IA de conduite en toute situation donc commençons par les environements faciles (pas la ville) et aux risques maitrisés (pas les zones à vitesse rapide en période fluide).
Bonjour. Je suis tout à fait d'accord. Nous avons nous-mêmes parfois du mal à nous adapter à la route, sans parler de l'IA. Aux carrefours sans feux de signalisation, j'attends toujours que l'automobiliste s'arrête, et laissez-moi vous dire, dans une petite ville, que 20 % d'entre eux s'arrêtent seulement, les autres conduisent.
1  0 
Avatar de Derf59
Membre actif https://www.developpez.com
Le 17/05/2023 à 14:53
"Ne pas céder le passage à un piéton est une infraction entraînant la perte de 6 points sur le permis de conduire ainsi qu'une amende de 135 euros.
Il est précisé dans l'article R415-11 du code de la route qu'il est obligatoire de céder le passage à un piéton régulièrement engagé sur la chaussée."

L'état Français est très content pour ses finances du nouvel algorithme
2  2 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 17/05/2023 à 16:21
Auparavant, lorsqu'un piéton entrait dans le passage pour piétons, FSD Beta freinait au milieu du passage pour piétons. Le piéton devait alors marcher de manière dangereuse derrière la voiture et risquait de la percuter s'il marchait / faisait du vélo rapidement. C'est en fait moins sûr, pas plus sûr.
Comment peut on marcher de manière dangereuse derrière une voiture qui avance?
Comment peut on percuter une voiture qui avance en marchant derrière?

J'ai par exemple le reflexe de toujours traverser derrière une voiture parce que c'est la situation la moins dangereuse.
Si je passe devant une voiture, elle peut accélérer et me renverser ou me mettre un coup de pression.
Si je passe derrière, le chauffeur doit enclencher la marche arrière puis accélérer ce qui prend un certains temps et me laisse largement le temps de réagir.

Je ne comprends pas à quel moment ne pas ralentir est une manoeuvre de sécurité, au pire en ralentissant le choc se fait à plus faible vitesse et est donc moins risqué.

Donc je suis bien d'accord avec le chauffeur, en tant qu'étranger je ne peux pas comprendre quand ne pas ralentir est plus sécurisant que de freiner. Et pourtant je suis j'ai vécu principalement en ville.
2  2 
Avatar de ALT
Membre émérite https://www.developpez.com
Le 17/05/2023 à 16:30
Il est précisé dans l'article R415-11 du code de la route qu'il est obligatoire de céder le passage à un piéton régulièrement engagé sur la chaussée.
L'important est le « régulièrement ». Autrement dit : En suivant la règle.
Donc, c'est dans un passage pour piétons, en respectant les éventuels feux de circulation. Sinon, ce n'est pas régulier.
Ce qui ne suppose pas qu'en dehors de ces cas on a le droit de rouler sur le piéton. Mais ça dit simplement que sa priorité est liée à un cadre précis.
1  1 
Avatar de PatteDePoule
Membre éclairé https://www.developpez.com
Le 17/05/2023 à 16:40
Présentement au Québec depuis la dernière mise à jour il y a énormément d'accident aux feu rouges. Les Tesla ne détectent plus la voiture arrêté en avant d'eux, et quand la lumière repassent au vert elles foncent dedans.
1  1