IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tesla retire la MAJ de son logiciel Full Self-Driving,
Après un freinage soudain qui a effrayé les conducteurs

Le , par Bruno

363PARTAGES

6  0 
Elon Musk et Tesla continuent de donner raison aux critiques qui les accusent de faire du battage médiatique quant aux capacités réelles du Full Self-Driving (FSD). Samedi matin, le PDG de Tesla, a annoncé le report de la mise à jour 10.3 après que le service assurance qualité Tesla a découvert que la nouvelle version était moins performante que les versions précédentes pour les virages à gauche aux feux de signalisation. Puis, dimanche après-midi, Musk a déclaré que Tesla allait « revenir temporairement à la version 10.2 » après avoir reçu des rapports faisant état de freinages soudains, de faux avertissements et d'autres problèmes.

« L'Autopilot est un système avancé d'aide à la conduite qui améliore la sécurité et la commodité au volant. Lorsqu'il est utilisé correctement, l'Autopilot réduit la charge de travail globale en tant que conducteur. Chaque nouveau véhicule Tesla est équipé de 8 caméras externes, de 12 capteurs à ultrasons et d'un ordinateur de bord qui offrent une couche de sécurité supplémentaire pour aider le conducteur dans ses déplacements », indique Tesla.

Tesla a proposé son FSD en tant qu'option sur ses véhicules, les clients payant jusqu'à 10 000 dollars pour avoir la possibilité d'accéder au logiciel dès sa sortie. Mais des années se sont écoulées depuis l'introduction de cette option, et ce n'est que récemment qu'un groupe restreint de propriétaires a pu accéder à une version bêta de la fonction.

Si l'expression Full Self-Driving entendez, « conduite autonome intégrale » laisse peu d'ambiguïté quant à ses aspirations, la technologie accomplit bien moins que ce que les mots impliquent. La FSD serait en fait une version sophistiquée de l'assistance au conducteur de niveau 2, telle que définie par SAE International, arbitre de nombreuses normes automobiles mondiales.


Plusieurs propriétaires ont signalé que leur véhicule avait freiné brusquement lorsque le logiciel FSD de Tesla avait signalé par erreur une collision imminente. Lorsqu'ils fonctionnent correctement, l'alerte de collision avant et le freinage automatique d'urgence fonctionnent de concert pour éviter qu'un véhicule ne percute des objets sur sa trajectoire. Une combinaison de capteurs et de logiciels alerte d'abord les conducteurs d'une collision imminente et, si aucune action n'est entreprise, applique avec force les freins. Les voitures qui reçoivent des alertes fantômes entraînant un freinage d'urgence risquent d'être embouties si elles s'arrêtent rapidement dans un trafic dense ou si elles roulent à grande vitesse. « L'activation du freinage automatique d'urgence au milieu de l'autoroute était terrifiante », a rapporté un conducteur de Tesla.

Si les faux événements de freinage automatique d'urgence et les fausses alertes de collision avant semblent être les problèmes les plus répandus, d'autres conducteurs ont signalé de fausses alertes de sortie de voie et une désactivation des alertes de collision avant et du freinage automatique d'urgence sans avertissement.

Tesla devrait répondre à deux recommandations de sécurité formulées par l’office national de la sécurité des transports il y a plus de quatre ans. L'agence a formulé ces recommandations après avoir enquêté sur l'accident qui a tué Joshua Brown, dont la Model S a heurté de plein fouet une semi-remorque qui se trouvait sur son chemin. L'agence a déterminé que Brown avait utilisé la conduite autonome pendant de longues périodes sans avoir les mains sur le volant et qu'il avait utilisé la fonction sur des routes pour lesquelles elle n'avait pas été conçue. L’office national de la sécurité des transports a demandé à Tesla de limiter le moment et l'endroit où l'Autopilot peut être utilisé et de mettre en place un contrôle plus strict de l'attention du conducteur.

« Nos enquêtes sur les accidents impliquant les véhicules de votre entreprise ont clairement montré que le potentiel d'utilisation abusive nécessite une modification de la conception du système pour assurer la sécurité, a écrit la présidente de l’office national de la sécurité des transports, Jennifer Homendy. Si vous voulez sérieusement mettre la sécurité au premier plan dans la conception des véhicules Tesla, je vous invite à terminer la mise en œuvre des recommandations de sécurité que nous vous avons émises il y a quatre ans. »


L'Autopilot est un système avancé d'aide à la conduite de niveau 2, ce qui signifie que les conducteurs doivent surveiller le véhicule à tout moment. Actuellement, la plupart des constructeurs automobiles, y compris Tesla, testent l'engagement du conducteur en vérifiant périodiquement si un couple est appliqué au volant. D'autres systèmes, comme le SuperCruise de GM et le BlueCruise de Ford, utilisent le suivi des yeux. Cependant, aucun système n'est infaillible.

S'il est une technologie qui suscite beaucoup d'optimisme, c'est bien le logiciel Full Self-Driving de Tesla. Cependant, pour certains analystes, il n'y aurait pas de voitures à « conduite autonome intégrale » en vente aujourd'hui, malgré ce que promet Elon Musk.

Source : Elon Musk

Et vous ?

Quel est votre avis sur la conduite autonome et sur l'Autopilote de Tesla en particulier ?

Que pensez-vous du logiciel Full Self-Driving de Tesla ?

« Pour certains analystes, il n'y aurait pas de voitures à ''conduite autonome intégrale'' en vente aujourd'hui, malgré ce que promet Elon Musk », êtes-vous pour ou contre cet avis ?

Voir aussi :

Les actions Tesla chutent après que son système d'autopilote a été impliqué dans un accident, et l'annonce des batteries de ses véhicules prenant feu

Elon Musk lance la dernière version bêta du Full Self-Driving de Tesla et déclare qu'elle n'est "pas géniale", alors que l'entreprise avait promis d'atteindre une autonomie de niveau 5 cette année

Le pack "Full Self-Driving" de Tesla, d'une valeur de 10 000 dollars, est enfin disponible par abonnement, pour 199 dollars par mois

Le PDG de Waymo rejette le plan "self-driving" de Tesla : « Ce n'est pas comme ça que ça marche », la stratégie actuelle de Tesla ne produirait probablement jamais un système entièrement autonome

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Doatyn
Membre habitué https://www.developpez.com
Le 22/08/2022 à 17:07
C'est de la folie de mettre de tels systèmes défaillants sur la voie publique, presque criminel.
Quand je vois la sécurité qui est exigé pour des transports autonomes en site propre, tel que des métros ou des téléphériques, ... Tesla n'aurais jamais la moindre autorisation.
10  2 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/08/2022 à 11:24
La vraie question intéressante à mon sens est la suivante:

Est-ce que les USA appliquent une loi "Musk"?

Alors qu'un simple café-restaurant américain peut se voir condamner à des millions de dollar d'amende pour un client qui se serait brûlé la langue en buvant un café servi trop chaud, Tesla qui est déjà responsable de plusieurs dizaines de morts avec son pseudo auto-pilote n'est jamais inquiété.

Et devinez quoi? Pas une seule condamnation, pas un seul juge pour prononcer une interdiction de poursuivre des essais sur route qui ne sont d'ailleurs plus des essais puisque réalisés dans la circulation normale par des clients lambda.
10  2 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 26/11/2021 à 12:47
Citation Envoyé par rbolan Voir le message
La meilleure manière de démontrer l’efficacité ou la dangerosité du "Full-Self Driving" de Tesla, c'est de réaliser une étude indépendante pertinente à partir d'un échantillon représentatif qui produira des résultats analysable à partir desquels une discussion pourra être faite.
Pas besoin d'étude, FSD tente - parfois - de conduire du mauvais coté de la route, se dirige - parfois - vers un chantier alors qu'il ne semble pas y avoir de raison particulière.

Je fais du vélo en ville de façon pas toujours très sûre mais, à la surprise de mes amis, j'ai assez peu d'accidents.
Ils pensent que je devrais être pour les voitures intelligentes ou autonomes mais ce n'est clairement pas le cas.
Pourquoi?
Les chauffeurs ont un regard qui me montre une infinités d'informations qui définissent la façon dont je vais réagir:
Est ce qu'il m'a vu?
Va-t-il prendre l'initiative ou attend il que j'exprime mon intention?
Veut il changer de voie? Cherche-t-il une place pour se garer?
A-t-il l'intention de me laisser passer?
A-t-il l'intention de ne surtout pas me laisser passer?
Et je peux retourner les même information:
Je veux passer devant toi, laisses moi la priorité (qui m'est souvent dues)
Avance s'il te plait, je passerais derrière toi
Ne me double pas maintenant
Tu peux me doubler
etc

Avec une voiture autonome (Tesla ou autre) aucune de cette communication n'existe alors je lui prie au moins de respecter le code de la route.
7  1 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 05/07/2022 à 19:21
Citation Envoyé par Stéphane le calme Voir le message

Qu'en pensez-vous ?
Que le titre de sa vidéo Youtube est "marrant": le gars lance un programme en beta (il met même la version dans la vidéo) sur la voie publique, et sa voiture veut traverser devant un tram qui est prioritaire et le gars écrit "train almost hits my tesla"

C'est lui et sa voiture qui font de la m..., pas le train! Et c'est sa voiture qui a failli percuter le train, et pas l'inverse
6  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 26/07/2022 à 7:27
Citation Envoyé par Bill Fassinou Voir le message
Quel est votre avis sur le sujet ?
Que pensez-vous de l'Autopilot de Tesla ?
Je ne comprends pas pourquoi un système qui ne serait pas capable de passer l'examen du permis de conduire peut être testé sur les routes par autre chose que des professionnels.
Selon vous, le logiciel est-il fiable ? Améliore-t-il réellement la sécurité sur la route ?
Un logiciel qui a tué deux motards en 1 mois?
Selon vous, qu'est-ce qui explique la grande confiance des conducteurs de Tesla dans l'Autopilot ?
Elon Musk est un gourou que certains suivent aveuglément.
Probablement l'attrait de la technologie et l'envie d'être le premier à avoir utiliser ce système fantasmé par la SF depuis des décennies.
Et peut être aussi la charge mentale dont le système libère : Certains soir je serais bien heureux que quelqu'un conduise ma voiture à ma place.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 06/07/2022 à 11:47
Citation Envoyé par Stéphane le calme Voir le message
Qu'en pensez-vous ?
Que le FSD conduit plus mal qu'une personne qui apprend à conduire.
Que les clients du FSD sont moins bien payés (ils ne le sont pas) qu'un instructeur d'auto école.
Qu'il n'y a même pas de signe visuel sur la voiture signalant aux autres usagers de la route que ce véhicule risque d'avoir des réactions imprévisibles.

Que cette voiture a fait au moins 3 erreurs qui auraient pu tuer des gens en 30 minutes.
Que le client semble penser que la meilleure décision est d'en faire une vidéo.
Que Tesla ne semble pas penser que c'est un problème.
Que les autorités ne semblent pas penser nécessaire d'interdire à la circulation un système qui fait rentrer un voiture dans un obstacle identifié.

Je fais partie d'une équipe qui teste les nouvelles version d'un logiciel, nous ne couvrons pas toujours tous les scénarios mais comment peut on mettre sur la route un logiciel qui fait qu'une voiture grille un feu rouge dans un carrefour avec de la circulation. Il devrait y avoir deux signaux bloquants et le scénario est très loin d'être une exception.
7  2 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 30/07/2022 à 8:18
Tesla produit des véhicules électriques. Ils semblent agréables et en général appréciés de leurs propriétaires. Personnellement j'ai toujours eu deux réticences, la première venant de l'origine du courant consommé, l'autre motivée par la présence d'une immense télé en manière de tableau de bord. Quand je conduis, je regarde la route et le trafic.

Pourquoi s'obstiner a promettre des fonctions qui ne marchent manifestement pas, et aux dépens de vies humaines ?
Il y a quelques années Audi démontrait un système de conduite quasi-autonome sur autoroute en zone de trafic dense. C'était impressionnant et convaincant. Pourtant à ma connaissance ce système n'est toujours pas proposé à la vente et on n'en parle plus beaucoup. Pourquoi ? Peut-être sont-ils plus lucides que les gens de Tesla, peut-être que n'ayant pas de gourou pour les abriter des conséquences de leurs erreurs les ingénieurs font leur boulot ?

Lorsque je constate le comportement de mon correcteur orthographique, je me dis qu'il y a encore du chemin pour qu'un automate de prédiction basé sur des statistiques atteignent un niveau approchant l'intelligence. Alors pour conduire une voiture en milieu ouvert, avec plein de choses vivantes autour, à moi la peur !
6  1 
Avatar de Eric80
Membre confirmé https://www.developpez.com
Le 18/08/2022 à 23:45
et pendant ce temps, Mercedes a obtenu le niveau 3 pour son Drive Pilot en Allemagne, dispo sur ses classes S et EQS:
https://journalauto.com/constructeur...e-de-niveau-3/
le niveau 3 n est toutefois validé QUE sur les autoroutes et QUE < 60 km/h, et exclu en cas de pluie, donc que ds les bouchons en fait.

il est évident que le AutoPilot/FSD de Tesla est un logiciel beta depuis des années: il est surtout scandaleux que Tesla fasse son marketing dessus alors qu il n a jamais obtenu + que le niveau 2.
5  0