IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La mise à jour du logiciel du pilote automatique « Full Self Driving » de Tesla est potentiellement dangereuse
Et dirige le véhicule par moment de façon extrêmement risquée

Le , par Stéphane le calme

702PARTAGES

12  0 
Une version bêta de la mise à jour du pilote automatique « Full Self Driving » de Tesla a commencé à être déployée auprès de certains utilisateurs. Des vidéos du système en action montrent qu'il y a encore du chemin à parcourir et fait valoir que, pour le moment, il est potentiellement dangereux de se reposer sur le programme bêta « Full Self Driving » d'Autopilot.

En septembre, lors de l'assemblée annuelle des actionnaires de Tesla Motors et de l'événement Battery Day 2020, le PDG Elon Musk a annoncé que le constructeur d'automobiles électriques s'apprêtait à publier une version bêta privée de la « version entièrement autonome » de son logiciel d'aide à la conduite Autopilot dans les mois à venir.

« C'est un peu difficile pour les gens de juger des progrès d'Autopilot », a déclaré Musk à une foule d'actionnaires présents à l'événement, chacun respectant les mesures barrières en restant dans sa propre Tesla. « Je conduis une version alpha de pointe d'Autopilot, donc j'ai en quelque sorte un aperçu de ce qui se passe ».

Musk a poursuivi en expliquant comment les ingénieurs de Tesla ont récemment dû réviser des parties majeures du pilote automatique, y compris en repensant la façon dont le système voit le monde.

« Nous avons dû effectuer une réécriture fondamentale de l'ensemble de la pile logicielle Autopilot… Nous étiquetons maintenant la vidéo 3D, ce qui est très différent de notre procédé précédent qui consistait à étiqueter des images 2D uniques », a expliqué Musk, faisant référence à la façon dont le logiciel Autopilot comprend des objets qu'il voit avec ses huit caméras et comment il doit réagir. « Nous étiquetons maintenant des segments vidéo entiers issus simultanément de toutes les caméras. La sophistication du réseau neuronal de la voiture et la logique globale de la voiture sont considérablement améliorées ».

C'est depuis octobre que certains conducteurs ont pu bénéficier de la version bêta fermée du « Full Self Driving » d'Autopilot. En décembre, environ 200 personnes avaient obtenu l'accès au programme, dont 54 n'étaient pas des employés de Tesla, bien que cela ait probablement changé, puisque le PDG Elon Musk a indiqué que Tesla avait fait participer près de 1000 personnes à la version bêta en janvier. Cependant, Tesla a précisé que ce Full Self Driving ne correspond en réalité qu'à la définition SAE de l'autonomie partielle de niveau 2.

Des vidéos d'une nouvelle mise à jour de la version Bêta ont commencé à circuler sur la toile. Dans une vidéo de 13 minutes publiée sur YouTube par l'utilisateur «AI Addict», nous voyons un Model 3 avec FSD Beta 8.2 tâtonner autour d'Oakland. Il semble totalement confus à tout moment, n'imitant jamais passablement un conducteur humain. Au début de la vidéo, le passager avant remarque la décision correcte de la voiture de dépasser un tas de voitures en double stationnement plutôt que d'attendre derrière elles – mais le moment de louange est écourté lorsque la voiture se gare juste sur la ligne médiane alors qu'elle essaye de prendre le virage à gauche.


En effet, comme tous les systèmes semi-autonomes en vente aujourd'hui, les systèmes « Full Self Driving » et « Autopilot » de Tesla ne sont pas, en fait, entièrement autonomes. Ils nécessitent une surveillance humaine constante et une intervention en une fraction de seconde. Et maintenant que la dernière version bêta du logiciel est disponible, elle semble exiger plus d'attention que jamais.

L'industrie automobile a adopté six niveaux de conduite automatisée, qui dictent le niveau d'assistance qu'un véhicule peut fournir. Ces niveaux d'autonomie des véhicules, de 0 à 5, vont des voitures manuelles ou dotées de fonctions simples telles que le régulateur de vitesse aux véhicules entièrement autonomes qui n'auraient pas besoin de volant ni de pédales de frein et d'accélération. Actuellement, il n'existe pas de voitures produites en série au niveau 3, bien que certains constructeurs automobiles aient testé des véhicules dotés d'une technologie plus sophistiquée de niveau 4, qui implique un véhicule capable de se conduire lui-même, bien qu'il puisse être limité à une certaine zone. L'automatisation de niveau 5, qui permet de garantir un contrôle autonome du véhicule dans pratiquement toutes les situations et de supprimer la nécessité d'un volant, est considérée comme l'objectif ultime des voitures à conduite autonome.


Assez rapidement, la vidéo passe des « erreurs embarrassantes » à « une conduite extrêmement risquée et potentiellement nuisible ». En mode autonome, la Tesla enfreint une variété de règles de la circulation à l'instar d'un changement de voie illégal. Elle tente ensuite de tourner à gauche à côté d'une autre voiture, pour abandonner à mi-chemin de l'intersection et se désengager. Elle prend un autre virage beaucoup trop large, se plaçant dans une voie en sens interdit et nécessitant l'intervention du conducteur.

La vidéo n'est même pas à moitié terminée, mais la litanie d'erreurs se poursuit avec un autre désengagement aléatoire. La Tesla tente de faire un virage à droite à un feu rouge où c'est interdit, obligeant le conducteur à l'en empêcher activement. Elle s'arrête au hasard au milieu de la route, continue tout droit dans une voie réservée aux virages. Le logiciel de la Tesla est perdu par des voitures arrêtées sur la chaussée et à une intersection où il a clairement la priorité.

Personne n'est parvenu à proposer une conduite réellement autonome. C'est un problème difficile qui, selon certains experts, ne sera résolu qu'avec une intelligence artificielle très avancée. Le logiciel de Tesla fait clairement un travail décent en identifiant les voitures, les panneaux d'arrêt, les piétons, les vélos, les feux de signalisation et d'autres obstacles de base.

En général, lorsqu'une technologie est encore en plein développement, la réaction naturelle est de continuer à travailler dessus jusqu'à ce que le chemin soit aplani. Tesla a opté contre cette stratégie ici, choisissant à la place de vendre un logiciel qu'il sait incomplet, facturant une prime substantielle et espérant que ceux qui l'achètent auront une compréhension nuancée et avancée de ses limites. En somme, chaque propriétaire de Tesla qui achète un modèle "Full Self-Driving" sert de superviseur de la sécurité non rémunéré, menant des recherches au nom de Tesla. Peut-être plus accablant, la société n'assume aucune responsabilité pour ses actions et laisse au conducteur le soin de décider quand et où le tester.

Cela conduit à des vidéos comme celle-ci, où les premiers utilisateurs effectuent des tests incontrôlés dans les rues de la ville, les piétons, les cyclistes et les autres conducteurs ignorant qu'ils font partie de l'expérience. Si même l'un de ces pilotes Tesla dérape, les conséquences peuvent être mortelles. Tous ces tests sont effectués sur la voie publique, au profit du constructeur automobile le plus précieux du monde, à un coût pratiquement nul.


Notons qu'au début du mois, Honda Motor a lancé une nouvelle voiture équipée de la première technologie de conduite autonome certifiée de niveau 3 au monde, ouvrant la voie à l'industrie automobile pour redoubler d'efforts pour commercialiser une telle automatisation pour les véhicules de tourisme. Le niveau SAE 3 diffère fondamentalement du niveau 2 en ce qu'il s'agit d'une graduation de l'automatisation partielle (comme dans Autopilot de Tesla) à l'automatisation conditionnelle, ce qui signifie qu'une voiture peut lire son environnement et prendre des décisions en fonction de ce qu'elle voit. Cela permet à une voiture équipée d'un système de niveau 3 comme Honda Sensing Elite d'agir de son propre chef (sans jeu de mots) en fonction de la situation actuelle (parfois avec les mains du conducteur sur le volant, et dans certains cas, si le conducteur ne regarde pas la route). Une telle liberté est accordée dans le cadre de la fonction Traffic Jam Pilot de Honda Sensing Elite, qui donne à la voiture le contrôle de ses propres freins, direction et accélérateur dans ce scénario éponyme. Cela permet à la voiture de maintenir la distance, la vitesse et la position sur la voie. Il fait tout cela sans aucune intervention du conducteur, qui, selon Honda, peut « regarder la télévision / DVD sur l'écran de navigation ou utiliser le système de navigation pour rechercher une adresse de destination ».

Les vidéos de tests nous feront probablement savoir si tout ce qui est annoncé est déjà atteint techniquement et comment se comportent les véhicules en conditions réelles pour des conducteurs lambda.

Et vous ?

Qu'en pensez-vous ? Les conducteurs clients devraient-ils figurer parmi ceux qui testent les mises à jour qui ne sont pas encore bien mises au point ? Dans quelle mesure ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Doatyn
Membre habitué https://www.developpez.com
Le 22/08/2022 à 17:07
C'est de la folie de mettre de tels systèmes défaillants sur la voie publique, presque criminel.
Quand je vois la sécurité qui est exigé pour des transports autonomes en site propre, tel que des métros ou des téléphériques, ... Tesla n'aurais jamais la moindre autorisation.
10  2 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/08/2022 à 11:24
La vraie question intéressante à mon sens est la suivante:

Est-ce que les USA appliquent une loi "Musk"?

Alors qu'un simple café-restaurant américain peut se voir condamner à des millions de dollar d'amende pour un client qui se serait brûlé la langue en buvant un café servi trop chaud, Tesla qui est déjà responsable de plusieurs dizaines de morts avec son pseudo auto-pilote n'est jamais inquiété.

Et devinez quoi? Pas une seule condamnation, pas un seul juge pour prononcer une interdiction de poursuivre des essais sur route qui ne sont d'ailleurs plus des essais puisque réalisés dans la circulation normale par des clients lambda.
10  2 
Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
8  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 26/11/2021 à 12:47
Citation Envoyé par rbolan Voir le message
La meilleure manière de démontrer l’efficacité ou la dangerosité du "Full-Self Driving" de Tesla, c'est de réaliser une étude indépendante pertinente à partir d'un échantillon représentatif qui produira des résultats analysable à partir desquels une discussion pourra être faite.
Pas besoin d'étude, FSD tente - parfois - de conduire du mauvais coté de la route, se dirige - parfois - vers un chantier alors qu'il ne semble pas y avoir de raison particulière.

Je fais du vélo en ville de façon pas toujours très sûre mais, à la surprise de mes amis, j'ai assez peu d'accidents.
Ils pensent que je devrais être pour les voitures intelligentes ou autonomes mais ce n'est clairement pas le cas.
Pourquoi?
Les chauffeurs ont un regard qui me montre une infinités d'informations qui définissent la façon dont je vais réagir:
Est ce qu'il m'a vu?
Va-t-il prendre l'initiative ou attend il que j'exprime mon intention?
Veut il changer de voie? Cherche-t-il une place pour se garer?
A-t-il l'intention de me laisser passer?
A-t-il l'intention de ne surtout pas me laisser passer?
Et je peux retourner les même information:
Je veux passer devant toi, laisses moi la priorité (qui m'est souvent dues)
Avance s'il te plait, je passerais derrière toi
Ne me double pas maintenant
Tu peux me doubler
etc

Avec une voiture autonome (Tesla ou autre) aucune de cette communication n'existe alors je lui prie au moins de respecter le code de la route.
7  1 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 05/07/2022 à 19:21
Citation Envoyé par Stéphane le calme Voir le message
Qu'en pensez-vous ?
Que le titre de sa vidéo Youtube est "marrant": le gars lance un programme en beta (il met même la version dans la vidéo) sur la voie publique, et sa voiture veut traverser devant un tram qui est prioritaire et le gars écrit "train almost hits my tesla"

C'est lui et sa voiture qui font de la m..., pas le train! Et c'est sa voiture qui a failli percuter le train, et pas l'inverse
6  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 26/07/2022 à 7:27
Citation Envoyé par Bill Fassinou Voir le message
Quel est votre avis sur le sujet ?
Que pensez-vous de l'Autopilot de Tesla ?
Je ne comprends pas pourquoi un système qui ne serait pas capable de passer l'examen du permis de conduire peut être testé sur les routes par autre chose que des professionnels.
Selon vous, le logiciel est-il fiable ? Améliore-t-il réellement la sécurité sur la route ?
Un logiciel qui a tué deux motards en 1 mois?
Selon vous, qu'est-ce qui explique la grande confiance des conducteurs de Tesla dans l'Autopilot ?
Elon Musk est un gourou que certains suivent aveuglément.
Probablement l'attrait de la technologie et l'envie d'être le premier à avoir utiliser ce système fantasmé par la SF depuis des décennies.
Et peut être aussi la charge mentale dont le système libère : Certains soir je serais bien heureux que quelqu'un conduise ma voiture à ma place.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 06/07/2022 à 11:47
Citation Envoyé par Stéphane le calme Voir le message
Qu'en pensez-vous ?
Que le FSD conduit plus mal qu'une personne qui apprend à conduire.
Que les clients du FSD sont moins bien payés (ils ne le sont pas) qu'un instructeur d'auto école.
Qu'il n'y a même pas de signe visuel sur la voiture signalant aux autres usagers de la route que ce véhicule risque d'avoir des réactions imprévisibles.

Que cette voiture a fait au moins 3 erreurs qui auraient pu tuer des gens en 30 minutes.
Que le client semble penser que la meilleure décision est d'en faire une vidéo.
Que Tesla ne semble pas penser que c'est un problème.
Que les autorités ne semblent pas penser nécessaire d'interdire à la circulation un système qui fait rentrer un voiture dans un obstacle identifié.

Je fais partie d'une équipe qui teste les nouvelles version d'un logiciel, nous ne couvrons pas toujours tous les scénarios mais comment peut on mettre sur la route un logiciel qui fait qu'une voiture grille un feu rouge dans un carrefour avec de la circulation. Il devrait y avoir deux signaux bloquants et le scénario est très loin d'être une exception.
7  2 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 30/07/2022 à 8:18
Tesla produit des véhicules électriques. Ils semblent agréables et en général appréciés de leurs propriétaires. Personnellement j'ai toujours eu deux réticences, la première venant de l'origine du courant consommé, l'autre motivée par la présence d'une immense télé en manière de tableau de bord. Quand je conduis, je regarde la route et le trafic.

Pourquoi s'obstiner a promettre des fonctions qui ne marchent manifestement pas, et aux dépens de vies humaines ?
Il y a quelques années Audi démontrait un système de conduite quasi-autonome sur autoroute en zone de trafic dense. C'était impressionnant et convaincant. Pourtant à ma connaissance ce système n'est toujours pas proposé à la vente et on n'en parle plus beaucoup. Pourquoi ? Peut-être sont-ils plus lucides que les gens de Tesla, peut-être que n'ayant pas de gourou pour les abriter des conséquences de leurs erreurs les ingénieurs font leur boulot ?

Lorsque je constate le comportement de mon correcteur orthographique, je me dis qu'il y a encore du chemin pour qu'un automate de prédiction basé sur des statistiques atteignent un niveau approchant l'intelligence. Alors pour conduire une voiture en milieu ouvert, avec plein de choses vivantes autour, à moi la peur !
6  1