IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La mise à jour du logiciel du pilote automatique « Full Self Driving » de Tesla est potentiellement dangereuse
Et dirige le véhicule par moment de façon extrêmement risquée

Le , par Stéphane le calme

280PARTAGES

12  0 
Une version bêta de la mise à jour du pilote automatique « Full Self Driving » de Tesla a commencé à être déployée auprès de certains utilisateurs. Des vidéos du système en action montrent qu'il y a encore du chemin à parcourir et fait valoir que, pour le moment, il est potentiellement dangereux de se reposer sur le programme bêta « Full Self Driving » d'Autopilot.

En septembre, lors de l'assemblée annuelle des actionnaires de Tesla Motors et de l'événement Battery Day 2020, le PDG Elon Musk a annoncé que le constructeur d'automobiles électriques s'apprêtait à publier une version bêta privée de la « version entièrement autonome » de son logiciel d'aide à la conduite Autopilot dans les mois à venir.

« C'est un peu difficile pour les gens de juger des progrès d'Autopilot », a déclaré Musk à une foule d'actionnaires présents à l'événement, chacun respectant les mesures barrières en restant dans sa propre Tesla. « Je conduis une version alpha de pointe d'Autopilot, donc j'ai en quelque sorte un aperçu de ce qui se passe ».

Musk a poursuivi en expliquant comment les ingénieurs de Tesla ont récemment dû réviser des parties majeures du pilote automatique, y compris en repensant la façon dont le système voit le monde.

« Nous avons dû effectuer une réécriture fondamentale de l'ensemble de la pile logicielle Autopilot… Nous étiquetons maintenant la vidéo 3D, ce qui est très différent de notre procédé précédent qui consistait à étiqueter des images 2D uniques », a expliqué Musk, faisant référence à la façon dont le logiciel Autopilot comprend des objets qu'il voit avec ses huit caméras et comment il doit réagir. « Nous étiquetons maintenant des segments vidéo entiers issus simultanément de toutes les caméras. La sophistication du réseau neuronal de la voiture et la logique globale de la voiture sont considérablement améliorées ».

C'est depuis octobre que certains conducteurs ont pu bénéficier de la version bêta fermée du « Full Self Driving » d'Autopilot. En décembre, environ 200 personnes avaient obtenu l'accès au programme, dont 54 n'étaient pas des employés de Tesla, bien que cela ait probablement changé, puisque le PDG Elon Musk a indiqué que Tesla avait fait participer près de 1000 personnes à la version bêta en janvier. Cependant, Tesla a précisé que ce Full Self Driving ne correspond en réalité qu'à la définition SAE de l'autonomie partielle de niveau 2.

Des vidéos d'une nouvelle mise à jour de la version Bêta ont commencé à circuler sur la toile. Dans une vidéo de 13 minutes publiée sur YouTube par l'utilisateur «AI Addict», nous voyons un Model 3 avec FSD Beta 8.2 tâtonner autour d'Oakland. Il semble totalement confus à tout moment, n'imitant jamais passablement un conducteur humain. Au début de la vidéo, le passager avant remarque la décision correcte de la voiture de dépasser un tas de voitures en double stationnement plutôt que d'attendre derrière elles – mais le moment de louange est écourté lorsque la voiture se gare juste sur la ligne médiane alors qu'elle essaye de prendre le virage à gauche.


En effet, comme tous les systèmes semi-autonomes en vente aujourd'hui, les systèmes « Full Self Driving » et « Autopilot » de Tesla ne sont pas, en fait, entièrement autonomes. Ils nécessitent une surveillance humaine constante et une intervention en une fraction de seconde. Et maintenant que la dernière version bêta du logiciel est disponible, elle semble exiger plus d'attention que jamais.

L'industrie automobile a adopté six niveaux de conduite automatisée, qui dictent le niveau d'assistance qu'un véhicule peut fournir. Ces niveaux d'autonomie des véhicules, de 0 à 5, vont des voitures manuelles ou dotées de fonctions simples telles que le régulateur de vitesse aux véhicules entièrement autonomes qui n'auraient pas besoin de volant ni de pédales de frein et d'accélération. Actuellement, il n'existe pas de voitures produites en série au niveau 3, bien que certains constructeurs automobiles aient testé des véhicules dotés d'une technologie plus sophistiquée de niveau 4, qui implique un véhicule capable de se conduire lui-même, bien qu'il puisse être limité à une certaine zone. L'automatisation de niveau 5, qui permet de garantir un contrôle autonome du véhicule dans pratiquement toutes les situations et de supprimer la nécessité d'un volant, est considérée comme l'objectif ultime des voitures à conduite autonome.


Assez rapidement, la vidéo passe des « erreurs embarrassantes » à « une conduite extrêmement risquée et potentiellement nuisible ». En mode autonome, la Tesla enfreint une variété de règles de la circulation à l'instar d'un changement de voie illégal. Elle tente ensuite de tourner à gauche à côté d'une autre voiture, pour abandonner à mi-chemin de l'intersection et se désengager. Elle prend un autre virage beaucoup trop large, se plaçant dans une voie en sens interdit et nécessitant l'intervention du conducteur.

La vidéo n'est même pas à moitié terminée, mais la litanie d'erreurs se poursuit avec un autre désengagement aléatoire. La Tesla tente de faire un virage à droite à un feu rouge où c'est interdit, obligeant le conducteur à l'en empêcher activement. Elle s'arrête au hasard au milieu de la route, continue tout droit dans une voie réservée aux virages. Le logiciel de la Tesla est perdu par des voitures arrêtées sur la chaussée et à une intersection où il a clairement la priorité.

Personne n'est parvenu à proposer une conduite réellement autonome. C'est un problème difficile qui, selon certains experts, ne sera résolu qu'avec une intelligence artificielle très avancée. Le logiciel de Tesla fait clairement un travail décent en identifiant les voitures, les panneaux d'arrêt, les piétons, les vélos, les feux de signalisation et d'autres obstacles de base.

En général, lorsqu'une technologie est encore en plein développement, la réaction naturelle est de continuer à travailler dessus jusqu'à ce que le chemin soit aplani. Tesla a opté contre cette stratégie ici, choisissant à la place de vendre un logiciel qu'il sait incomplet, facturant une prime substantielle et espérant que ceux qui l'achètent auront une compréhension nuancée et avancée de ses limites. En somme, chaque propriétaire de Tesla qui achète un modèle "Full Self-Driving" sert de superviseur de la sécurité non rémunéré, menant des recherches au nom de Tesla. Peut-être plus accablant, la société n'assume aucune responsabilité pour ses actions et laisse au conducteur le soin de décider quand et où le tester.

Cela conduit à des vidéos comme celle-ci, où les premiers utilisateurs effectuent des tests incontrôlés dans les rues de la ville, les piétons, les cyclistes et les autres conducteurs ignorant qu'ils font partie de l'expérience. Si même l'un de ces pilotes Tesla dérape, les conséquences peuvent être mortelles. Tous ces tests sont effectués sur la voie publique, au profit du constructeur automobile le plus précieux du monde, à un coût pratiquement nul.


Notons qu'au début du mois, Honda Motor a lancé une nouvelle voiture équipée de la première technologie de conduite autonome certifiée de niveau 3 au monde, ouvrant la voie à l'industrie automobile pour redoubler d'efforts pour commercialiser une telle automatisation pour les véhicules de tourisme. Le niveau SAE 3 diffère fondamentalement du niveau 2 en ce qu'il s'agit d'une graduation de l'automatisation partielle (comme dans Autopilot de Tesla) à l'automatisation conditionnelle, ce qui signifie qu'une voiture peut lire son environnement et prendre des décisions en fonction de ce qu'elle voit. Cela permet à une voiture équipée d'un système de niveau 3 comme Honda Sensing Elite d'agir de son propre chef (sans jeu de mots) en fonction de la situation actuelle (parfois avec les mains du conducteur sur le volant, et dans certains cas, si le conducteur ne regarde pas la route). Une telle liberté est accordée dans le cadre de la fonction Traffic Jam Pilot de Honda Sensing Elite, qui donne à la voiture le contrôle de ses propres freins, direction et accélérateur dans ce scénario éponyme. Cela permet à la voiture de maintenir la distance, la vitesse et la position sur la voie. Il fait tout cela sans aucune intervention du conducteur, qui, selon Honda, peut « regarder la télévision / DVD sur l'écran de navigation ou utiliser le système de navigation pour rechercher une adresse de destination ».

Les vidéos de tests nous feront probablement savoir si tout ce qui est annoncé est déjà atteint techniquement et comment se comportent les véhicules en conditions réelles pour des conducteurs lambda.

Et vous ?

Qu'en pensez-vous ? Les conducteurs clients devraient-ils figurer parmi ceux qui testent les mises à jour qui ne sont pas encore bien mises au point ? Dans quelle mesure ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de kain_tn
Membre expert https://www.developpez.com
Le 21/03/2021 à 12:57
Citation Envoyé par Stéphane le calme Voir le message
tout cela sans aucune intervention du conducteur, qui, selon Honda, peut « regarder la télévision / DVD sur l'écran de navigation
C'est justement parce qu'il y a des discours à la c... comme celui là que les gens arrêtent de faire attention dans ces voitures "autonomes" et se plantent...

Citation Envoyé par Stéphane le calme Voir le message

Qu'en pensez-vous ? Les conducteurs clients devraient-ils figurer parmi ceux qui testent les mises à jour qui ne sont pas encore bien mises au point ? Dans quelle mesure ?
Que les conducteurs clients testent, c'est une chose. Après tout, s'ils ont envie de se foutre en l'air, tant pis pour eux. Ce qui me dérange profondemment c'est qu'ils vont "tester" ça au milieu des autres usagers, qui n'ont rien demandé, eux.

Mais c'est comme pour Starlink, Musk s'approprie tout ce qu'il y a autour de lui sans demander leur avis aux autres. Je rejoins Anselme45 sur le fait qu'il y a une différence entre innover et faire n'importe quoi avec la vie des gens.
4  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 21/03/2021 à 11:19
Qu'en pensez-vous ?
Qu'à force de jouer avec la ligne, Musk va finir par se retrouver engluer dans des procédures judiciaires à la mode américaine avec des milliers de plaintes de clients qui vont lui coller aux fesses et qui lui coûteront une fortune.

Etre innovant est une chose, jouer avec la vie des autres (on ne parle pas ici d'un logiciel qui bourre l'imprimante du bureau suite à un bug) en est une autre!
3  1