IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Elon Musk vient de réaliser que les voitures autonomes sont un véritable problème,
Trop de promesses et pas assez de résultats

Le , par Bruno

186PARTAGES

15  0 
Dans un tweet laissé sur son compte le 03 juillet, le PDG de Tesla, Elon Musk, admet enfin qu'il a sous-estimé la difficulté de développer une voiture autonome sûre et fiable. « Haha, la version bêta de la FSD 9 sera bientôt disponible, je le jure ! L'autoconduite généralisée est un problème difficile, car elle nécessite de résoudre une grande partie de l'IA du monde réel. Je ne m'attendais pas à ce que ce soit si difficile, mais la difficulté est évidente avec le recul, déclare Elon Musk sur son compte tweeter. Rien n'a plus de degrés de liberté que la réalité. »

Que de promesses pour en fin se mettre sur la route de la réalité. En 2018, Musk a promis que la V9 (version 9) commencerait à être déployée en août. Il l'a encore fait en 2019, en indiquant que dans un an, il y aurait « plus d'un million de voitures totalement autonomes. » Tesla fait l’objet de poursuite en justice par la famille de Walter Huang, un ingénieur Apple, décédé dans le cadre d’un accident mortel qui s’est produit le 23 mars 2018 en Californie aux États-Unis. Huang, qui avait 38 ans, est décédé lorsque sa Tesla Model X 2017 a heurté une glissière de sécurité en béton sur l'autoroute 101 à Mountain View.


Le conducteur est décédé plus tard à l’hôpital après avoir signalé que l'autopilotage du véhicule Model X de Tesla était enclenché lors de l'accident. La poursuite pour mort abusive, intentée par la famille de Huang devant la Cour supérieure de Californie, comté de Santa Clara, alléguait que des erreurs commises par le système d'aide à la conduite du pilote automatique de Tesla ont causé l'accident qui a tué le propriétaire de la berline impliquée dans l’accident. Plus tôt en mai 2019, Tesla est une fois de plus poursuivi en justice dans le cadre d'une poursuite pour mort injustifiée, qui allègue que le pilote automatique a causé l'accident.

Tesla a toujours affirmé que le pilotage automatique était fiable. Elle publie des rapports trimestriels avec des données rapportées de manière sélective qui, selon elle, le prouvent – mais qu'il nécessite également une intervention constante du conducteur pour fonctionner. Pendant ce temps, des entreprises de services audiovisuels comme Waymo ont de véritables véhicules sans conducteur sur les routes publiques, qui transportent des passagers. Waymo, comme pratiquement toutes les entreprises de services audiovisuels, utilise une combinaison de différents capteurs, tels que des radars, des lidars et des caméras, afin de garantir des redondances en cas de défaillance du système. Tesla est récemment passé à un système de détection uniquement par caméra. Le contraste entre Tesla et toutes les autres entreprises qui s'intéressent à la technologie de conduite autonome ne pourrait pas être plus frappant.

Tesla est officiellement devenu le constructeur automobile doté de la plus importante capitalisation boursière au monde, dépassant Toyota Motor Corporation en juin 2020. Tesla détenait à cette date une capitalisation boursière de plus de 185 milliards de dollars, ce qui signifie que la valeur totale de toutes les actions du constructeur automobile valait plus que n'importe quel autre constructeur automobile sur Terre.

Musk n'est pas le seul à s'être rendu compte que les voitures autonomes sont difficiles à conduire. La quasi-totalité de l'industrie prévoyait que nos routes seraient désormais envahies de voitures autonomes, pour admettre ensuite qu'elle avait sous-estimé la difficulté de faire en sorte que les voitures se conduisent elles-mêmes de manière sûre et fiable.

En avril de cette année, Consumer Reports (CR) a déclaré que ses chercheurs ont « facilement » réussi à tromper le système Autopilot de Tesla pour qu'il fonctionne sans personne au volant. À l'aide d'une Tesla Model Y, les ingénieurs de Consumer Reports ont pu conduire sur une piste d'essai fermée tout en étant assis sur le siège du passager avant et sur la banquette arrière. Pour tromper le système d'aide à la conduite de la voiture, ils ont attaché une chaîne lestée au volant pour simuler la pression des mains d'un conducteur et ont utilisé le bouton de vitesse du volant pour accélérer à partir d'un arrêt complet.

Tant qu'ils gardaient la porte du côté conducteur fermée et la ceinture de sécurité du côté conducteur bouclée (afin que le système ne se désactive pas automatiquement), le véhicule a continué à monter et descendre la piste d'un demi-mile et à suivre les lignes des voies peintes pendant l'expérience, sans que personne ne s'en aperçoive.

« La voiture a roulé sur la voie de 800 mètres de notre piste, à plusieurs reprises, sans jamais remarquer que personne n'était à la place du conducteur, ni que personne ne touchait le volant, ni qu'il n'y avait pas de poids sur le siège », a déclaré Jake Fisher, directeur principal des tests automobiles de CR, dans un communiqué. « C'était un peu effrayant quand nous avons réalisé à quel point il était facile de déjouer les protections, dont nous avons prouvé qu'elles étaient clairement insuffisantes ».

« Dans notre évaluation, le système n'a pas seulement échoué à s'assurer que le conducteur était attentif, mais il ne pouvait pas non plus dire s'il y avait un conducteur présent », a-t-il poursuivi. « Tesla se laisse distancer par d'autres constructeurs automobiles comme GM et Ford qui, sur les modèles équipés de systèmes avancés d'aide à la conduite, utilisent une technologie pour s'assurer que le conducteur regarde la route ».

Un utilisateur anonyme de Twitter, qui utilise le pseudonyme @greentheonly pour publier des "hacks" de l'Autopilot de Tesla, a recréé le scénario pour montrer comment la fonction d'assistance au conducteur de la société se débat dans ces virages serrés. Avec une superposition de l'écran du système Autopilot de Tesla dans un coin de l'écran, greentheonly montre comment le véhicule "émet en fait diverses alertes avant l'éventuel 'take over we are giving up'". D'autres fois, la voiture ralentit suffisamment et parvient à prendre le virage en toute sécurité.

Un système qui ne parvient pas à prendre un virage serré dans "la moitié des cas" ne devrait pas inspirer une grande confiance ! En fait, c'est plutôt le contraire. Le nombre d'enquêtes ouvertes sur des accidents de véhicules impliquant le système Autopilot de Tesla semble augmenter de manière inversement proportionnelle aux attentes des clients quant à la capacité de Musk à tenir les promesses qu'il fait (et ne fait pas) depuis des années maintenant.

Et vous ?

Comment percevez-vous ce revirement d'Elon Musk ?

Selon vous, doit-on poursuivre les projets de voitures autonomes ou simplement abandonner de tels types de projets ?

Voir aussi :

Tesla devient le constructeur automobile avec la plus grande capitalisation boursière et atteint 1000 dollars par action, mais ne doit pas seulement sa réussite à la construction des voitures

Tesla poursuivi en justice dans le cadre d'une poursuite pour mort injustifiée, qui allègue que le pilote automatique a causé l'accident

Autopilot de Tesla peut être "facilement" trompé pour fonctionner sans personne sur le siège du conducteur, selon Consumer Reports, mais « vous ne devriez pas essayer ça »

La mise à jour du logiciel du pilote automatique « Full Self Driving » de Tesla est potentiellement dangereuse et dirige le véhicule par moment de façon extrêmement risquée

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de JackIsJack
Membre confirmé https://www.developpez.com
Le 08/07/2021 à 8:37
Une bonne automatisation ne fait pas seulement qu'imiter le comportement humain, c'est beaucoup trop de contrainte, comme il dit il y a la complexité de la réalité qui vient tout foutre en l'air ; trop de libertés, de cas d'exceptions.

Un bon système pose des contraintes au sein duquel l'automate va pouvoir être efficace. Ici, ça pourrait être d'adapter les routes, les feus, la signalisation, ou le siège du conducteur ou même la législation.

S'ils veulent faire un robot qui fait 'comme un conducteur' sans rien toucher à l'extérieur, oui c'est probablement foutu. En même temps, Elon frime en envoyant une voiture dans l'espace (...) ce qui est le symbole même d'une association facile et maladroite.
0  0