IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tesla annonce aux régulateurs que les voitures entièrement autonomes ne seront peut-être pas disponibles d'ici la fin de l'année,
En contradiction avec les indications d'Elon Musk

Le , par Stan Adkens

728PARTAGES

8  0 
Les messages du PDG de Tesla, Elon Musk, concernant la technologie des véhicules sans conducteur ne correspondent pas toujours à la réalité technique, c’est ce qu’a révélé un mémo sur une réunion de mars publié jeudi par le Department of Motor Vehicles (DMV) de la Californie. Les employés de Tesla, dont le directeur du logiciel Autopilot, CJ Moore, et l'avocat général associé, Eric Williams, n'ont pas pu confirmer aux régulateurs californiens que Tesla serait en mesure de produire un véritable véhicule sans conducteur cette année, malgré les indications du PDG.

Qu'il s'agisse du lancement d'une flotte de robotaxis ou d'un voyage à travers le pays sans intervention humaine, le PDG et cofondateur de Tesla, Elon Musk, vante depuis des années les plans ambitieux de déploiement de voitures autonomes. Et bien que Tesla ait vendu en avant-première une fonction de 10 000 dollars appelée "Full Self-driving Capability" (FSD), le constructeur automobile a déclaré aux régulateurs californiens qu'il pourrait ne pas être en mesure de finaliser ce qu’il appelle le mode "Full Self-driving" d'ici la fin 2021, selon le mémo de DMV.


Lors d'une conférence téléphonique sur les résultats en janvier, Musk a déclaré qu'il était « très confiant que la voiture sera capable de se conduire elle-même avec une fiabilité supérieure à l'homme cette année ».

Lors d'une cérémonie de remise de prix organisée par Axel Springer en décembre dernier, Musk a déclaré : « Je suis extrêmement confiant quant à la possibilité d'atteindre une autonomie complète et de la proposer à la clientèle de Tesla l'année prochaine ». Le modérateur lui a demandé s'il parlait d'une technologie de "niveau 5", c'est-à-dire entièrement sans conducteur, et Musk a acquiescé en disant : « Oui, oui ».

Une équipe de la branche des véhicules autonomes du DMV de Californie a interrogé les employés de Tesla sur les messages de Musk concernant l'autonomie de niveau 5 lors d'une réunion téléphonique du 9 mars. Le document du DMV a été initialement obtenu par le groupe de transparence juridique Plainsite par le biais d'une demande de California Public Records Act.

Les régulateurs de DMV ont écrit dans leurs notes de réunion que « le DMV a demandé à CJ de traiter, d'un point de vue technique, les messages d'Elon concernant la capacité de niveau 5 d'ici la fin de l'année ».

Les notes poursuivent en disant : « Le tweet d'Elon ne correspond pas à la réalité technique, selon CJ. Tesla est actuellement au niveau 2 ». La technologie de conduite autonome de niveau 2 fait référence à un système d'assistance au conducteur qui n'est pas autonome, mais qui exige que le conducteur reste à la place du conducteur, prêt à diriger la voiture à tout moment.

Le patron de Tesla a souvent vanté sur Twitter les fonctionnalités de la conduite autonome intégrale (FSD) et de la version bêta de la FSD, comme il l'a fait dans une série de tweets le 6 mars :

« La disponibilité varie selon les régions en raison des délais d'approbation réglementaire et/ou du développement et des tests internes de Tesla ». « Remarque : le terme "Beta" est utilisé pour éviter toute complaisance dans l'utilisation et pour définir les attentes de manière appropriée. Tous les logiciels sont d'abord testés en interne par les équipes de simulation et d'assurance qualité de Tesla ».

Une semaine après, il écrivait encore ceci : « La version bêta de la FSD a été étendue à environ 2 000 propriétaires et nous avons également révoqué la version bêta lorsque les conducteurs n'étaient pas suffisamment attentifs à la route. Aucun accident à ce jour. La prochaine version importante aura lieu en avril. Nous optons pour la vision pure, sans même utiliser de radar. C'est la voie de l'IA dans le monde réel ».


Tesla devrait communiquer méticuleusement la bonne utilisation et les limites de ses systèmes

Tesla a déployé, pour la première fois en octobre, ce qu'il décrit comme une version "bêta" de son programme "Full self-driving" à un nombre limité d'employés et de clients, et Musk a vanté cette capacité sur Twitter. Mais des vidéos du système en action ont montré qu'il y a encore du chemin à parcourir et fait valoir que, pour le moment, il est potentiellement dangereux de se reposer sur le programme bêta « Full Self Driving » d'Autopilot.

« Les fonctionnalités qui composent la partie automatique sont le régulateur de vitesse en fonction du trafic et l'orientation automatique. La capacité de conduite autonome complète (FSD) est une suite de fonctionnalités optionnelle qui s'appuie sur Autopilot et qui est également représentative du niveau 2 de la Society of Automotive Engineers (SAE) », aurait indiqué Eric Williams, avocat associé de la société pour les questions réglementaires, dans un courriel envoyé à un destinataire du California Department of Motor Vehicles (DMV) le 28 décembre 2020.

Dans le mémo publié jeudi, « Tesla a indiqué qu'Elon extrapole sur les taux d'amélioration lorsqu'il parle des capacités du niveau 5. Tesla n'a pas été en mesure de dire si le taux d'amélioration atteindrait le niveau 5 d'ici la fin de l'année civile », indique le mémo, qui fait référence à la technologie autonome complète de niveau 5.

Dans une lettre de suivi adressée à Tesla le 21 avril, Miguel Acosta, chef de la branche des véhicules autonomes du DMV de Californie, a averti le constructeur de véhicules électriques qu'il devait communiquer méticuleusement la bonne utilisation et les limites de ses systèmes alors qu'il étend le programme bêta FSD à davantage de conducteurs.

« Tesla a indiqué qu'ils sont toujours fermement en L2 », a écrit Acosta dans la lettre. « Comme Tesla en est conscient, l'incompréhension du public sur les limites de la technologie et sa mauvaise utilisation peuvent avoir des conséquences tragiques ».

La National Highway Traffic Safety Administration a ouvert plus de deux douzaines d'enquêtes sur des collisions impliquant des véhicules Tesla. Le National Transportation Safety Board a averti que Tesla utilisait des conducteurs sur des routes publiques pour tester des fonctions autonomes avancées et a demandé à la NHTSA de publier des directives plus strictes concernant cette technologie.

La California Highway Patrol serait en train d’enquêter sur les raisons pour lesquelles un véhicule Tesla a percuté un camion renversé sur une autoroute près de Fontana, en Californie, tuant le conducteur de la Tesla et blessant le conducteur du camion et un automobiliste qui s'était arrêté pour l'aider, ont indiqué des médias cette semaine. Le rapport de la patrouille routière ne précise pas si la Tesla fonctionnait sur le système Autopilot de la société, lorsque l'accident s'est produit mercredi matin. Le camion Mack s'était écrasé et renversé cinq minutes plus tôt, bloquant deux voies de l'autoroute, selon le rapport.

Les autorités texanes ont déclaré le mois dernier que deux personnes ont trouvé la mort dans un accident de la route impliquant une voiture Tesla, dans la ville de Spring. Il semblerait que personne n’était au volant lorsque le choc a eu lieu, et les pompiers auraient mis près de quatre heures pour éteindre le feu. Cependant, Musk a affirmé que les journaux de données récupérés de la Model S accidentée « montrent jusqu'à présent qu’Autopilot n'était pas activé ».

Source : Mémo du DMV de la Californie

Et vous ?

Qu’en pensez-vous ?
« Le tweet d'Elon Musk ne correspond pas à la réalité technique », selon CJ Moore. Quel commentaire en faites-vous ?
Achèteriez-vous la fonction FSD de 10 000 dollars que Tesla vend en attendant l’autonomie de niveau 5 ?

Voir aussi :

Deux personnes sont tuées dans un accident d'une voiture Tesla sans personne au volant, l'Autopilot serait activé, et les batteries de la voiture ne cessaient de raviver les flammes
Un conseiller en réglementation de Tesla aurait déclaré que le système « Full Self-Driving » resterait manuel, après que Tesla a admis que sa technologie de conduite est un système de niveau 2
La mise à jour du logiciel du pilote automatique « Full Self Driving » de Tesla est potentiellement dangereuse, et dirige le véhicule par moment de façon extrêmement risquée
Tesla lance en version bêta le mode Full self-driving, la réaction des conducteurs montre que Tesla semble avoir fait un grand pas vers la conduite "entièrement" autonome

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Doatyn
Membre habitué https://www.developpez.com
Le 22/08/2022 à 17:07
C'est de la folie de mettre de tels systèmes défaillants sur la voie publique, presque criminel.
Quand je vois la sécurité qui est exigé pour des transports autonomes en site propre, tel que des métros ou des téléphériques, ... Tesla n'aurais jamais la moindre autorisation.
10  2 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/08/2022 à 11:24
La vraie question intéressante à mon sens est la suivante:

Est-ce que les USA appliquent une loi "Musk"?

Alors qu'un simple café-restaurant américain peut se voir condamner à des millions de dollar d'amende pour un client qui se serait brûlé la langue en buvant un café servi trop chaud, Tesla qui est déjà responsable de plusieurs dizaines de morts avec son pseudo auto-pilote n'est jamais inquiété.

Et devinez quoi? Pas une seule condamnation, pas un seul juge pour prononcer une interdiction de poursuivre des essais sur route qui ne sont d'ailleurs plus des essais puisque réalisés dans la circulation normale par des clients lambda.
10  2 
Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
8  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 26/11/2021 à 12:47
Citation Envoyé par rbolan Voir le message
La meilleure manière de démontrer l’efficacité ou la dangerosité du "Full-Self Driving" de Tesla, c'est de réaliser une étude indépendante pertinente à partir d'un échantillon représentatif qui produira des résultats analysable à partir desquels une discussion pourra être faite.
Pas besoin d'étude, FSD tente - parfois - de conduire du mauvais coté de la route, se dirige - parfois - vers un chantier alors qu'il ne semble pas y avoir de raison particulière.

Je fais du vélo en ville de façon pas toujours très sûre mais, à la surprise de mes amis, j'ai assez peu d'accidents.
Ils pensent que je devrais être pour les voitures intelligentes ou autonomes mais ce n'est clairement pas le cas.
Pourquoi?
Les chauffeurs ont un regard qui me montre une infinités d'informations qui définissent la façon dont je vais réagir:
Est ce qu'il m'a vu?
Va-t-il prendre l'initiative ou attend il que j'exprime mon intention?
Veut il changer de voie? Cherche-t-il une place pour se garer?
A-t-il l'intention de me laisser passer?
A-t-il l'intention de ne surtout pas me laisser passer?
Et je peux retourner les même information:
Je veux passer devant toi, laisses moi la priorité (qui m'est souvent dues)
Avance s'il te plait, je passerais derrière toi
Ne me double pas maintenant
Tu peux me doubler
etc

Avec une voiture autonome (Tesla ou autre) aucune de cette communication n'existe alors je lui prie au moins de respecter le code de la route.
7  1 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 05/07/2022 à 19:21
Citation Envoyé par Stéphane le calme Voir le message
Qu'en pensez-vous ?
Que le titre de sa vidéo Youtube est "marrant": le gars lance un programme en beta (il met même la version dans la vidéo) sur la voie publique, et sa voiture veut traverser devant un tram qui est prioritaire et le gars écrit "train almost hits my tesla"

C'est lui et sa voiture qui font de la m..., pas le train! Et c'est sa voiture qui a failli percuter le train, et pas l'inverse
6  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 26/07/2022 à 7:27
Citation Envoyé par Bill Fassinou Voir le message
Quel est votre avis sur le sujet ?
Que pensez-vous de l'Autopilot de Tesla ?
Je ne comprends pas pourquoi un système qui ne serait pas capable de passer l'examen du permis de conduire peut être testé sur les routes par autre chose que des professionnels.
Selon vous, le logiciel est-il fiable ? Améliore-t-il réellement la sécurité sur la route ?
Un logiciel qui a tué deux motards en 1 mois?
Selon vous, qu'est-ce qui explique la grande confiance des conducteurs de Tesla dans l'Autopilot ?
Elon Musk est un gourou que certains suivent aveuglément.
Probablement l'attrait de la technologie et l'envie d'être le premier à avoir utiliser ce système fantasmé par la SF depuis des décennies.
Et peut être aussi la charge mentale dont le système libère : Certains soir je serais bien heureux que quelqu'un conduise ma voiture à ma place.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 06/07/2022 à 11:47
Citation Envoyé par Stéphane le calme Voir le message
Qu'en pensez-vous ?
Que le FSD conduit plus mal qu'une personne qui apprend à conduire.
Que les clients du FSD sont moins bien payés (ils ne le sont pas) qu'un instructeur d'auto école.
Qu'il n'y a même pas de signe visuel sur la voiture signalant aux autres usagers de la route que ce véhicule risque d'avoir des réactions imprévisibles.

Que cette voiture a fait au moins 3 erreurs qui auraient pu tuer des gens en 30 minutes.
Que le client semble penser que la meilleure décision est d'en faire une vidéo.
Que Tesla ne semble pas penser que c'est un problème.
Que les autorités ne semblent pas penser nécessaire d'interdire à la circulation un système qui fait rentrer un voiture dans un obstacle identifié.

Je fais partie d'une équipe qui teste les nouvelles version d'un logiciel, nous ne couvrons pas toujours tous les scénarios mais comment peut on mettre sur la route un logiciel qui fait qu'une voiture grille un feu rouge dans un carrefour avec de la circulation. Il devrait y avoir deux signaux bloquants et le scénario est très loin d'être une exception.
7  2 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 30/07/2022 à 8:18
Tesla produit des véhicules électriques. Ils semblent agréables et en général appréciés de leurs propriétaires. Personnellement j'ai toujours eu deux réticences, la première venant de l'origine du courant consommé, l'autre motivée par la présence d'une immense télé en manière de tableau de bord. Quand je conduis, je regarde la route et le trafic.

Pourquoi s'obstiner a promettre des fonctions qui ne marchent manifestement pas, et aux dépens de vies humaines ?
Il y a quelques années Audi démontrait un système de conduite quasi-autonome sur autoroute en zone de trafic dense. C'était impressionnant et convaincant. Pourtant à ma connaissance ce système n'est toujours pas proposé à la vente et on n'en parle plus beaucoup. Pourquoi ? Peut-être sont-ils plus lucides que les gens de Tesla, peut-être que n'ayant pas de gourou pour les abriter des conséquences de leurs erreurs les ingénieurs font leur boulot ?

Lorsque je constate le comportement de mon correcteur orthographique, je me dis qu'il y a encore du chemin pour qu'un automate de prédiction basé sur des statistiques atteignent un niveau approchant l'intelligence. Alors pour conduire une voiture en milieu ouvert, avec plein de choses vivantes autour, à moi la peur !
6  1