IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La version bêta du mode « Full self-driving » de Tesla est désormais disponible en Amérique du Nord,
Il est livré sans la mention sur l'obligation de satisfaire aux exigences minimales de sécurité

Le , par Bruno

174PARTAGES

9  0 
Le logiciel Full Self-Driving (FSD), qui fait l'objet d'un examen approfondi de la part des régulateurs, est maintenant disponible pour tous ceux qui ont payé pour cette fonction en Amérique du Nord, a annoncé le PDG Elon Musk. « La version bêta de la conduite autonome complète de Tesla est désormais disponible pour toute personne en Amérique du Nord qui en fait la demande », a tweeté Musk, « en supposant que vous ayez acheté cette option. La déclaration de Musk vient à la suite des accusations du ministère californien des véhicules à moteur qui a accusé Tesla de faire des déclarations « fausses ou trompeuses » sur les capacités de ses voitures autonomes.

« L'Autopilot est un système avancé d'aide à la conduite qui améliore la sécurité et la commodité au volant. Lorsqu'il est utilisé correctement, l'Autopilot réduit la charge de travail globale en tant que conducteur. Chaque nouveau véhicule Tesla est équipé de 8 caméras externes, de 12 capteurs à ultrasons et d'un ordinateur de bord qui offrent une couche de sécurité supplémentaire pour aider le conducteur dans ses déplacements », indique Tesla.


Le déploiement de la version bêta a démarré en 2020 avec un petit nombre de clients et s'est depuis progressivement étendu pour être disponible à environ 160 000 conducteurs en octobre de cette année. Pour avoir accès à la version bêta, les conducteurs devaient généralement atteindre un seuil de sécurité minimum avec la fonction intégrée Safety Score de Tesla, ainsi que parcourir 161 000 km en utilisant la fonction avancée d'aide à la conduite Autopilot de la société.

Le constructeur automobile de la Silicon Valley vend son logiciel complémentaire de 15 000 dollars qui permet à ses véhicules de changer de voie et de se garer de manière autonome. Cela vient compléter sa fonction standard "Autopilot", qui permet aux voitures de se diriger, d'accélérer et de freiner dans leur voie de circulation sans intervention du conducteur.

En fin d’année dernière, le PDG de Tesla, a annoncé le report de la mise à jour 10.3 après que le service assurance qualité Tesla a découvert que la version en cours était moins performante que les versions précédentes pour les virages à gauche aux feux de signalisation. Plus tard, Musk a déclaré que Tesla allait « revenir temporairement à la version 10.2 » après avoir reçu des rapports faisant état de freinages soudains, de faux avertissements et d'autres problèmes.

Plusieurs propriétaires ont signalé que leur véhicule avait freiné brusquement lorsque le logiciel FSD de Tesla avait signalé par erreur une collision imminente. Lorsqu'ils fonctionnent correctement, l'alerte de collision avant et le freinage automatique d'urgence fonctionnent de concert pour éviter qu'un véhicule ne percute des objets sur sa trajectoire. Une combinaison de capteurs et de logiciels alerte d'abord les conducteurs d'une collision imminente et, si aucune action n'est entreprise, applique avec force les freins. Les voitures qui reçoivent des alertes fantômes entraînant un freinage d'urgence risquent d'être embouties si elles s'arrêtent rapidement dans un trafic dense ou si elles roulent à grande vitesse. « L'activation du freinage automatique d'urgence au milieu de l'autoroute était terrifiante », a rapporté un conducteur de Tesla.

Tesla critiqué pour sa technologie inachevée

Tesla, qui a été critiqué pour avoir testé sa technologie inachevée sur des routes publiques, fait également l'objet d'une enquête du ministère américain de la Justice concernant les affirmations selon lesquelles les véhicules électriques de la société peuvent se conduire eux-mêmes. Musk a déclaré le mois dernier que le logiciel n'obtiendrait pas l'approbation réglementaire en 2022. Il espère fournir une mise à jour de son « Full self-driving » en 2023 pour montrer aux régulateurs que la technologie est beaucoup plus sûre que le conducteur humain moyen.

Plus tôt ce mois-ci, le Department of Motor Vehicles (DMV) de Californie a accusé Tesla de faire des « déclarations fausses ou trompeuses » sur les capacités de conduite autonome de ses véhicules. Le DMV allègue que les noms Autopilot et FSD, ainsi que le langage utilisé par Tesla pour les décrire, pourraient tromper les utilisateurs en leur faisant croire que les véhicules peuvent fonctionner de manière autonome.

En août dernier, les sénateurs Ed Markey (D-MA) et Richard Blumenthal (D-CT) ont demandé à la Federal Trade Commission d'enquêter sur la manière dont Tesla fait la publicité de ses logiciels FSD et Autopilot. Les deux législateurs ont ensuite envoyé une lettre à Musk pour « exprimer des inquiétudes importantes » concernant le système d'assistance à la conduite de Tesla, auquel Tesla a répondu en disant que son système pouvait aider les clients à « conduire de manière plus sûre que le conducteur moyen aux États-Unis ».

La semaine dernière, Tesla a déclaré aux autorités américaines de réglementation de la sécurité automobile qu'elle avait reçu des rapports faisant état de deux nouveaux accidents mortels liés à des systèmes avancés d'aide à la conduite dans ses voitures Tesla Model 3. Dans un cadre plus global, Tesla est à l'origine de 273 des 367 accidents de ce type signalés par 12 constructeurs automobiles à la NHTSA entre le 20 juillet 2021 et le 15 mai de cette année. Sur l'ensemble des accidents signalés, des blessures graves ou des décès sont survenus dans 11 des 98 collisions pour lesquelles des données sur la gravité ont été recueillies. Par ailleurs, 294 autres incidents ne comportaient pas d'informations sur les dommages subis par les occupants du véhicule.

Si l'expression Full Self-Driving entendez, « conduite autonome intégrale » laisse peu d'ambiguïté quant à ses aspirations, la technologie accomplit bien moins que ce que les mots impliquent. La FSD serait en fait une version sophistiquée de l'assistance au conducteur de niveau 2, telle que définie par SAE International, arbitre de nombreuses normes automobiles mondiales.

Et vous ?

Quel est votre avis sur la conduite autonome et sur l'Autopilote de Tesla en particulier ?

Que pensez-vous du logiciel Full Self-Driving de Tesla ?

Pourquoi certaines personnes voient-elles un problème au logiciel Full Self-Driving de Tesla et pas d'autres ?

Voir aussi :

Tesla retire la MAJ de son logiciel Full Self-Driving, après un freinage soudain qui a effrayé les conducteurs

Tesla augmente le prix de son logiciel Full Self-Driving qui va passer à 15 000 $ dès le 5 septembre, soit une augmentation de 3 000 dollars

Tesla signale deux nouveaux accidents mortels impliquant des systèmes d'aide à la conduite, sur les 18 accidents mortels signalés depuis juillet 2021, presque tous impliquaient des véhicules Tesla

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
8  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 28/11/2022 à 11:21
Citation Envoyé par Nancy Rey Voir le message
Que pensez-vous du FSD ? Les utilisateurs devraient-ils être autorisés à tester les versions bêta du FSD sur les routes ? Le logiciel devrait-il être interdit ?
Comment appréciez-vous les progrès technologiques en matière de véhicules autonomes ? Quelles sont les entreprises qui se démarquent selon vous ?
Je pense qu'il est regrettable que le plus gros obstacle à la mise en circulation d'un projet automobile peu abouti est un projet privé. Et qu'il faille passer par ce genre de lobbying pour éviter des morts.
Ils ont aussi une communication efficace, ils attaquent par la corde la plus sensible : la sécurité des enfants. Mais je suis même surpris que Tesla ne soit pas allé plus loin sur le sujet. Le premier enfant qui meure à cause du système pourrait provoquer la fin pure et simple du FSD, d'autant plus quand on voit le manque de délicatesse de communication de Musk.
On analyse trop les clés de réussite pas assez les clés d'échec.

Je pense que le FSD ne devrait être mis sur les routes qu'avec des pilotes professionnels ayant connaissances complètes de ce qu'ils font. Cette phase de test ne devrait pas être réalisé par des amateurs, d'autant plus des clients qui ont payé ce gadget, et le considèrent comme tel.
5  0 
Avatar de Darkzinus
Expert éminent sénior https://www.developpez.com
Le 05/01/2023 à 15:46
Ce que je trouve dingue dans le modèle économique de Tesla c'est que les gens achètent une voiture et un abonnement pour être bêta testeurs.
5  0 
Avatar de marc.collin
Membre chevronné https://www.developpez.com
Le 11/01/2023 à 14:00
Il est temps que le gouvernement interdise que le pays devienne un jeu d'expérimentation.
C'est dangereux, il y a eu des mort et cela continue, rien n'est fait
5  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
5  0 
Avatar de steel-finger
Membre confirmé https://www.developpez.com
Le 13/12/2022 à 23:49
Les gens n'ont pas compris que ce cher Elon n'est pas un génie incompris comme il aime nous le faire croire ! Beaucoup de gens pensent qu'il a créé tesla alors que ce sont des ingénieurs aux USA (Tarpenning et Eberhardt) pareil pour l'Hyperloop mais pour celui-ci le concept existe depuis bien longtemps.

Il y a très peu de ces projets qui sont allés jusqu'au bout, sauf SpaceX.
4  0 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 03/01/2023 à 12:04
Que pensez-vous du motif de l'amende infligée à Tesla en Corée du Sud ?
Que dans notre droit à nous ça correspond pleinement à la définition de l’escroquerie
https://www.service-public.fr/partic...osdroits/F1520
donc il est logique que ce soit pareil en Corée.

Que pensez-vous du montant de l'amende ?
qu'il est trop faible, la preuve, les escrocs continuent, Mulk continue de communiquer

D'autres pays devraient-ils adopter une approche similaire ? Pourquoi ?
Parce que c'est de l'escroquerie et que tant qu'il n'y aura pas de répression les escrocs continuent

Tesla devrait-il, selon vous, continuer à utiliser les appellations Autopilot et Full Self-Driving même si cela induit de nombreux utilisateurs en erreur, pensant à tort que leur système peut gérer toutes les étapes de la conduite ?
Bien sur que non, mais tant qu'il n'en seront pas inquiété ils continueront.
4  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 05/01/2023 à 7:54
Citation Envoyé par Stéphane le calme Voir le message
Le délit de fuite en Allemagne doit-il être imputé au conducteur endormi ou à Tesla ? Lorsque le mode Autopilot est activé, qui devrait être responsable ? Pourquoi ?
Aux deux, le conducteur pour ne pas être maitre de son véhicule (et ne pas être en état de l'être), Tesla pour être incapable de suivre le code de la route.
Une situation comme celle-ci pourrait-elle suggérer que la programmation de l'Autopilot n'est pas terminée (intégration de plus de cas de figure dans la boucle if) ?
Un autopilot doit respecter le code de la route. S'il ne le fait pas il n'est pas terminé ou est défaillant.
En tant que professionnels de l'informatique, comment aborderiez-vous ce cas de figure (la police demande à un individu de se garer sur le côté) dans la programmation de l'Autopilot ? Si vous prenez en compte par exemple les gyrophares, des individus mal intentionnés ne pourraient-ils pas se jouer du système en utilisant des gyrophares pour commettre leurs méfaits ? Ou alors si une voiture de police est détectée à proximité, Autopilot devrait-il se désengager et redonner la main au chauffeur pour que lui seul décide quoi faire ?
Pour moi tout ça devrait se régler avec deux règles :
1. Si la Tesla reçoit une information qu'elle n'arrive pas à traiter elle redonne la main au chauffeur
2. La chauffeur doit pouvoir, à tout moment, reprendre la main sur l'autopilot
Autant je n'aime pas Tesla autant je ne peux pas exiger d'elle qu'elle soit plus capable que moi de reconnaitre un véhicule de police légitime d'un illégitime.
4  0