IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les nouveaux tests de sécurité du projet Dawn montrent que le logiciel de conduite autonome de Tesla heurte à plusieurs reprises un mannequin d'enfant
Dans une poussette

Le , par Nancy Rey

155PARTAGES

18  0 
The Dawn Project est une organisation qui se consacre à rendre les ordinateurs vraiment sûrs pour l'humanité. L'année dernière, elle a sensibilisé le public aux risques liés à l'utilisation du logiciel de conduite autonome de Tesla en réalisant divers tests de sécurité. Récemment, elle nous a présenté un nouveau test révélant que le système de la voiture heurtera à plusieurs reprises un mannequin d'enfant dans une poussette.


The Dawn Project a été fondé par Dan O'Dowd, un expert en création de logiciels. The Dawn Project reconnaît que la vie humaine dépend de systèmes contrôlés par ordinateur, qui sont exposés à toutes sortes de risques lorsqu'ils sont connectés à l'internet. Les mauvais acteurs qui possèdent les connaissances techniques appropriées peuvent avoir de graves répercussions sur l'infrastructure de l'humanité.

Mais le premier danger auquel l'entreprise s'attaque est le déploiement par Elon Musk de dangereuses voitures entièrement autonomes (FSD). The Dawn Project offre même un prix de 15 000 dollars à la première personne qui démontrera un produit commercial actuel et tout nouveau d'une entreprise du classement Fortune 500 qui présente un dysfonctionnement de sécurité critique toutes les huit minutes en moyenne, qui est sur le marché depuis au moins six mois, qui est actuellement en production et qui n'a jamais été rappelé. Le prix de 15 000 dollars est inspiré par le fait qu'Elon Musk a augmenté le prix du logiciel de conduite autonome 10.69.2 à ce prix précis.


Le dernier test de sécurité effectué par The Dawn Project a été réalisé dans un parking public de Santa Barbara, en Californie, en octobre 2022. L'entreprise a utilisé la dernière version du logiciel disponible à ce moment-là, Tesla Full Self-Driving Beta 10.69.2.2.

Un mannequin d'enfant dans une poussette a été placé sur la trajectoire de la Tesla. Le conducteur a programmé la Tesla avant chaque essai, et les images montrent clairement que la conduite autonome complète est engagée. Une lampe de poche a été placée au-dessus de la pédale d'accélérateur pour montrer qu'elle n'a pas été enfoncée pendant le test.

La voiture accélère jusqu'à 48 km/h et heurte la poussette de plein fouet, car le logiciel n'a identifié aucun obstacle. Le seul message d'erreur affiché sur l'écran de la Tesla était : "Supercharging Unavailable : ajoutez un mode de paiement à votre compte Tesla".


The Dawn Project a également testé récemment la fonction de conduite autonome complète dans d'autres scénarios réalistes. Les résultats ont indiqué que le logiciel contournait les bus scolaires à l'arrêt avec le bras du panneau d'arrêt déployé et leurs feux clignotants. De plus, ils ont montré que la Tesla n'identifiait pas les limites variables des zones scolaires, de sorte qu'elle ne ralentissait pas même en présence d'enfants.

Un autre test a donné des résultats encore plus horribles : il a révélé que la FSD de Tesla a écrasé à plusieurs reprises des mannequins de taille enfantine de différentes tailles sur son passage, surtout lorsqu'ils étaient en mouvement. Le projet Dawn demande l'interdiction du logiciel FSD sur les routes jusqu'à ce que le géant de la technologie prouve que la voiture peut réagir lorsqu'elle rencontre des enfants.

De plus, The Dawn Project a prouvé que le logiciel ignorait à plusieurs reprises les panneaux "Do Not Enter" et "Road Closed", même si le véhicule avait la possibilité de reconnaître ces panneaux et de s'arrêter pendant les tests.

Tous ces résultats sont certainement inquiétants - même si la fonction FSD de Tesla est indéniablement innovante, les clients de Tesla qui optent pour cette fonction doivent savoir qu'elle est actuellement en cours de développement et qu'il ne faut pas s'y fier uniquement. Jusqu'à présent, Tesla a menacé de poursuivre The Dawn Project pour sa campagne nationale, qui comprenait des publicités télévisées et des pages dans le New York Times. Dan O'Dowd a répliqué en proposant une démonstration publique des défauts de sécurité de la conduite autonome intégrale de Tesla, en septembre dernier. Il sera intéressant de voir si ces nouveaux tests inciteront Tesla à prendre des mesures, qu'il s'agisse de poursuivre l'action en justice ou de résoudre les problèmes.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des allégations du Dawn Project sur le FSD ?
Que pensez-vous du FSD ? Les utilisateurs devraient-ils être autorisés à tester les versions bêta du FSD sur les routes ? Le logiciel devrait-il être interdit ?
Comment appréciez-vous les progrès technologiques en matière de véhicules autonomes ? Quelles sont les entreprises qui se démarquent selon vous ?

Voir aussi :

Tesla demande le retrait en ligne d'une vidéo montrant ses véhicules qui heurtent des mannequins de la taille d'un enfant, et ravive le débat sur la fiabilité de son système de conduite dit autonome

Le mode Full Self-Driving de Tesla a tellement énervé cet homme qu'il se présente au Sénat, Dan O'Dowd est mécontent du fait que le logiciel bêta de Tesla soit testé sur la voie publique

L'Autopilot de Tesla fait pratiquement foncer un Model 3 sur un tramway venant en sens inverse, l'option « Full Self-Driving » était activée

Le PDG de Green Hills accuse Tesla de traiter les utilisateurs du Full Self-Driving comme des "mannequins de test de collision", et qualifie le FSD du pire logiciel commercial qu'il ait jamais vu

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
9  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 17/10/2023 à 23:40
Citation Envoyé par Ryu2000 Voir le message
Ben justement...

Pilote automatique

Autopilot ça ne veut pas dire que ça se conduit tout seul.
Tu mets la définition de "autopilot", mais pourquoi pas la définition de "Full Self-Driving"?
Non, parce qu'il parle de ça aussi. Littéralement "Conduite autonome complète/totale"...

Tesla aurait appelé ça "Self-driving", encore, on aurait pu chipoter, et faire comme tous les constructeurs et parler de niveau 1, 2, 3, 4, 5. Mais là, c'est du foutage de gueule.
Je ré-itère: cet ingénieur est soit un menteur, soit quelqu'un qui devrait ouvrir un dictionnaire.
8  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 18/10/2023 à 22:34
Citation Envoyé par Ryu2000 Voir le message
Ça ne parle pas que de Full Self-Driving ça parle aussi d'Autopilot !
Et autopilot ça ne veut pas dire que ça se conduit tout seul.
C'est un dialogue de sourds

Citation Envoyé par Ryu2000 Voir le message
Pour Full Self-Driving je ne sais pas.
Bon après Tesla aurait du choisir des expressions plus précise pour que les gens comprennent que la voiture ne se conduit pas toute seule.
Quand une entreprise te vend son accès bêta sous le nom de Full Self-Driving, je pense que c'est fait exprès.
7  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
6  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/07/2023 à 23:21
Je ne suis pas un fan de Musk, mais là franchement, il y a de quoi se marrer.

La totalité, je dis bien la totalité des fabricants de voiture falsifient la consommation réelle de leur véhicules!

Les acteurs du secteur automobile se sont mis d'accord pour établir un test de roulement pour établir la consommation moyenne au 100 km qui ne correspond en rien à l'usage normal d'une voiture... Le test a été établi pour s'assurer que la consommation au 100 km soit très inférieure à la réalité.

Tout le monde en a d'ailleurs fait la constatation: Vous achetez un voiture écolo qui indique une consommation de 4,5 litres au 100km? Quand vous vérifiez votre consommation, il s'avère que vous frôlez les 10 litres/100km. Facile ensuite pour votre concessionnaire de vous dire "Mais monsieur, madame, vous avez un usage de votre véhicule qui ne correspond pas à un usage moyen, vous faites trop de trajets en ville ou roulez trop vite sur autoroute".

Idem pour l'autonomie des véhicules électriques, l'autonomie annoncée ne correspond jamais à la réalité "Mais monsieur, madame, vous faites trop de dénivelés... Vous roulez de manière trop sportive, blablabla..."

Et je ne parle pas de la période hivernale, un jour de grand froid et l'autonomie officiellement annoncée est divisée par 2 et puis et puis... Très vite, vous êtes confronté à l'usure de vos batteries dont la capacité de charge baisse de mois en mois...
9  3 
Avatar de totozor
Membre expert https://www.developpez.com
Le 28/11/2022 à 11:21
Citation Envoyé par Nancy Rey Voir le message
Que pensez-vous du FSD ? Les utilisateurs devraient-ils être autorisés à tester les versions bêta du FSD sur les routes ? Le logiciel devrait-il être interdit ?
Comment appréciez-vous les progrès technologiques en matière de véhicules autonomes ? Quelles sont les entreprises qui se démarquent selon vous ?
Je pense qu'il est regrettable que le plus gros obstacle à la mise en circulation d'un projet automobile peu abouti est un projet privé. Et qu'il faille passer par ce genre de lobbying pour éviter des morts.
Ils ont aussi une communication efficace, ils attaquent par la corde la plus sensible : la sécurité des enfants. Mais je suis même surpris que Tesla ne soit pas allé plus loin sur le sujet. Le premier enfant qui meure à cause du système pourrait provoquer la fin pure et simple du FSD, d'autant plus quand on voit le manque de délicatesse de communication de Musk.
On analyse trop les clés de réussite pas assez les clés d'échec.

Je pense que le FSD ne devrait être mis sur les routes qu'avec des pilotes professionnels ayant connaissances complètes de ce qu'ils font. Cette phase de test ne devrait pas être réalisé par des amateurs, d'autant plus des clients qui ont payé ce gadget, et le considèrent comme tel.
5  0 
Avatar de Darkzinus
Expert éminent sénior https://www.developpez.com
Le 05/01/2023 à 15:46
Ce que je trouve dingue dans le modèle économique de Tesla c'est que les gens achètent une voiture et un abonnement pour être bêta testeurs.
5  0 
Avatar de marc.collin
Membre émérite https://www.developpez.com
Le 11/01/2023 à 14:00
Il est temps que le gouvernement interdise que le pays devienne un jeu d'expérimentation.
C'est dangereux, il y a eu des mort et cela continue, rien n'est fait
5  0