IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une vidéo semble montrer le système Autopilot d'une Tesla confondant une calèche avec un camion,
Le système piloté par l'IA n'a peut-être pas été formé à cette façon rudimentaire de se déplacer

Le , par Bill Fassinou

271PARTAGES

6  0 
Une vidéo partagée la semaine dernière par le Youtubeur suisse RealRusty montre l'Autopilot de Tesla qui confond une calèche successivement avec un semi-remorque, un piéton et une berline. Cela suggère que les ingénieurs qui ont conçu le système n'ont peut-être pas pris en compte les moyens de transport historiques. La vidéo a été visionnée des millions de fois par des utilisateurs qui semblent trouver cette mésaventure humoristique. En outre, elle vient également nourrir le débat sur les capacités de l'Autopilot de Tesla à reconnaître correctement les personnes et les objets se trouvant dans son champ de vision.

L'Autopilot de Tesla est ce que l'on appelle un système d'aide à la conduite autonome. En termes simples, il s'agit d'une fonction qui permet à un véhicule Tesla de voir les véhicules et la route (généralement l'autoroute) qui l'entourent, et de se conduire elle-même dans une certaine mesure. Le système Autopilot utilise des caméras, des capteurs à ultrasons et des radars pour voir et sentir l'environnement de la voiture. Selon le constructeur automobile américain, la suite de capteurs et de caméras permet au conducteur d'un véhicule Tesla d'avoir une conscience de son environnement qu'un conducteur seul n'aurait pas autrement.

Il a jouté qu'un puissant ordinateur de bord traite ces données en quelques millisecondes afin de rendre la conduite "plus sûre et moins stressant". Toutefois, il estime que l'Autopilot est un système d'aide à la conduite pratique qui ne doit être utilisé qu'avec un conducteur pleinement attentif. Il ne transforme pas une Tesla en voiture autonome. Avant de l'activer, le conducteur doit accepter de "garder les mains sur le volant à tout moment" et de toujours "garder le contrôle et la responsabilité de sa voiture". Si cela n'est pas respecté, l'Autopilot émet une série croissante d'avertissements visuels et sonores pour rappeler le conducteur à l'ordre.



Seulement, si Tesla n'a de cesse de déclarer que l'Autopilot rend la conduite humaine beaucoup plus sûre, l'expérience des utilisateurs tend à démontrer le contraire. Les vidéos partagées régulièrement par les utilisateurs montrent que le système a des difficultés dans plusieurs domaines, notamment à identifier correctement les usagers de la route. La dernière en date est une vidéo postée par le Youtubeur suisse RealRusty qui montre sa Tesla s'approchant d'une calèche sur une autoroute à l'extérieur de Zurich, en Suisse. Le fait marquant dans la vidéo est que la Tesla a identifié la calèche à tort comme plusieurs autres modes de transport.

Le système semble identifier brièvement la calèche comme une voiture, un humain, un humain marchant derrière une voiture, un humain marchant derrière un camion, et comme un camion seul. À un moment donné, lorsque la calèche est apparemment identifiée à tort comme un camion, l'Autopilot montre le "camion" qui tourne sur lui-même comme s'il était destiné à une collision frontale avec la Tesla. « Nous étions en train de conduire dans notre Tesla Model Y lorsque cette calèche est apparue devant nous. Incapables de passer, nous sommes restés derrière et avons regardé la visualisation de Tesla essayer de la repérer », a déclaré RealRusty.

« En commençant par une moto, une voiture, un camion faisant marche arrière, tout était là ! Heureusement, nous avons tout enregistré avec [un] smartphone », a-t-il ajouté. La vidéo commence en montrant la Tesla qui se dirige vers la calèche blanche transportant deux personnes et le système suggère instantanément qu'il s'agit d'un grand semi-remorque. Mais ensuite, le semi-remorque numérique disparaît de l'écran et un piéton apparaît, mais personne ne se trouvait réellement sur la route. Le semi-remorque réapparaît à l'écran, mais se déplace cette fois-ci vers l'arrière et sur les côtés.

Selon certains commentateurs, cela leur a donné des "vibrations de Destination finale". Pour rappel, "Destination finale" est une série de films qui se concentre sur un groupe de personnes qui tentent d'éviter la mort et dans le deuxième film, un semi-remorque transportant des rondins de bois a causé des morts en masse sur une autoroute. L'Autopilot est conçu pour détecter les véhicules, les piétons et d'autres objets à proximité de la voiture, et prendre des mesures d'évitement si nécessaire. Cependant, il n'est pas certain que les concepteurs d'Autopilot aient inclus une calèche parmi les véhicules que le système peut détecter.

Plusieurs commentateurs de la vidéo se moquent du manque de précision de l'Autopilot, car Elon Musk, PDG de Tesla, vante régulièrement le système comme étant l'un des plus sophistiqués. Mais la technologie n'a pas encore tenu une seule des promesses répétées de Musk depuis des années et a entraîné le rappel de nombreux véhicules Tesla. En février, l'entreprise a rappelé près de 54 000 voiture et SUV parce qu'une mise à jour de l'Autopilot leur permettait de franchir des panneaux d'arrêt sans s'arrêter complètement. Mais cet incident n'est pas isolé. Par le passé, Tesla a rappelé d'autres véhicules après une mise à jour défectueuse de l'Autopilot.

En avril, une vidéo "profondément troublante" a montré une Tesla avec l'Autopilot activé écrasant un mannequin de taille enfantine lors d'un test effectué par un groupe de défense de la sécurité. Selon les testeurs, le véhicule n'aurait pas détecté la présence du mannequin immobile sur la route. Le système l'aurait percuté à plusieurs reprises à une vitesse moyenne de 40 km/h. Les défenseurs de la sécurité se plaignent que Tesla ne devrait pas être autorisée à tester ses véhicules sur des routes publiques avec des conducteurs non formés, et que l'Autopilot peut mal fonctionner, exposant ainsi les autres usagers au danger.

La plupart des constructeurs automobiles disposant d'un logiciel similaire effectuent leurs tests avec des conducteurs formés à la sécurité. Jusqu'ici, l'Autopilot semble avoir du mal à identifier les motocyclistes et les véhicules de secours. Depuis janvier 2018, la National Highway Traffic Safety Administration (NHTSA) des États-Unis a signalé plus d'une dizaine de cas d'accidents dans lesquels des véhicules Tesla avec l'Autopilot activé se sont écrasés contre des véhicules de secours ou de police en stationnement. Cette année, des véhicules Tesla en mode Autopilot ont percuté par l'arrière des motocyclistes, tuant leurs conducteurs.

La NHTSA enquête actuellement sur ce problème des véhicules Tesla. Le régulateur américain cherche à savoir si l'Autopilot est capable d'identifier correctement les motocyclistes et les véhicules de secours le jour comme la nuit. Toutefois, malgré ces mésaventures, Tesla continue de faire la publicité de son système et a même récemment décidé d'augmenter le prix de l'option Full Self-Driving (FSD). Tesla a annoncé que le FSD va coûter 15 000 dollars en Amérique du Nord à partir du 5 septembre, contre 12 000 dollars actuellement. L'entreprise a augmenté le prix de son logiciel plus de trois fois en moins de deux ans.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la difficulté de l'Autopilot à identifier la calèche ?
Que pensez-vous de l'augmentation du prix du FSD malgré les inquiétudes autour de la technologie ?

Voir aussi

Tesla augmente le prix de son logiciel Full Self-Driving qui va passer à 15 000 $ dès le 5 septembre, soit une augmentation de 3 000 $

Tesla fait face à de nouvelles enquêtes sur les décès de motocyclistes et la publicité mensongère, les véhicules Tesla semblent avoir du mal à reconnaître les motocyclistes et les piétons

Le mode Full Self-Driving de Tesla a tellement énervé cet homme qu'il se présente au Sénat, Dan O'Dowd est mécontent du fait que le logiciel bêta de Tesla soit testé sur la voie publique

Un véhicule Tesla avec l'Autopilot activé percute une moto sur l'autoroute et tue le conducteur, l'accident remet à nouveau en cause la fiabilité du système d'aide à la conduite de Tesla

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
9  0 
Avatar de Doatyn
Membre habitué https://www.developpez.com
Le 22/08/2022 à 17:07
C'est de la folie de mettre de tels systèmes défaillants sur la voie publique, presque criminel.
Quand je vois la sécurité qui est exigé pour des transports autonomes en site propre, tel que des métros ou des téléphériques, ... Tesla n'aurais jamais la moindre autorisation.
10  2 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/08/2022 à 11:24
La vraie question intéressante à mon sens est la suivante:

Est-ce que les USA appliquent une loi "Musk"?

Alors qu'un simple café-restaurant américain peut se voir condamner à des millions de dollar d'amende pour un client qui se serait brûlé la langue en buvant un café servi trop chaud, Tesla qui est déjà responsable de plusieurs dizaines de morts avec son pseudo auto-pilote n'est jamais inquiété.

Et devinez quoi? Pas une seule condamnation, pas un seul juge pour prononcer une interdiction de poursuivre des essais sur route qui ne sont d'ailleurs plus des essais puisque réalisés dans la circulation normale par des clients lambda.
10  2 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 17/10/2023 à 23:40
Citation Envoyé par Ryu2000 Voir le message
Ben justement...

Pilote automatique

Autopilot ça ne veut pas dire que ça se conduit tout seul.
Tu mets la définition de "autopilot", mais pourquoi pas la définition de "Full Self-Driving"?
Non, parce qu'il parle de ça aussi. Littéralement "Conduite autonome complète/totale"...

Tesla aurait appelé ça "Self-driving", encore, on aurait pu chipoter, et faire comme tous les constructeurs et parler de niveau 1, 2, 3, 4, 5. Mais là, c'est du foutage de gueule.
Je ré-itère: cet ingénieur est soit un menteur, soit quelqu'un qui devrait ouvrir un dictionnaire.
7  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 18/10/2023 à 22:34
Citation Envoyé par Ryu2000 Voir le message
Ça ne parle pas que de Full Self-Driving ça parle aussi d'Autopilot !
Et autopilot ça ne veut pas dire que ça se conduit tout seul.
C'est un dialogue de sourds

Citation Envoyé par Ryu2000 Voir le message
Pour Full Self-Driving je ne sais pas.
Bon après Tesla aurait du choisir des expressions plus précise pour que les gens comprennent que la voiture ne se conduit pas toute seule.
Quand une entreprise te vend son accès bêta sous le nom de Full Self-Driving, je pense que c'est fait exprès.
7  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
6  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/07/2023 à 23:21
Je ne suis pas un fan de Musk, mais là franchement, il y a de quoi se marrer.

La totalité, je dis bien la totalité des fabricants de voiture falsifient la consommation réelle de leur véhicules!

Les acteurs du secteur automobile se sont mis d'accord pour établir un test de roulement pour établir la consommation moyenne au 100 km qui ne correspond en rien à l'usage normal d'une voiture... Le test a été établi pour s'assurer que la consommation au 100 km soit très inférieure à la réalité.

Tout le monde en a d'ailleurs fait la constatation: Vous achetez un voiture écolo qui indique une consommation de 4,5 litres au 100km? Quand vous vérifiez votre consommation, il s'avère que vous frôlez les 10 litres/100km. Facile ensuite pour votre concessionnaire de vous dire "Mais monsieur, madame, vous avez un usage de votre véhicule qui ne correspond pas à un usage moyen, vous faites trop de trajets en ville ou roulez trop vite sur autoroute".

Idem pour l'autonomie des véhicules électriques, l'autonomie annoncée ne correspond jamais à la réalité "Mais monsieur, madame, vous faites trop de dénivelés... Vous roulez de manière trop sportive, blablabla..."

Et je ne parle pas de la période hivernale, un jour de grand froid et l'autonomie officiellement annoncée est divisée par 2 et puis et puis... Très vite, vous êtes confronté à l'usure de vos batteries dont la capacité de charge baisse de mois en mois...
9  3 
Avatar de totozor
Membre expert https://www.developpez.com
Le 28/11/2022 à 11:21
Citation Envoyé par Nancy Rey Voir le message
Que pensez-vous du FSD ? Les utilisateurs devraient-ils être autorisés à tester les versions bêta du FSD sur les routes ? Le logiciel devrait-il être interdit ?
Comment appréciez-vous les progrès technologiques en matière de véhicules autonomes ? Quelles sont les entreprises qui se démarquent selon vous ?
Je pense qu'il est regrettable que le plus gros obstacle à la mise en circulation d'un projet automobile peu abouti est un projet privé. Et qu'il faille passer par ce genre de lobbying pour éviter des morts.
Ils ont aussi une communication efficace, ils attaquent par la corde la plus sensible : la sécurité des enfants. Mais je suis même surpris que Tesla ne soit pas allé plus loin sur le sujet. Le premier enfant qui meure à cause du système pourrait provoquer la fin pure et simple du FSD, d'autant plus quand on voit le manque de délicatesse de communication de Musk.
On analyse trop les clés de réussite pas assez les clés d'échec.

Je pense que le FSD ne devrait être mis sur les routes qu'avec des pilotes professionnels ayant connaissances complètes de ce qu'ils font. Cette phase de test ne devrait pas être réalisé par des amateurs, d'autant plus des clients qui ont payé ce gadget, et le considèrent comme tel.
5  0