Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Pilotage automatique : la société Tesla accusée de discours marketing trompeurs
Les groupes de défense des consommateurs appellent la FTC à enquêter

Le , par Stan Adkens

141PARTAGES

12  0 

Un homme est mort suite à un accident grave de circulation. Une Tesla de la gamme Model X a percuté une glissière de sécurité en béton sur une autoroute, le 23 mars dernier, en Californie. Le conducteur est décédé plus tard à l’hôpital après avoir signalé que l'autopilotage du véhicule Model X de Tesla était enclenché lors de l'accident. Ce qui complète le nombre de morts par accident en utilisant l’autopilotage de Tesla à deux, un accident en 2016 et le second en mars dernier.


Deux groupes de défense des consommateurs disent que les affirmations promotionnelles de Tesla Inc. concernant la sécurité et la capacité d'assistance au conducteur de sa technologie d’autopilotage sont trompeuses et veulent que la FTC (Federal Trade Commission) des États-Unis enquête.

« Deux Américains sont morts et un est blessé parce que Tesla a trompé les consommateurs en leur faisant croire que la fonction autopilotage de ses véhicules est plus sûre et plus efficace qu'elle ne le semble en réalité », Center for Auto Safety et Consumer Watchdog ont écrit dans une lettre mercredi à Joseph Simons, président de la FTC. Selon eux, les discours marketing de Tesla ainsi que ceux faits par son directeur général Elon Musk ont fait prendre confiance aux utilisateurs qui ont considéré qu'une Tesla avec autopilotage est un véhicule autonome capable de conduire.

Toutefois, les manuels des propriétaires de Tesla contiennent plusieurs avertissements concernant les limitations du pilotage automatique. Le site web Autopilotage indique également ne pas être sûr de la disponibilité de toutes les fonctions d'autoconduite décrites sur la page des conducteurs en raison de la validation du logiciel et des approbations réglementaires requises, selon l'entreprise.

« Les commentaires que nous recevons de nos clients montrent qu'ils ont une très bonne compréhension de ce qu'est le pilote automatique, comment l'utiliser correctement et de quelles caractéristiques il est constitué », a déclaré un porte-parole de Tesla dans un e-mail.

Cependant, les groupes trouvent que la déclaration marketing de Tesla contraste avec le contenu du guide utilisateur et le contenu du site Web de Tesla. Par ailleurs, dans une vidéo sur la page Web, il est dit ceci, dès lors que le véhicule détecte la présence d’un passager à bord : « La personne assise n'est là que pour des raisons légales. Elle ne fait rien. La voiture se conduit elle-même. »

Un porte-parole de la FTC a refusé de dire si l'agence enquêterait, mais a déclaré que l'agence prend toute cette correspondance au sérieux.

Source : Los Angeles Times, Bloomberg

Et vous ?

Que pensez-vous de la technologie d’autopilotage de véhicule ?
La voiture autonome est-elle déjà sûre ?
Sinon, pourrait-elle l’être dans un avenir immédiat ?

Voir aussi

Voiture autonome : Apple revoit ses plans et signe un partenariat avec Volkswagen, pour la construction des versions auto-conduites du T6 Transporte
Uber va arrêter les tests de sa voiture autonome « indéfiniment » en Californie, en Pennsylvanie et à Toronto, après l'accident mortel d'Arizona

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de plegat
Expert éminent https://www.developpez.com
Le 31/05/2018 à 17:03
Pas la peine de se chamailler...

Si on va voir sur Gogole Maps où ça s'est passé, qu'Est-ce qu'on voit?



Et du coup on comprend mieux l'intelligence du système... l'IA a suivi la flèche... c'est tout con... je ne vois pas d'autre explication ( (c) Eric et Ramzy)
8  0 
Avatar de Rokhn
Membre actif https://www.developpez.com
Le 25/05/2018 à 11:32
Woaw ! Du bruit pour rien, comme d'habitude....

Tesla va faire plaisir à tout le monde : Changer "pilote automatique" pour "assistant de conduite automatique"...

Alors j'suis d'accord, y'a abus de langage sur le terme "pilote automatique". C'est sûr que si tu t'attends à une voiture autonome 100% comme dans les films de SF t'es mal barré :/

Les gens n'ont pas encore compris que pour le moment les voitures 100% autonomes n’existent pas encore pour le grand public & même si un jour elles sont vendues, les constructeurs diront : "Restez tout de même vigilants derrière le volant, on sait jamais".

La voiture ou on dit : "Retourne à la maison" & on s'allonge dans le siège pour dormir un peu est encore un doux rêve.

Par contre ceux qui disent que "l'assistant de conduite automatique" est dangereux, je vous invite à regarder des vidéos dans lesquels il esquive des accidents voir les anticipes, c'est impressionnant :
6  0 
Avatar de tola4269
Membre à l'essai https://www.developpez.com
Le 31/05/2018 à 6:16
Apparemment on peut barder une voiture avec des milliers de dollars de capteurs, calculateurs, caméras mais SEUL l'Homme à encore un cerveau réellement adapté à tous les stimulis extérieurs. La course au "je serai le premier" va encore provoquer des accidents ou va y on revenir à plus de sagesse ? Toutes ces IA qui doivent decider à notre place ne sont pas encore nées puisqu'elles dépendent de bien plus de paramètres que ce que ne peuvent concevoir les ingénieurs actuels (Et je ne parle même pas de notre 6eme sens : l'intuition).
6  0 
Avatar de el_slapper
Expert éminent sénior https://www.developpez.com
Le 31/05/2018 à 12:17
Toutes ces aides ont un effet contre-intuitif : comme la plupart du temps ça marche, l'utilisateur, comme tout humain normalement constitué, se lasse, et pense à autre chose.

Soit il faut un système entièrement autonome, ou il n'y a ni volant ni pédales, soit on en reste à un système ou le conducteur doit rester vigilant et actif tant que le véhicule est en cours d'usage. Tous les systèmes intermédiaires ont fait preuve de leur faculté à déconcentrer les gens. Statistiquement, dire "yaka rester concentré" ne marche jamais, en ergonomie.

et comme le système entièrement autonome n'est pas encore au point, ben je dis merde à tous ces systèmes. Le jour ou une voiture aura roulé un an sur la place de l'étoile sans une égratignure, je changerais de discours. Pas avant.
6  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 31/05/2018 à 13:03
L'IA est un mythe vendu à toutes les sauces... Le vrai problème est qu'à l'heure actuelle une IA peut avoir des comportements totalement inappropriés sans que les experts en IA en connaissent vraiment la cause...

Je conseille la lecture du dernier Science&Vie qui explique de manière vulgarisée le problème en question. En gros:
1° tu apprends à une IA à reconnaitre une orange
2° tu prends une photo d'orange et tu lui changes 2 à 3 pixels
3° tu présentes la photo modifiée à l'IA

Résultat: Alors que l'être humain va reconnaitre l'orange sans même percevoir la modification des pixels, l'IA va dire que la photo représente un hélicoptère, une souris ou n'importe quoi d'autres alors que c'est toujours une photo d'orange!

Le vrai problème vient que l'IA décide d'elle-même quels sont les critères qu'elle utilise pour dire qu'il s'agit d'une orange sans que l'humain puisse l'influencer.
  • L'humain va avoir tendance à dire "orange = un objet rond de couleur orange avec une surface plus ou moins lisse" et prendre en compte l'environnement "l'objet est sur une table à côté d'une banane" donc c'est une orange à 99,9%
  • L'IA va peut être décider que l'on a une orange si 3 pixels précis de la photo sont de couleur orange ou un critère qui n'a rien de commun avec le fruit: par exemple, si lors de l'apprentissage, toutes les photos représentant une orange avaient une caractéristique particulière (exemple l'orange posée dans une assiette de couleur bleue), la couleur bleue de l'assiette pourrait très bien être considérée par l'IA comme un critère de reconnaissance d'une orange!
6  0 
Avatar de el_slapper
Expert éminent sénior https://www.developpez.com
Le 31/05/2018 à 15:09
Citation Envoyé par Rokhn Voir le message
(.../...)C'est juste que, comme d'habitude, les utilisateurs ne se servent pas des outils dans le cadre ou ils ont été conçus.
oh, les utilisateurs sont des humains, quelle mauvaise surprise..... enfin, nous sommes des professionnels, nous en avons tous croisés. Et nous en avons tous été probablement, sans même nous en rendre compte. La base de l'érgonomie, c'est quand même de s'adapter à l'humain, pas de demander à l'humain de s'adapter. Ca ne marche jamais, sinon.
6  0 
Avatar de transgohan
Expert éminent https://www.developpez.com
Le 31/05/2018 à 7:51
Donc si le policier n'était pas dans la voiture, vu la configuration c'est qu'elle était garée.
Que la route fait un T et que la Tesla avait donc devant elle des places de parkings...
Et elle aurait filé droit au lieu de tourner ? Bon... Le GPS est perdu, ok... Cela arrive.
Mais ne pas se soucier de ses capteurs de proximité ? C'est un peu la base...
Cela sent le gros freeze de système, ou bien leur IA est sérieusement à craindre dans ses décisions si elle a cru que c'était un véhicule roulant en cours d'accélération...

Edit : en regardant de plus près la photo on dirait plutôt que la voiture l'a touché à l'arrière gauche ?
Auquel cas elle s'est prise une voiture en stationnement à droite de sa voie.
N'importe quel capteur de proximité aurait du ordonner un coup de volant...
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 31/05/2018 à 9:57
Citation Envoyé par Stan Adkens  Voir le message
Tesla a toujours été clair que la fonction d’autopilotage ne rend pas la voiture imperméable à tous les accidents, et avant qu'un conducteur puisse utiliser cette fonction, il doit accepter une boîte de dialogue qui stipule que la fonction autopilote est conçue pour une utilisation sur les autoroutes qui ont un séparateur de voies, a déclaré un porte-parole de Tesla dans une déclaration envoyée par courrier électronique, selon le magazine.

Donc, c'est un usage abusif de l'autopilotage. Et donc la responsabilité en revient au conducteur et non à Tesla ou à son système.
3  0 
Avatar de Fleur en plastique
Membre habitué https://www.developpez.com
Le 08/06/2018 à 15:31
Citation Envoyé par Stan Adkens Voir le message
Le système de pilotage automatique de Tesla a déjà fait quatre victimes
C'est la définition d'un tueur en série.

Citation Envoyé par Stan Adkens Voir le message
Au lieu de fournir les rapports d’accidents aux conducteurs eux-mêmes, Tesla les transmet aux médias en leur fournissant des détails dès lors que le conducteur indexe sa technologie comme défaillante.
Normal. Risquer de couler la société et mettre des milliers de personnes au chômage c'est bien plus grave que la mort, regrettable, d'un alcoolique bénéficiaire du RSA. Soyons réalistes.

Citation Envoyé par Stan Adkens Voir le message
accident mortel de Wei Huang, ingénieur à Apple
Pas une grosse perte.

Citation Envoyé par Stan Adkens Voir le message
La société s’est empressée de divulguer les données sur l’accident avant même de présenter ses condoléances
Les condoléances, c'est pour l'apéro à la suite de l'enterrement. Je ne vois pas de contre-indication.

Citation Envoyé par Stan Adkens Voir le message
D’après Tesla, les mains du conducteur n'ont pas été détectées sur le volant pendant six secondes
Défense curieuse ceci dit. Autonome ou pas, alors, leur système ? Est-ce qui je me gratte l'arrière-train pendant 5 secondes en mode pilote automatique et qu'un accident se produit durant cet intervalle, c'est de ma faute ou celle de Tesla ?

Citation Envoyé par Stan Adkens Voir le message
En effet, la remise de données aux pilotes serait accordée suite à une décision de justice qu’ils devront acquérir et présenter à la société.
Ils ont en rien à faire, les pilotes puisqu'ils sont morts à ce stade. Difficile de porter plainte en étant attaché et léché par les flammes en Enfer.

Citation Envoyé par Stan Adkens Voir le message
Je n'ai ni le temps ni l'argent à gaspiller à aller en justice contre une compagnie de cette taille
Cela confirme mon point de vue. On peut tout acheter avec de l'argent, même du silence et une conscience.

Citation Envoyé par Stan Adkens Voir le message
J'ai littéralement poussé les freins avec mes deux pieds [...]. Nous avons déterminé que [...] la pédale d'accélérateur a été pressée manuellement par le conducteur immédiatement avant l'accident
Donc en gros le conducteur a confondu frein et accélérateur ?

Mais faut reconnaître, c'est qui le CON qui a mis les deux pédales côte à côte ? Faut pas être une lumière pour se rendre compte que cela pourrait poser problème une ergonomie aussi moisie, même un siècle après.
5  2 
Avatar de plegat
Expert éminent https://www.developpez.com
Le 15/06/2018 à 16:37
Citation Envoyé par Fleur en plastique Voir le message

Mais faut reconnaître, c'est qui le CON qui a mis les deux pédales côte à côte ? Faut pas être une lumière pour se rendre compte que cela pourrait poser problème une ergonomie aussi moisie, même un siècle après.
Bah si tu veux appuyer dessus avec le même pied, faut éviter de mettre 1m50 entre les deux pédales... et puis ça évite aussi d'avoir des bagnoles de 4m de large (quoique...). M'est d'avis que le plus gros problème d'ergonomie, c'est plutôt la distance entre deux neurones du conducteur...
1  0