IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Autopilote : Tesla impliqué dans une nouvelle collision,
Une berline en mode pilote automatique s'est écrasée sur un véhicule de police

Le , par Stan Adkens

596PARTAGES

10  1 
Une berline Tesla en mode Pilote automatique a heurté un véhicule du Département de Police Laguna Beach


Pour rappel, deux groupes de défense de consommateurs accusaient Tesla Inc. de tenir des affirmations promotionnelles trompeuses concernant la sécurité et la capacité d'assistance au conducteur de sa technologie d’autopilotage et réclamaient que la FTC (Federal Trade Commission) mène une enquête à ce propos.

Tesla, dont la fonction d'assistance pilotage automatique a fait l'objet d'un examen minutieux à la suite des précédentes collisions, est encore impliqué dans un nouvel accident.

En effet, le système de pilotage automatique de Tesla a déjà fait des victimes précédentes. Un pilote de Tesla dans l'Utah s'est écrasé en utilisant le pilote automatique tout en regardant son téléphone le 14 de ce mois-ci. Deux accidents mortels ont également eu lieu pendant l'utilisation du système : l’un en Californie en mars cette année et un autre en 2016 en Floride.

Le système de pilotage automatique de Tesla Inc. utilise un radar, des caméras avec une visibilité à 360 degrés et des capteurs pour détecter les voitures et les objets à proximité. Il est construit de sorte que les voitures changent automatiquement de voie, garent ou freinent pour éviter les collisions.

Cependant, le système n’a pas tenu promesse ce mardi 29 mai lorsqu’une berline Tesla en mode pilotage automatique s'est écrasée dans un véhicule du Département de Police de Laguna Beach, a rapporté Los Angeles Times.

C’est le mardi matin que la collision a eu lieu à la rue 20652 Laguna Canyon, selon le Sergent Jim Cota de la police de Laguna Beach. . L'officier n'était pas dans la voiture de police au moment de l'accident. Le conducteur de Tesla a subi des blessures mineures, mais a refusé d’être transporté à l'hôpital.

« Heureusement, il n'y avait pas d’officiers dans la voiture de police, en ce moment-là », a déclaré Cota. « La voiture de police est endommagée. », a-t-il ajouté. L’officier a ensuite rappelé qu'il y a un an de cela, dans la même zone, il y a eu une autre collision impliquant un semi-camion Tesla.

Toutefois, le constructeur a, à plusieurs reprises, averti les conducteurs de rester vigilants, de garder les mains sur le volant et de garder le contrôle de leur véhicule à tout moment pendant l'utilisation du système d’autopilotage.

« Tesla a toujours été clair que la fonction d’autopilotage ne rend pas la voiture imperméable à tous les accidents, et avant qu'un conducteur puisse utiliser cette fonction, il doit accepter une boîte de dialogue qui stipule que la fonction autopilote est conçue pour une utilisation sur les autoroutes qui ont un séparateur de voies », a déclaré un porte-parole de Tesla dans une déclaration envoyée par courrier électronique, selon le magazine.

Source : Los Angeles Times

Et vous ?

Que pensez-vous de ces accidents récurrents impliquant le système d’autopilotage de Tesla Inc. ?
Quel est l’avantage du système d’autopilotage si le pilote doit garder les mains sur le volant et avoir toute son attention en éveil ?
Autopilotage est juste un régulateur de vitesse avancé. Que pensez-vous de cette affirmation ?

Voir aussi

Pilotage automatique : la société Tesla accusée de discours marketing trompeurs, les groupes de défense des consommateurs appellent la FTC à enquêter
Autopilot : le département US des transports renonce à poursuivre Tesla, n'ayant identifié aucun défaut dans le système de pilotage automatique

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de plegat
Expert éminent https://www.developpez.com
Le 31/05/2018 à 17:03
Pas la peine de se chamailler...

Si on va voir sur Gogole Maps où ça s'est passé, qu'Est-ce qu'on voit?



Et du coup on comprend mieux l'intelligence du système... l'IA a suivi la flèche... c'est tout con... je ne vois pas d'autre explication ( (c) Eric et Ramzy)
8  0 
Avatar de tola4269
Membre du Club https://www.developpez.com
Le 31/05/2018 à 6:16
Apparemment on peut barder une voiture avec des milliers de dollars de capteurs, calculateurs, caméras mais SEUL l'Homme à encore un cerveau réellement adapté à tous les stimulis extérieurs. La course au "je serai le premier" va encore provoquer des accidents ou va y on revenir à plus de sagesse ? Toutes ces IA qui doivent decider à notre place ne sont pas encore nées puisqu'elles dépendent de bien plus de paramètres que ce que ne peuvent concevoir les ingénieurs actuels (Et je ne parle même pas de notre 6eme sens : l'intuition).
6  0 
Avatar de el_slapper
Expert éminent sénior https://www.developpez.com
Le 31/05/2018 à 12:17
Toutes ces aides ont un effet contre-intuitif : comme la plupart du temps ça marche, l'utilisateur, comme tout humain normalement constitué, se lasse, et pense à autre chose.

Soit il faut un système entièrement autonome, ou il n'y a ni volant ni pédales, soit on en reste à un système ou le conducteur doit rester vigilant et actif tant que le véhicule est en cours d'usage. Tous les systèmes intermédiaires ont fait preuve de leur faculté à déconcentrer les gens. Statistiquement, dire "yaka rester concentré" ne marche jamais, en ergonomie.

et comme le système entièrement autonome n'est pas encore au point, ben je dis merde à tous ces systèmes. Le jour ou une voiture aura roulé un an sur la place de l'étoile sans une égratignure, je changerais de discours. Pas avant.
6  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 31/05/2018 à 13:03
L'IA est un mythe vendu à toutes les sauces... Le vrai problème est qu'à l'heure actuelle une IA peut avoir des comportements totalement inappropriés sans que les experts en IA en connaissent vraiment la cause...

Je conseille la lecture du dernier Science&Vie qui explique de manière vulgarisée le problème en question. En gros:
1° tu apprends à une IA à reconnaitre une orange
2° tu prends une photo d'orange et tu lui changes 2 à 3 pixels
3° tu présentes la photo modifiée à l'IA

Résultat: Alors que l'être humain va reconnaitre l'orange sans même percevoir la modification des pixels, l'IA va dire que la photo représente un hélicoptère, une souris ou n'importe quoi d'autres alors que c'est toujours une photo d'orange!

Le vrai problème vient que l'IA décide d'elle-même quels sont les critères qu'elle utilise pour dire qu'il s'agit d'une orange sans que l'humain puisse l'influencer.
  • L'humain va avoir tendance à dire "orange = un objet rond de couleur orange avec une surface plus ou moins lisse" et prendre en compte l'environnement "l'objet est sur une table à côté d'une banane" donc c'est une orange à 99,9%
  • L'IA va peut être décider que l'on a une orange si 3 pixels précis de la photo sont de couleur orange ou un critère qui n'a rien de commun avec le fruit: par exemple, si lors de l'apprentissage, toutes les photos représentant une orange avaient une caractéristique particulière (exemple l'orange posée dans une assiette de couleur bleue), la couleur bleue de l'assiette pourrait très bien être considérée par l'IA comme un critère de reconnaissance d'une orange!
6  0 
Avatar de el_slapper
Expert éminent sénior https://www.developpez.com
Le 31/05/2018 à 15:09
Citation Envoyé par Rokhn Voir le message
(.../...)C'est juste que, comme d'habitude, les utilisateurs ne se servent pas des outils dans le cadre ou ils ont été conçus.
oh, les utilisateurs sont des humains, quelle mauvaise surprise..... enfin, nous sommes des professionnels, nous en avons tous croisés. Et nous en avons tous été probablement, sans même nous en rendre compte. La base de l'érgonomie, c'est quand même de s'adapter à l'humain, pas de demander à l'humain de s'adapter. Ca ne marche jamais, sinon.
6  0 
Avatar de transgohan
Expert éminent https://www.developpez.com
Le 31/05/2018 à 7:51
Donc si le policier n'était pas dans la voiture, vu la configuration c'est qu'elle était garée.
Que la route fait un T et que la Tesla avait donc devant elle des places de parkings...
Et elle aurait filé droit au lieu de tourner ? Bon... Le GPS est perdu, ok... Cela arrive.
Mais ne pas se soucier de ses capteurs de proximité ? C'est un peu la base...
Cela sent le gros freeze de système, ou bien leur IA est sérieusement à craindre dans ses décisions si elle a cru que c'était un véhicule roulant en cours d'accélération...

Edit : en regardant de plus près la photo on dirait plutôt que la voiture l'a touché à l'arrière gauche ?
Auquel cas elle s'est prise une voiture en stationnement à droite de sa voie.
N'importe quel capteur de proximité aurait du ordonner un coup de volant...
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 31/05/2018 à 9:57
Citation Envoyé par Stan Adkens  Voir le message
Tesla a toujours été clair que la fonction d’autopilotage ne rend pas la voiture imperméable à tous les accidents, et avant qu'un conducteur puisse utiliser cette fonction, il doit accepter une boîte de dialogue qui stipule que la fonction autopilote est conçue pour une utilisation sur les autoroutes qui ont un séparateur de voies, a déclaré un porte-parole de Tesla dans une déclaration envoyée par courrier électronique, selon le magazine.

Donc, c'est un usage abusif de l'autopilotage. Et donc la responsabilité en revient au conducteur et non à Tesla ou à son système.
3  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 08/06/2018 à 15:31
Citation Envoyé par Stan Adkens Voir le message
Le système de pilotage automatique de Tesla a déjà fait quatre victimes
C'est la définition d'un tueur en série.

Citation Envoyé par Stan Adkens Voir le message
Au lieu de fournir les rapports d’accidents aux conducteurs eux-mêmes, Tesla les transmet aux médias en leur fournissant des détails dès lors que le conducteur indexe sa technologie comme défaillante.
Normal. Risquer de couler la société et mettre des milliers de personnes au chômage c'est bien plus grave que la mort, regrettable, d'un alcoolique bénéficiaire du RSA. Soyons réalistes.

Citation Envoyé par Stan Adkens Voir le message
accident mortel de Wei Huang, ingénieur à Apple
Pas une grosse perte.

Citation Envoyé par Stan Adkens Voir le message
La société s’est empressée de divulguer les données sur l’accident avant même de présenter ses condoléances
Les condoléances, c'est pour l'apéro à la suite de l'enterrement. Je ne vois pas de contre-indication.

Citation Envoyé par Stan Adkens Voir le message
D’après Tesla, les mains du conducteur n'ont pas été détectées sur le volant pendant six secondes
Défense curieuse ceci dit. Autonome ou pas, alors, leur système ? Est-ce qui je me gratte l'arrière-train pendant 5 secondes en mode pilote automatique et qu'un accident se produit durant cet intervalle, c'est de ma faute ou celle de Tesla ?

Citation Envoyé par Stan Adkens Voir le message
En effet, la remise de données aux pilotes serait accordée suite à une décision de justice qu’ils devront acquérir et présenter à la société.
Ils ont en rien à faire, les pilotes puisqu'ils sont morts à ce stade. Difficile de porter plainte en étant attaché et léché par les flammes en Enfer.

Citation Envoyé par Stan Adkens Voir le message
Je n'ai ni le temps ni l'argent à gaspiller à aller en justice contre une compagnie de cette taille
Cela confirme mon point de vue. On peut tout acheter avec de l'argent, même du silence et une conscience.

Citation Envoyé par Stan Adkens Voir le message
J'ai littéralement poussé les freins avec mes deux pieds [...]. Nous avons déterminé que [...] la pédale d'accélérateur a été pressée manuellement par le conducteur immédiatement avant l'accident
Donc en gros le conducteur a confondu frein et accélérateur ?

Mais faut reconnaître, c'est qui le CON qui a mis les deux pédales côte à côte ? Faut pas être une lumière pour se rendre compte que cela pourrait poser problème une ergonomie aussi moisie, même un siècle après.
5  2 
Avatar de plegat
Expert éminent https://www.developpez.com
Le 15/06/2018 à 16:37
Citation Envoyé par Fleur en plastique Voir le message

Mais faut reconnaître, c'est qui le CON qui a mis les deux pédales côte à côte ? Faut pas être une lumière pour se rendre compte que cela pourrait poser problème une ergonomie aussi moisie, même un siècle après.
Bah si tu veux appuyer dessus avec le même pied, faut éviter de mettre 1m50 entre les deux pédales... et puis ça évite aussi d'avoir des bagnoles de 4m de large (quoique...). M'est d'avis que le plus gros problème d'ergonomie, c'est plutôt la distance entre deux neurones du conducteur...
1  0 
Avatar de ddoumeche
Membre extrêmement actif https://www.developpez.com
Le 19/06/2018 à 6:14
Citation Envoyé par el_slapper Voir le message
Toutes ces aides ont un effet contre-intuitif : comme la plupart du temps ça marche, l'utilisateur, comme tout humain normalement constitué, se lasse, et pense à autre chose.

Soit il faut un système entièrement autonome, ou il n'y a ni volant ni pédales, soit on en reste à un système ou le conducteur doit rester vigilant et actif tant que le véhicule est en cours d'usage. Tous les systèmes intermédiaires ont fait preuve de leur faculté à déconcentrer les gens. Statistiquement, dire "yaka rester concentré" ne marche jamais, en ergonomie.
Et comme un système 100% autonome ne sera jamais fiable et que le constructeur n'acceptera pas que sa responsabilité puisse être mise en cause à grande échelle (ce qui serait suicidaire avec une armée de bombes potentielles sur les routes), il doit obliger le conducteur à rester vigilant constamment.
Ce qui retire toute utilité au bidule d'autant que si tu ne conduit pas toi-même activement, tes réflexes et tes capacités de conduite s'émoussent. Tu deviendras donc incapable de réagir en cas d’événement fortuit, et Telsa te vend donc un système qui te rend dépendant ... et vulnérable. A moins d'en faire un assistant à la sécurité active pour effectivement éviter une queue de poisson ou un motard que tu n'as pas vu parce que le conducteur humain comme le système électronique n'est pas fiable à 100%.
1  0