Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA n'avait aucune idée de ce qu'est un piéton traversant la chaussée au niveau d'un point de passage inapproprié
Conclu le NTSB dans un rapport sur l'accident mortel ayant impliqué un véhicule Uber

Le , par Christian Olivier

18PARTAGES

7  0 
En mars 2018, un véhicule autonome d’Uber a été impliqué dans un accident qui a coûté la vie à une piétonne aux États-Unis. L’accident s’est déroulé dans la ville de Tempe, dans l’Arizona, où Uber teste ses voitures autonomes. Les autorités locales ont identifié la victime comme étant Elaine Herzberg, âgée de 49 ans. Selon la police de Tempe, l’accident « s’est produit pendant la nuit sur Mill Avenue juste au sud de Curry Rd ». Herzberg poussait sa bicyclette de l’autre côté de la rue quand le véhicule Uber qui se dirigeait vers le nord l’a heurtée. Au moment de l’accident, la voiture était en mode entièrement autonome, bien qu’un conducteur humain était présent.


La cause de cet accident mortel engendré par un véhicule Uber semblait être due à une défaillance au niveau du logiciel embarqué, plus précisément à une fonction qui détermine quels objets ignorer ou surveiller. En effet, les capteurs installés sur ce type de véhicule sont censés détecter et générer des alertes si la présence d’un piéton au milieu de la route est signalée. Ce qui permet de déclencher le processus de freinage d’urgence. Dans la foulée, la société a décidé de suspendre son programme de circulation de voitures sans conducteur à Phoenix, à Pittsburgh, à San Francisco et à Toronto, assurant qu’il s’agissait là d’une procédure standard.

Un rapport officiel publié cette semaine par le National Safety Transportation Board (NTSB) - l’agence américaine indépendante qui est responsable des enquêtes sur les accidents aéronautiques, routiers, maritimes, ferroviaires et ceux concernant les pipelines - apporte de nouvelles précisions quant aux causes réelles à l’origine de cette tragédie. Il indique que la voiture d’Uber impliqué dans cet accident n’était pas conçue pour détecter « les piétons qui traversent illégalement la chaussée ».


L’enquête du NTSB a montré que le logiciel embarqué n’avait pas réussi à identifier la victime comme une piétonne, car elle n’était pas au niveau d’un point de passage clairement désigné. La voiture n’a pas non plus réussi à anticiper correctement les mouvements de la victime en tant que personne se déplaçant sur la route et a fini par la heurter directement. Les systèmes de vision par ordinateur des voitures autonomes sont formés pour identifier les éléments de leur environnement proche, comme les autres véhicules, les arbres, les poteaux de signalisation, les bicyclettes… et prendre des décisions sur ce qu’il faut faire ensuite en utilisant ces informations. Il semble que le logiciel d’Uber n’a pas été en mesure d’identifier Herzberg puisqu’il n’y avait pas d’étiquette de classification pour une personne n’utilisant pas un point de passage approprié et qu’il n’était pas en mesure de prendre les bonnes décisions.

Le rapport précise que « la conception du système ne tenait pas compte des piétons qui traversent illégalement la chaussée » et le logiciel était « incapable de prédire correctement le parcours » de la victime. Le système a plus ou moins ignoré la victime et l’a initialement considéré comme un objet immobile qui n’était pas, ou seulement partiellement, sur sa route et qui ne gênerait pas le passage du véhicule. À peine 1,2 seconde avant l’accident, le véhicule l’a identifiée non seulement comme une bicyclette, mais aussi clairement comme un obstacle sur son chemin. Il était malheureusement déjà trop tard. Si la voiture d’Uber avait correctement identifié Elaine Herzberg plus tôt comme une personne traversant la rue, elle aurait peut-être pu ralentir considérablement ou essayer de l’éviter d’une autre manière. Mais le véhicule n’a pas anticipé la collision parce que, la plupart du temps, il a considéré Elaine Herzberg comme un objet inconnu qui n’était pas sur le chemin. Il faut également préciser que le système de freinage d’urgence du véhicule avait été délibérément désactivé parce que lorsqu’il était mis en marche, le véhicule agissait de façon erratique, selon Uber. Le document suivant produit par le NTSB retrace la prise de décision et la vitesse de la voiture dans les secondes qui ont précédé l’accident :


Le NTSB a aussi publié plus de 40 documents totalisant au moins 430 pages avec divers éléments de preuve à l’appui et des comptes rendus détaillés sur des sujets comme les propriétés du véhicule et la culture de sécurité interne chez Uber. Il révèle en outre que les voitures autonomes du groupe ont été impliquées dans 37 collisions entre septembre 2016 et mars 2018, avant l’accident mortel. Dans ces 37 incidents, toutes les voitures étaient conduites en mode autonome.

Mardi soir, un porte-parole d’Uber a déclaré : « Nous regrettons l’accident survenu en mars 2018 impliquant l’un de nos véhicules autonomes qui a coûté la vie à Elaine Herzberg. À la suite de cette tragédie, l’équipe du Groupe Uber Advanced Technologies a adopté des améliorations essentielles à son programme afin d’accorder la priorité à la sécurité ». « Nous attendons avec impatience de revoir les recommandations qu’il [le NTSB] a formulées », a-t-il ajouté.

Sources : Rapport (PDF), Autres documents fournis par le NTSB

Et vous ?

Qu’en pensez-vous ?

Voir aussi

« L'intelligence artificielle n'existe pas et la voiture autonome n'existera jamais », selon un expert en IA
Uber arrête définitivement son activité de voiture autonome en Arizona après l'accident mortel de mars et amorce une procédure de licenciements
La police a diffusé la vidéo de la collision du véhicule autonome d'Uber qui a causé la mort d'une piétonne dans la nuit de dimanche
Accident Uber : les capteurs du véhicule étaient fonctionnels, mais il y avait un problème logiciel d'après l'enquête préliminaire du NTSB

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de transgohan
Expert éminent https://www.developpez.com
Le 07/11/2019 à 13:47
Bref... Si vous comptez traverser en dehors des passages à piétons, armez vous d'une bombe blanche pour le dessiner en dessous de vous en traversant pour éviter d'être renversé par une voiture autonome.
5  0 
Avatar de el_slapper
Expert éminent sénior https://www.developpez.com
Le 07/11/2019 à 14:33
Et on appelle ça une IA? C'est un bête système expert, dont l'expertise est d'ailleurs limitée, semble-t-il. a partir du moment ou il ya un truc qui bouge, le système devrait réagir en conséquence. On s'en fout de ce qu'est le truc en question, d'ailleurs. Imaginez un plot de travaux qui bouge, poussé par le vent, ou que sais-je. Il faut l'éviter aussi. Tuer le plot n'est pas grave, mais le choc peut envoyer la voiture autonome(et les gens dedans) dans le décor.

Un conducteur humain qui voit un truc bouger, il se méfie. Avant même d'identifier le truc(piéton, voiture, carton poussé par le vent...). Si l'automate(je refuse à parler d'IA pour un système même pas foutu d'apprendre de ses erreurs) n'en fait pas autant, il est par définition plus vulnérable qu'un conducteur humain.
7  2 
Avatar de eldran64
Membre éprouvé https://www.developpez.com
Le 07/11/2019 à 11:54
Un objet détecté en tant que bicyclette ou piéton devrait resté identifié comme tel. Ici le système ne tiens pas en compte la 1ère identification. Il recommence à chaque cycle l'identification de "l'objet".
A mon sens c'est le manque d'historisation qui a conduit ce système à ce résultat.

Une fois qu'on a identifié une bicyclette ou un piéton sur la chaussée on doit faire ralentir le véhicule avant de dépasser l'obstacle.

Avec une vitesse moindre, et même si la bicyclette avait un comportement erratique, le système aurait éviter la collision ou tout du moins réduire les blessures sur le cycliste.
4  1 
Avatar de fredoche
Membre expert https://www.developpez.com
Le 18/11/2019 à 18:32
Juste hallucinant ce rapport
Citation Envoyé par Christian Olivier Voir le message
L'IA n'avait aucune idée de ce qu'est un piéton traversant la chaussée au niveau d'un point de passage inapproprié
Conclut le NTSB dans un rapport sur l’accident mortel ayant impliqué un véhicule Uber

[...]

Un rapport officiel publié cette semaine par le National Safety Transportation Board (NTSB) - l’agence américaine indépendante qui est responsable des enquêtes sur les accidents aéronautiques, routiers, maritimes, ferroviaires et ceux concernant les pipelines - apporte de nouvelles précisions quant aux causes réelles à l’origine de cette tragédie. Il indique que la voiture d’Uber impliqué dans cet accident n’était pas conçue pour détecter « les piétons qui traversent illégalement la chaussée ».
pas conçu pour ça ? pour un cas qui serait juste ultra-courant n'importe où dans le monde
M'enfin on écrit illégal, et dans ce cas l'illégal vaut bien la peine de mort
Citation Envoyé par Christian Olivier Voir le message

L’enquête du NTSB a montré que le logiciel embarqué n’avait pas réussi à identifier la victime comme une piétonne, car elle n’était pas au niveau d’un point de passage clairement désigné. La voiture n’a pas non plus réussi à anticiper correctement les mouvements de la victime en tant que personne se déplaçant sur la route et a fini par la heurter directement. Les systèmes de vision par ordinateur des voitures autonomes sont formés pour identifier les éléments de leur environnement proche, comme les autres véhicules, les arbres, les poteaux de signalisation, les bicyclettes… et prendre des décisions sur ce qu’il faut faire ensuite en utilisant ces informations. Il semble que le logiciel d’Uber n’a pas été en mesure d’identifier Herzberg puisqu’il n’y avait pas d’étiquette de classification pour une personne n’utilisant pas un point de passage approprié et qu’il n’était pas en mesure de prendre les bonnes décisions.
putain pas de "case else" dans mon switch case c'est con hein.
Citation Envoyé par Christian Olivier Voir le message
Le rapport précise que « la conception du système ne tenait pas compte des piétons qui traversent illégalement la chaussée » et le logiciel était « incapable de prédire correctement le parcours » de la victime. Le système a plus ou moins ignoré la victime et l’a initialement considéré comme un objet immobile qui n’était pas, ou seulement partiellement, sur sa route et qui ne gênerait pas le passage du véhicule. À peine 1,2 seconde avant l’accident, le véhicule l’a identifiée non seulement comme une bicyclette, mais aussi clairement comme un obstacle sur son chemin. Il était malheureusement déjà trop tard. Si la voiture d’Uber avait correctement identifié Elaine Herzberg plus tôt comme une personne traversant la rue, elle aurait peut-être pu ralentir considérablement ou essayer de l’éviter d’une autre manière. Mais le véhicule n’a pas anticipé la collision parce que, la plupart du temps, il a considéré Elaine Herzberg comme un objet inconnu qui n’était pas sur le chemin. Il faut également préciser que le système de freinage d’urgence du véhicule avait été délibérément désactivé parce que lorsqu’il était mis en marche, le véhicule agissait de façon erratique, selon Uber. Le document suivant produit par le NTSB retrace la prise de décision et la vitesse de la voiture dans les secondes qui ont précédé l’accident :

"malheureusement"
Malheureusement j'avais pris un apéro de plus ce soir là. Ah non en fait

Malheureusement on désactive le système qui aurait peut-être pu lui sauver la vie, parce que évidemment la conduite devient chaotique. Et qu'on a pas le temps de reprogrammer un truc qui marche mieux et qui reste prudent. Pis ça coute des ronds. Et la valeur de l'action les gars ? Non allez on passe en test réel, on verra bien ce que ça donne sans ce système de freinage d'urgence.
Citation Envoyé par Christian Olivier Voir le message
Le NTSB a aussi publié plus de 40 documents totalisant au moins 430 pages avec divers éléments de preuve à l’appui et des comptes rendus détaillés sur des sujets comme les propriétés du véhicule et la culture de sécurité interne chez Uber. Il révèle en outre que les voitures autonomes du groupe ont été impliquées dans 37 collisions entre septembre 2016 et mars 2018, avant l’accident mortel. Dans ces 37 incidents, toutes les voitures étaient conduites en mode autonome.

Mardi soir, un porte-parole d’Uber a déclaré : « Nous regrettons l’accident survenu en mars 2018 impliquant l’un de nos véhicules autonomes qui a coûté la vie à Elaine Herzberg. À la suite de cette tragédie, l’équipe du Groupe Uber Advanced Technologies a adopté des améliorations essentielles à son programme afin d’accorder la priorité à la sécurité ». « Nous attendons avec impatience de revoir les recommandations qu’il [le NTSB] a formulées », a-t-il ajouté.

[...]

Et vous ?

Qu’en pensez-vous ?
Je pense qu'on vit dans un monde de merde où des technophiles s'imaginent sans limite et tout-puissants. Alors que c'est littéralement des courges sur pattes, mais je suis sur qu'en plus ils se pensent suprêmement intelligents avec leurs beaux diplômes. Et ça a pas du empêcher grand monde d'aller en vacances en Thaïlande, faut pas déconner quand même.

J'en pense qu'il y a tellement de pognon investi là-dedans qu'on est pas prêt de dire "stop". M'enfin tout va bien désormais :
l’équipe du Groupe Uber Advanced Technologies a adopté des améliorations essentielles à son programme afin d’accorder la priorité à la sécurité
La priorité avant, c'était quoi au juste ?
3  0 
Avatar de fredoche
Membre expert https://www.developpez.com
Le 18/11/2019 à 22:07
Ils foisonnent dans ma butte de permaculture, ces vers, même si ce même Gatineau ne fait pas l’éloge du dispositif. Les limaces aussi remarque.

J'ai 4 ou 5 geais dans le jardin depuis plusieurs mois, sans compter le reste des oiseaux que je peux observer, aujourd'hui un héron par exemple. T'inquiète qu'ils ne sont pas là sans cette faune souterraine.

Oui ça me troue le cul de savoir que on fout des bagnoles comme ça sur la route, et qu'ensuite on commence à lister les cas non prévus. A se demander s'il ne faut pas être con pour être informaticien. Comme cette histoire de camion qui n'est pas censé traverser la route pour le programme de Tesla. Mais dans leur satané programme, ils n'ont pas prévu l'éventualité d'un mur. Putain un camion qui se met en portefeuille c'est un mur devant toi. Ca arrive sur les autoroutes, faut pas avoir fait le MIT pour le savoir. Quand t'as 40 tonnes au cul et que tu freines comme un malade, il y a des chances que ta cargaison ait envie de te dépasser. N'importe quel chauffeur de poids-lourd le sait

c'est même sur wikipédia, et en english en plus :
https://fr.wikipedia.org/wiki/Mise_en_portefeuille
https://en.wikipedia.org/wiki/Jackknifing

J'ose pas imaginer tout ce qu'ils ont pas prévus ces gros melons, surtout depuis que la priorité est accordée à la sécurité

Et bon dieu je sais à quoi elle était accordée avant
4  1 
Avatar de Christian_B
Membre habitué https://www.developpez.com
Le 16/11/2019 à 16:13
Citation Envoyé par CoderInTheDark
Je pense que dans ce cas à force qu'il ne se passe rien il a surestimé les capacités de la conduite autonome, et sousestimer son rôle.
Ce n'est pas facile de rester concentrer sur une tâche monotone.
j'irai même plus loin : sur une durée un peu longue, il est non seulement pénible mais pratiquement impossible de consacrer en permanence son attention à une surveillance qui normalement ne conduit à aucune décision ou action quelconque. Il y a forcément des périodes d'inattention de plus en plus en plus fréquentes. Et de toute façon avant de réaliser qu'il se passe quelque chose d'anormal, il faut qu'il se soit écoulé assez de temps pour rendre évident que l'automatisme ne fait pas ce qu'il faut. Et souvent il est alors trop tard.

Attribuer une part de responsabilité au conducteur n'est qu'une astuce des constructeurs pour essayer de minimiser leur responsabilité.

Je ne vois que deux situations où les automatismes seraient acceptables :
- si le "conducteur" conduit réellement mais l'automatisme peut entrer en jeu exceptionnellement pour pallier à une défaillance du conducteur par des mesures d'urgence. On a alors une double sécurité (humaine + informatique) et c'est relativement plus facile à réaliser.
- si les IA deviennent suffisamment sûres (logiciellement et matériellement) malgré leur complexité pour que la notion de conducteur disparaissent sans risque notable. Mais les constructeurs, pour rentabiliser les recherches, ne veulent pas attendre d'atteindre ce difficile objectif.
Notons que dans des environnements bien plus simples et aménagés pour, c'est déjà fait, comme dans le cas du métro. Ce serait sans doute réalisable sur autoroute, si cela valait le coup d'acheter un véhicule très cher qui n'est automatique que dans ce cas.
2  0 
Avatar de fredoche
Membre expert https://www.developpez.com
Le 18/11/2019 à 18:52
il y a 2 jours de cela j'avais regardé cette conférence TED :


Ça vaut ce que ça vaut, mais on y entend en introduction que l'AI est à peu près aussi intelligente qu'un ver de terre.

Et à partir de 7'30 le récit d'un accident fatal où on n'avait pas prévu qu'un camion puisse traverser la route. Bah oui le programme avait été conçu pour les autoroutes, et t'as quand même des mecs qui ont décidé de tester sur la route normale. Des mecs avec une intelligence humaine, probablement le chefs de ces programmes non ? Ça laisse songeur
2  0 
Avatar de tarassboulba
Membre du Club https://www.developpez.com
Le 14/11/2019 à 11:10
Il y a un problème évident de conception dans le fait que le défaut d'identification récurant faisant la bascule entre un type puis l'autre n'est pas pris en compte.
Dans ce type de situation:
1- au moins on ralentis, or le véhicule accélère encore un peu..
2- on fait des appels de phares, pour voir mieux la scène et pour prévenir du danger.
3- on klaxonne pour prévenir
4- on se prépare à réaliser un freinage d'urgence.

Cela seulement pour la prise en compte de la scène et pour prévenir d'éventuels dangers pour les autres usagers.
Ce concept n'a pas besoin d'être inclus dans l'analyse, mais devrait avoir été intégré aux règles de gestions.

Pour la prise en compte de la capacité interne d'action et de réaction du véhicule, il faut tenir compte du temps de réaction et de la capacité d'action,
qui dépend de données internes au véhicule mais aussi de donnés externes tels que:
pluie, pneus plus ou moins lisses, capacité de freinage (pression du liquide, état, plaquettes ), état du liquide de freinage, niveau de gonflage des pneus, état de surface de la chaussée, présence de gravillons ou de feuilles humides etc...

Il semble que même la capacité intrinsèque du véhicule au freinage d'urgence n'ait pas été pris en compte.
Avec le "freinage d'urgence" désactivé, le véhicule aurait du voir ses contraintes de vitesse accru, et donc il aurait sans doute dû rouler à vitesse réduite avec les warnings.
Autant dire que le véhicule aurait pu être conduit par un conducteur saouls et avec des œillères....

Accessoirement on voit bien que les Beta ( qui ose encore appeler cela des IA ? ) n'ont pas conscience du monde.
L'espace de conscience, si on peut appeler cela comme ça de ce genre de programme se limite à la zone de projection du véhicule ainsi que des éléments pouvant entrer en interaction
avec sa trajectoire.
Et encore, à priori sans conservation de l'historique, puisque les éléments extérieurs sont ré-analysés à pas de temps discrets sans mémoire.

De toute façon il y avait un "conducteur" qui est resté sans réaction, laissant reposer son destin, mais aussi celui des autres, autant physique que psychique à une machine qu'il ne comprenait qu'imparfaitement.
En résumé voilà une belle victoire de la technologie sur l'humain.
2  1 
Avatar de CoderInTheDark
Membre chevronné https://www.developpez.com
Le 16/11/2019 à 7:50
Citation Envoyé par doudoustephane Voir le message
Perso, la question qui me vient d’ambler et de savoir pour l'humain derrière le volant n'a réagit que 0,02 secondes avant l'impact !!!
Il est responsable du véhicule et a patiemment regarder l'accident se produire, la voiture restant bêtement sans réaction.
Déplorable situation tant techniquement qu'humainement.
Je crois que l'opérateur regardais "The voice" sur con téléphone.
comme il avait le nez sur l'écran de son portable, il n'a pas vu la cycliste.
C'est aussi un des problèmes posé par ces technologies.
L'humain se décharge sur elles .
Il croit les marketeux qui lui promettent qu'il l'IA fera tout pour lui.

Je pense que dans ce cas à force qu'il ne se passe rien il a surestimé les capacités de la conduite autonome, et sousestimer son rôle.
Ce n'est pas facile de rester concentrer sur une tâche monotone.

Mais il y a des dispositif pour tester la vigilance du conducteur, qui font vbrer le siège, je crois.
Là il faudrait les utiliser pour les opérateurs même si ils ne conduisent pas vraiment. CQFD
2  1 
Avatar de Sodium
Membre extrêmement actif https://www.developpez.com
Le 18/11/2019 à 17:26
Ah, donc du coup l'IA se dit "je vais probablement pas l'éviter totalement, donc autant foncer dessus" ?
Et ces véhicules ne sont pas censés justement avoir des capteurs pour voir les obstacles plus vite que l'oeil humain ?
1  0