
Qui devraient dorénavant comprendre le comportement humain
En mars dernier, Uber a été impliqué dans un accident mortel dans la ville de Tempe, en Arizona où l'entreprise testait ses voitures autonomes, tuant une piétonne qui traversait la route. Selon le rapport d’une enquête préliminaire sur l’accident publié en mai dernier, par le National Transportation Safety Board des États-Unis, la voiture n'a pas pu identifier Mme Herzberg comme étant une piétonne, et n'a pris aucune mesure pour éviter de la heurter ni effectuer un arrêt d'urgence. Des capteurs installés sur la voiture autonome devraient normalement générer des alertes après avoir détecté la présence d’un piéton au travers de la route afin d’amorcer le processus de freinage d’urgence. Cependant, selon le rapport d’enquête, la voiture d’Uber a eu environ six secondes pour réagir après avoir repéré Mme Herzberg traversant la route dans l'obscurité devant elle, mais ne l’a pas fait. Uber vient de relancer ses tests de voitures autonomes, mais, cette fois-ci en mode humain, après un arrêt d’environ quatre mois qui a servi à améliorer la sécurité sur ces véhicules.
Cependant, ce genre d'accident pourrait bientôt faire partie du passé, dans un avenir proche, avec la solution d’intelligence artificielle mise au point par la start-up Perceptive Automata. Cette start-up issue de l’Université Harvard a travaillé sur un logiciel capable de faire comprendre aux voitures autonomes ce qu’un conducteur humain perçoit lorsqu’il est au volant, parlant du partage de la route avec les piétons, cyclistes ou les autres véhicules.
En effet, pour conduire en toute sécurité, les conducteurs usent de divers jugements intuitifs critiques comme s’ils mettaient en pratique un code de la route personnel. Comportement qui reste, jusqu’à présent, difficile à implémenter dans les voitures autonomes.
Lecture du langage corporel
D’un simple regard, un homme peut apprendre beaucoup sur ce qui l’entoure. Il n’a pas forcément besoin d’un langage parlé pour percevoir les sentiments ou les besoins d’un autre. Les indices visuels comme le langage corporel ou ce qu'une personne détient peuvent fournir des informations importantes lors de la prise de décisions de conduite. Si quelqu'un se précipite vers la route tout en parlant au téléphone, le conducteur peut conclure que son esprit est probablement concentré ailleurs, pas sur son environnement, et procéder avec prudence. De même, si un piéton est debout à un passage pour piétons et regarde dans les deux sens, le conducteur sait qu'il est conscient et anticipe la circulation venant en sens inverse. Aussi, une personne au volant peut laisser traverser une personne âgée à une intersection même s’il a la priorité.
Le véritable déploiement de la conduite autonome n’était pas encore possible, car les opérateurs n’avaient pas encore une solution réelle permettant à leurs robots de partager efficacement les routes avec les piétons. La vision par ordinateur et la planification du mouvement qu’ils utilisent, jusqu’à présent, sont basées sur la physique pour identifier la position des piétons ainsi que leur trajectoire, mais ne peuvent pas anticiper le comportement du piéton sur sa trajectoire : brusque retour, arrêt momentané, etc., selon l’équipe de développement. La conséquence, c’est, par exemple, le ralentissement de la circulation ou des accidents tels qu’Uber en a déjà connu.
C’est ce constat qui a poussé Perceptive Automata à concevoir un modèle d’IA capable d’avoir la perception de l’environnement d’une personne. « Nous avons conçu un modèle qui peut utiliser toute la gamme de perceptions subtiles et inconscientes que nous, humains, utilisons pour faire des jugements incroyablement sophistiqués sur ce qui se passe dans la tête de quelqu'un d'autre. On pourrait dire que, dans un sens, nos modèles développent leur propre intuition humaine. »
L’initiative de la startup est basée sur une approche unique de la technique du « deep learning » différente du procédé traditionnel qui consiste à présenter une variété d'images du même objet à un réseau de neurones pour lui apprendre à reconnaître l’objet. L’équipe de développeurs utilise, plutôt, des données de capteurs provenant des véhicules qui montrent des interactions avec des piétons, cyclistes et autres automobilistes.
Des morceaux de clips sont constitués à partir de ces données et présentés à des groupes de personnes qui se sont prononcés sur le niveau d'intention et de conscience du piéton ou de l'automobiliste ou du cycliste représenté en fonction de ce qu'ils voient. Ces clips combinés avec ces impressions des personnes interrogées ont servi à enseigner leurs algorithmes du « deep learning » qui, embarqués dans une voiture autonome, lui permet de comprendre et de prédire le comportement humain afin de procéder conformément. « Cela a d'énormes implications pour la sécurité, l'expérience du pilote, et l'utilité pratique dans l'industrie automobile auto-conduite. », a déclaré l’équipe.
Plus il y a d'informations disponibles pour une voiture autonome, mieux elle peut s'adapter au flux et au reflux du trafic, s'intégrant parfaitement dans un écosystème où les humains et l'IA partagent la route. Ajoutant un plus à la technique habituelle d’apprentissage automatique à l’aide d’une multitude de données de situations réelles, l’équipe de Perceptive Automata est parvenue intégrer d’avantage la voiture autonome sur les routes où elle pourra dorénavant interagir harmonieusement avec les autres usagers de la route en l’occurrence les piétons.
Source : Perceptive Automata, IEEE Spectrum
Et vous ?


Voir aussi




Vous avez lu gratuitement 13 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.