Comme l’expliquent Sergey Levine (de l’équipe Google Brain), Timothy Lillicrap (de la filiale DeepMind d’Alphabet), Mrinal Kalakrishnan (de l’équipe Google X), Google a continué à explorer ce domaine. Pour mettre en avant la nécessité du développement de ce domaine, les ingénieurs ont avancé que « la capacité d'apprendre de l'expérience sera probablement un facteur déterminant pour permettre aux robots d’aider à accomplir des tâches complexes dans le monde réel, d'aider les personnes âgées dans leurs tâches et activités quotidiennes, de nous aider, dans les bureaux et les hôpitaux, à exécuter des tâches qui sont trop dangereuses ou désagréables pour les gens. Cependant, si chaque robot doit développer son répertoire de compétences relatives à ses tâches sur la seule base de son expérience, il pourrait prendre beaucoup trop de temps à acquérir une gamme assez riche de comportements pour être utile. Peut-on combler cette lacune en permettant aux robots d'apprendre collectivement des expériences des uns et des autres ? »
Si de grandes avancées ont été observées sur les algorithmes d’apprentissage automatique en particulier sur la compréhension du langage naturel et la reconnaissance vocale, les ingénieurs précisent que « le genre de raisonnement symbolique de haut niveau qui permet aux individus de communiquer des concepts complexes par des mots reste hors de portée des machines ». Cependant, les robots peuvent se transmettre leur expérience en un instant en se servant de leur réseau (cloud robotique), et c’est cette faculté qui peut leur permettre d’apprendre les uns des autres.
« Cela est vrai même pour des capacités qui semblent simples et de bas niveau. Les humains et les animaux excellent dans le contrôle moteur adaptatif qui intègre leurs sens, les réflexes et les muscles dans une boucle de rétroaction étroitement coordonnée. Les robots se battent encore pour développer ces capacités basiques dans le monde réel, où la variabilité et la complexité de l'environnement exige des comportements bien rodés », rappellent les chercheurs. Aussi, ils se demandent si le fait de permettre aux robots de se transmettre leurs expériences les uns aux autres pourrait avoir une incidence sur leur habileté à exécuter des mouvements en coordination étroite avec la détection dans des environnements réels.
La réponse dans plusieurs démonstrations proposées par Google qui a mis sur scène des robots partageant leurs expériences pour apprendre rapidement comment atteindre des objets et ouvrir des portes.
L’une des approches dont se sont servis les chercheurs est l’apprentissage renforcé, ou l’apprentissage « essais et erreurs », combiné avec les réseaux neuronaux profonds. Il s’agit là de la même approche qu’a utilisé DeepMind pour entraîner son intelligence artificielle AlphaGo.
Chaque robot a sa propre copie d'un réseau neuronal qui lui permet de décider des actions optimales pour ouvrir la porte. Google accumule les données plus rapidement en ajoutant des interférences. Un serveur central enregistre également les actions des robots, les comportements et les résultats finaux et utilise ces expériences pour concevoir un meilleur réseau de neurones qui aide les robots à améliorer leur tâche.
Dans les vidéos proposées par Google, après une vingtaine de minutes, les bras robotiques ont été en mesure de rechercher la poignée en tâtonnant puis d'ouvrir la porte. Le serveur recueille les expériences de tous les robots et les utilise pour améliorer itérativement le réseau neuronal qui estime la valeur des différents états et actions. Des algorithmes sont chargés de distinguer les « bonnes » et les « mauvaises » expériences, puis de les distiller dans une mise à jour sur le réseau. Puis, à intervalles réguliers, chaque robot va prendre une copie du réseau mis à jour à partir du serveur et va se servir des informations contenues dans le nouveau réseau, ce qui va lui permettre d’affiner à chaque fois un peu plus son comportement.
Après quelques heures de pratique, les robots qui partagent leur expérience apprennent à atteindre des cibles et à ouvrir une porte.
Une autre méthode explorée par Google pourrait aider les robots à suivre des commandes pour déplacer des objets autour de la maison. Ici, l’objectif de Google est d’enseigner aux robots comment concevoir des modèles sur la façon dont les choses se déplacent en réponse à certaines actions. Pour y parvenir, Google a mis sur pied une expérience où les pixels se retrouvent sur un écran après une certaine action.
Cette fois-ci encore, les robots partagent leurs différentes expériences sur le déplacement de différents objets, partage qui va les aider à déduire ce qui pourrait arriver s’ils prennent une certaine ligne de conduite.
Enfin, les chercheurs étudient les moyens pour les robots d'apprendre de l'Homme. Les chercheurs ont guidé les robots vers les portes et leur ont montré exactement comment les ouvrir. Ces actions ont été codées dans un réseau neuronal profond qui convertit les images de la caméra en actions du robot.
Source : Google
Voir aussi :
Un ingénieur crée un bras robotisé destiné à blesser des humains, il agit volontairement, ignorant la première loi d'Asimov
AlphaGo arrive en tête du classement des meilleurs joueurs de Go au monde, la première fois pour un programme informatique