Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des chercheurs développent des algorithmes qui permettent à un robot d'apprendre de ses erreurs
Un peu comme le font les humains

Le , par Michael Guilloux

0PARTAGES

9  0 
La recherche dans le domaine de l’intelligence artificielle (IA) a permis à des chercheurs de créer des robots capables d’exécuter des actions parfois impressionnantes, et dans certains cas, mieux que les humains. Mais l’intelligence artificielle reste toutefois limitée par le fait que les actions exécutées par ces automates sont préprogrammées. Par conséquent, il est impossible pour les robots d’exécuter des tâches en dehors d’un ensemble d’actions spécifiques ou lorsqu’ils sont confrontés à quelque de chose de nouveau.

Cette limite pourrait disparaître dans la prochaine décennie avec les récents travaux de chercheurs de l’Université de Californie, Berkeley. En effet, ces chercheurs ont développé des algorithmes pour permettre à un robot d’apprendre à réaliser des tâches en s’améliorant au fur et à mesure qu’il commet des erreurs, alors qu’il essaie d’accomplir les tâches. Il s’agit d’une avancée importante dans le domaine de l’IA, car cela signifie que les robots pourront apprendre à exécuter des tâches qui ne sont pas initialement programmées.

« Ce que nous rapportons ici est une nouvelle approche pour permettre à un robot d'apprendre », a expliqué le professeur Pieter Abbeel du département de génie électrique et sciences informatiques de l'UC Berkeley, dans un communiqué la semaine dernière. « La clé est que lorsqu'un robot est confronté à quelque chose de nouveau, nous ne devrons pas le reprogrammer ». Le même code qui dicte les actions à l’automate « a été utilisé pour permettre au robot d'apprendre toutes les différentes tâches que nous lui avons données », a-t-il ajouté.

Leurs travaux devraient donc permettre à des robots de s’adapter aux environnements en constante évolution et d’exécuter des tâches qui n’étaient pas prévisibles. « La plupart des applications robotiques sont dans des environnements contrôlés où les objets sont en positions prévisibles », a déclaré Trevor Darrell qui dirige le projet avec le professeur Abbeel. « Le défi de mettre des robots dans des situations réelles, comme les maisons ou les bureaux, est que ces environnements sont en constante évolution. Le robot doit être capable de percevoir et de s'adapter à son environnement. » L’équipe est également composée de Sergey Levine, chercheur postdoctoral et d’un étudiant en PhD, Chelsea Finn.

Dans les expériences, les chercheurs ont travaillé avec un robot surnommé BRETT (Berkeley Robot for the Elimination of Tedious Tasks). Pour modéliser l'apprentissage humain, l'équipe a eu recours au Deep Learning. Il s’agit d’un nouveau domaine de recherche en Machine Learning, qui a été introduit dans le but de rapprocher le Machine Learning de l'IA. Le Deep Learning utilise une approche qui permet à un réseau neuronal artificiel d'extrapoler, à partir d'une base de connaissances, l'apprentissage sans programmation supplémentaire par un humain.

Cette technique a permis à BRETT d’apprendre à réaliser certaines tâches motrices telles que mettre un cintre sur une grille, assembler un avion en jouet, visser un bouchon sur une bouteille d'eau et plus encore, sans pré-programmation.

Pour permettre au robot de Berkeley de s’améliorer, les chercheurs lui ont associé un système de notation qui attribue des points à BRETT selon que les mouvements qu’il exécute le rapprochent de l’accomplissement de la tâche ou non. BRETT essaie plusieurs mouvements, et aux meilleurs gestes, sont affectés des scores élevés. Ces scores sont communiqués au robot en temps réel de sorte qu’il puisse savoir que le mouvement qu’il vient d’exécuter est bon ou mauvais. BRETT peut ainsi procéder par élimination et n’exécuter que les mouvements qui le rapprochent de l’accomplissement de la tâche.

Avant d’exécuter une tâche, le robot doit pouvoir l’identifier dans un premier temps et localiser les objets nécessaires à l’accomplissement de la tâche. Si les informations sur la tâche et l’emplacement des objets lui sont fournies, les expériences montrent que BRETT peut réaliser chaque tâche en environ 10 minutes. Dans le cas où il doit lui-même identifier la tâche et localiser les objets, il lui faudra environ 3h. Mais les chercheurs pensent que le temps de réalisation d’une tâche peut être considérablement réduit avec un plus grand volume de données.


Les derniers développements seront présentés ce jeudi 28 mai à Seattle à la Conférence internationale sur la robotique et l'automatisation (ICRA). Les travaux ne sont qu’à leurs débuts, mais les chercheurs sont très optimistes quant à l’impact de leur recherche dans un futur proche.

« Nous avons encore un long chemin à parcourir avant que nos robots puissent apprendre à nettoyer une maison ou trier la lessive », a dit Abbeel ; « mais nos résultats initiaux indiquent que ces types de techniques de Deep Learning peuvent avoir un effet transformateur en termes de permettre aux robots d'apprendre des tâches complexes entièrement à partir de zéro. Dans les cinq à dix prochaines années, nous pourrions voir des progrès significatifs dans les capacités d'apprentissage des robots », a-t-il déclaré.

Source : Berkeley News Center

Et vous ?

Qu’en pensez-vous ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 28/05/2015 à 17:43
Je déplore que les papiers scientifiques soient du bourrage de crâne, ce qui n'aide pas du tout à comprendre : c'est plein de théorie, on fait tout dans l'abstraction, mais les exemples sont totalement absents. Difficile donc pour un néophyte de savoir concrètement ce que leur travail apporte au niveau des tâches effectuées par le robot. Perso, j'ai pas du tout apprécié la lecture de ces articles, car ça ne m'a rien appris (pas dans le sens "y'a rien de nouveau" mais "je vois pas quoi en faire".

Citation Envoyé par NotNow Voir le message
Y'a que moi que ca fait peur l'évolution drastique de l'IA ?
Quand on est informé, il n'y a plus la surprise nécessaire au sentiment de peur. La peur vient du manque de compréhension/contrôle.

Citation Envoyé par xurei Voir le message
Ca ressemble à de l'apprentissage supervisé :

Qui note ces mouvements ? Est-ce que le robot évalue lui-même le succès de sa tâche ?
Oui, c'est de l'apprentissage supervisé (dit explicitement dans les articles scientifiques). Donc quand certains croient qu'il a trouvé tout seul que pour visser un bouchon il vaut mieux visser en sens inverse pour être bien placé avant de visser dans le bon sens, et bien désolé mais c'est précisément ce qu'on lui a appris: pour atteindre la position finale voulue (bouchon vissé), venir au contact, puis visser en arrière, puis visser en avant. L'apprentissage en lui-même se focalise sur adapter les mouvements du robots pour coller aux feedbacks bas niveau. Ce n'est pas du haut niveau comme "tu as le bouchon dans telle position dans la main droite, la bouteille dans telle position dans la main gauche, on veut avoir le bouchon dans telle position dans la bouteille, trouve comment faire".

Cela dit, les articles ne sont franchement pas clairs sur ce point. On parle d'apprentissage supervisé et de pré-apprentissage, il y a de l'apprentissage relatif à la tâche et de l'apprentissage relatif au mouvements du robots (indépendamment de toute tâche), certaines choses qui sont "fournies" et d'autres qui doivent s'appuyer sur la caméra, et pour ce que j'ai lu des deux articles on ne lit pas grand chose sur ce qui est concrètement fourni par l'humain et ce qui est de l'ordre du robot. Autrement dit, on reste dans le flou relativement complet. À vrai dire, je crains que, comme d'habitude avec les algos d'apprentissage, les auteurs eux-même ne savent pas vraiment ce qui se passe : on a une idée, on l'implémente et on voit ce que ça donne. Si ça marche on est content, si ça marche mieux qu'espéré on saute au plafond, si ça marche pas on se dit qu'on n'a pas eu la bonne idée, mais y'a rien de fait pour comprendre pourquoi ça marche ou non. Pour être plus langue de vipère, ils disent à quoi ils jouent, ils ne font pas de la recherche. De mon point de vue, c'est le genre d'article qui sert pour rapport interne/archive (l'audience visée c'est les auteurs eux-même, qui savent de quoi on parle), pas pour publication (l'audience est extérieure au projet).

Citation Envoyé par jojosbiz Voir le message
J'espère juste que ce robot apprendra mieux que les humains de ses erreurs, parce que dans l'ensemble nous ne sommes pas le meilleur exemple de ce côté là.
Ben comme il apprends des humains (apprentissage supervisé), faudra pas trop compter là-dessus. {'^_^}
2  0 
Avatar de frantzgac
Membre habitué https://www.developpez.com
Le 05/06/2015 à 19:25
Les émotions si on en croit Antonio Damasio font un peu plus que de la communication. Il est assez vraisemblable que les émotions permettent de trancher lorsque le raisonnement logique hésite. Cette thèse est confortée par certains désordres cérébraux qui empêchent les émotions d'exister. les patients de ce type ont toutes les peines du monde à prendre des décisions forts simples. C'est pourquoi les neurocogniticiens pensent que l'émotion est tout simplement nécessaire à l'action chez l'homme car la plupart du temps il ne possède pas toutes les données des situations et prend quand même une décision. Sujet aussi traité par un certain Alain Berthoz.

Ca n'empêche absolument pas de faire de l'émotion de synthèse mais le doute restera longtemps sur sa capacité à mimer l'homme.

Rappelons nous cette bonne vieille règle de l'AI : un robot sera parfait le jour où en discourant avec on sera incapable de décider si "c'en est un" ou pas.
2  0 
Avatar de Cvanhove
Membre régulier https://www.developpez.com
Le 28/05/2015 à 8:11
On pourrait croire à un prélude d'I-Robot
1  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 28/05/2015 à 14:10
Citation Envoyé par NotNow Voir le message
Y'a que moi que ca fait peur l'évolution drastique de l'IA ?
Non, place aux jeunes. Je penses pas qu'ils puissent devenir plus cons que nous..
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 30/05/2015 à 17:21
Citation Envoyé par sympasteve Voir le message
Mais en dehors de nos capteurs sensoriels, et de notre monstrueux CPU, il ne reste pas moins qu'un bête programme d'intelligence artificielle, qui apprends en faisant des erreurs ou en réalisant des succès.
Ça c'est de l'ordre d'une position personnelle. Il y a des théories qui se basent sur ce genre de principes, et d'autres théories qui se basent sur d'autres principes, chacune ayant ses capacités à expliquer ce qu'on constate dans les faits, mais aussi ses limitations. Libre à toi d'avoir ta position, mais ça n'en fait pas une réalité.
1  0 
Avatar de frantzgac
Membre habitué https://www.developpez.com
Le 04/06/2015 à 11:43
En IA comme dans beaucoup de domaine les principes anciens donnent l'impression d'être du dernier cri quand une application les rend spectaculairement efficaces. C'est le cas de l'apprentissage par succès/échec qui est déjà connu depuis que l'on fait de la reconnaissance de caractères (par exemple) avec les avatars neuronaux. Le principe est simple : on présente des formes diverses à un réseau de neurones placés derrière un capteur optique et chaque fois qu'il identifie correctement un chiffre on valide la réponse sinon on l'invalide. Les neurones du réseau voient leurs fonctions de transferts (qui donnent un état de sortie pour tout état d'entrée) modifiées à chaque résultat et au bout d'un nombre raisonnable d'essais le circuit identifie les chiffres sans se tromper ou très peu.
La différence entre ce système d'apprentissage et l'être humain c'est que ce dernier est aussi doté d'une faculté de représentation mentale lui permettant de construire des théories sur les expériences vécues. Quand on "comprend comment" fonctionne un moteur thermique par exemple son dépannage relève autant du succès/échec que de la capacité à inférer les causes possibles d'une défaillance.
Mais l'IA a déjà inventé toutes sortes de représentations mentales, leur inconvénient est qu'elles ne sont pas généralistes comme chez l'homme...pour le moment.
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 05/06/2015 à 16:13
Citation Envoyé par Tr0n33 Voir le message
Nous modélisons tout juste sous forme d'algorithme une forme d'intelligence géométrique. Nous sommes encore parfaitement incapable, d'un point de vue personnel, de définir ce que sont des sentiments comme la haine, la colère ou l'amour. Nous sommes parfaitement incapable d'expliquer nos pulsions, notre inconscient; alors de là à le modéliser... Notre forme d'intelligence utilisée dans les sciences manque terriblement d'intelligence émotionnelle et reste fonder sur des méthodologies diverses et variées limité par notre jugement et notre capacité de perception/catégorisation.

Donc oui, nous pouvons avoir peur de ce genre d'intelligence qui est modélisée de manière froide et mathématique. Un peu d'anarchisme épistémologique et de réflexion non pas sur les processus de cognition mais sur les processus émotionnels, ne ferait pas de mal à nos amis mathématiciens. Diversification des méthodes ne veut pas dire anarchisme (pour reprendre le dernier message que j'aime particulièrement) car tout se régule à terme.
Je suis moi même un anarchiste épistémologique, et je ne vois pas vraiment ce que ça vient faire ici. Mais étant un relativiste convaincu, je te laisse le bénéfice du doute en me disant que j'ai juste mal interprété tes propos. {^_^}

Par contre, désolé de te décevoir mais ça fait un moment que la science se penche sur les émotions et qu'on intègre ces connaissances à l'intelligence artificielle. On est déjà loin du stade où on tente de comprendre et modéliser ces émotions, les neurosciences affectives ayant déjà bien avancé depuis le 19e siècle. Pour la partie artificielle, je te renvois notamment à l'informatique affective. De manière basique, on exploite ces connaissances pour synthétiser l'émotion de personnages dans des jeux vidéos ou des films en image de synthèse. Mais de manière plus avancée, c'est notamment à la base de robots utilisés en clinique, comme Paro, mais aussi dans les magasins, comme Pepper.

L'IA décrite ici n'en a pas besoin, pour la simple raison qu'on cherche à lui faire accomplir une tâche de manière autonome. Or les émotions permettent de faire passer un message, c'est de l'ordre de la communication, qui n'a pas lieu d'être donc dans ce cas précis. Mais ça ne veut pas dire pour autant que ce domaine soit toujours ignoré des sciences, bien au contraire.
1  0 
Avatar de DonQuiche
Expert confirmé https://www.developpez.com
Le 29/07/2015 à 16:45
Citation Envoyé par sympasteve Voir le message
Nos yeux, nos mains, notre radpité à traiter l'information qui viennent de nos sens, sont des merveilles de technologiques ; construite à l'échelle moléculaire (et pour un prix ridicule).
Toi, on voit que tu n'as pas d'enfant.
1  0 
Avatar de
https://www.developpez.com
Le 28/05/2015 à 8:37
ça va être cocasse. cependant je serais curieux de connaitre son comportement face au fait que "l'ensemble vide" fait parti de tous les autres ensembles mathématique par défaut mais que "l'absence de" ne fait hélas par parti de définition mathématique.
0  0 
Avatar de Mrsky
Membre expérimenté https://www.developpez.com
Le 28/05/2015 à 9:12
Citation Envoyé par MikeRowSoft Voir le message
ça va être cocasse. cependant je serais curieux de connaitre son comportement face au fait que "l'ensemble vide" fait parti de tous les autres ensembles mathématique par défaut mais que "l'absence de" ne fait hélas par parti de définition mathématique.
[troll]C'est là qu'entrent en jeu les données collectées depuis des années sur les utilisateurs de la planète, considérer comme "absent" tout le reste et traiter selon des patterns déterminés par les données.[/troll]
0  0