Des chercheurs corrigent les erreurs d'une IA rien qu'avec la pensée
Leur système permet de contrôler un robot avec le cerveau seulement

Le , par Coriolan, Chroniqueur Actualités
Le cerveau constitue une unité de traitement complexe qui contient plus de 200 milliards de neurones qui émettent des milliers de signaux électriques par seconde. Malgré cette complexité, les humains n’ont jamais pu faire bouger les choses par télépathie, du moins avant que les scientifiques ne commencent à réfléchir comment contrôler des robots avec la pensée seule.

On vous informait en juillet dernier que des chercheurs travaillent sur un nouveau système de pilotage cérébral qui permet de piloter simultanément quatre drones. Le projet est financé par l’armée américaine et a pour but d’améliorer la technologie afin de faciliter le pilotage de groupes de machines rien qu’avec la pensée. Une autre équipe du MIT et de l’Université de Boston veut résoudre le même problème, ils sont en train de développer un système qui permet à des humains de corriger les erreurs d’un robot rien qu’avec la pensée.

Il faut savoir qu’avec les avancées récentes de l’intelligence artificielle et l’apprentissage machine, de nombreuses machines sont venues remplacer l’Homme dans une panoplie de domaines. De la finance à la cybersécurité en passant par l'industrie manufacturière, l’IA est devenue incontournable et certains se demandent déjà quel futur est réservé à l’humanité avec une IA de plus en plus dominante et sophistiquée. Toutefois, si l’IA cherche à mettre au point des systèmes capables de réaliser de façon plus satisfaisante des tâches qui sont pour l’instant accomplies par des humains, autrement dit, on cherche à créer des machines capables d’imiter les différents aspects humains comme le raisonnement, la compréhension des langages naturels, la perception visuelle ou auditive, etc. Il reste encore une marge de manœuvre puisque ces systèmes conçus pour imiter les humains peuvent toujours se tromper et faire des erreurs.

Et c’est le but du système de feedback créé par l’équipe de chercheurs du Computer Science and Artificial Intelligence Laboratory (CSAIL), son but est de permettre à des opérateurs humains d’intervenir quand une IA choisit une mauvaise décision. Rien qu’avec la pensée, la machine est alertée en temps réel qu’elle a commis une erreur. Ce système ne s’appuie que sur le cerveau grâce à un moniteur d’électroencéphalographie qui capture l’activité du cerveau.

Avec cet outil, le système peut détecter si une personne a remarqué l’erreur du robot qui est en train de ranger des objets. Les algorithmes d’apprentissage machine de l‘équipe permettent au système de classifier les ondes du cerveau en quelques millisecondes (entre 10 et 30 millisecondes).

Pour le moment, le système prend en charge des tâches simples de choix binaire. Mais l’auteur principal de l’étude a informé que cette expérience montre qu’on pourrait contrôler un jour des robots avec des façons beaucoup plus intuitives.

« Imaginez être capable d’informer instantanément un robot de faire une certaine action, sans que vous ayez à taper une commande, appuyer sur un bouton ou même dire un mot, » a dit Daniel Rus, directrice du CSAIL. « Une approche simplifiée qui améliorerait nos capacités à superviser les robots d’une usine, les voitures autonomes et les autres technologies que nous n’avons même pas encore inventées. »


Pour cette étude, l’équipe a utilisé un robot nommé “Baxter”, les chercheurs ont voulu faire en sorte que l’expérience soit menée de façon naturelle, alors ils se sont concentrés sur les signaux de type (ErrP : error-related potentials) qui sont générés par le cerveau à chaque fois qu’il observe une erreur. De cette façon, au fur et à mesure que le robot indique quelle décision il va prendre, le système utilise les ErrPs pour déterminer si l’humain est d’accord avec son choix.

« Au fur et à mesure que vous observez le robot, tout ce que vous avez à faire est d'être d’accord ou de ne pas être d’accord avec ce qu’il fait, » a dit Rus. « Vous n’avez pas à vous entrainer pour penser d’une certaine manière, la machine s’adapte à vous et non pas le contraire. »

Source : MIT News

Et vous ?

Qu'en pensez-vous ?


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse

Avatar de Aiekick Aiekick - Membre expérimenté https://www.developpez.com
le 08/03/2017 à 12:41
j’ignorais que le cerveau émettait un type particulier d’onde quand on était d'accord ou non.
Avatar de xurei xurei - Membre actif https://www.developpez.com
le 08/03/2017 à 13:59
Citation Envoyé par Aiekick Voir le message
j’ignorais que le cerveau émettait un type particulier d’onde quand on était d'accord ou non.
Pour avoir un peu joué avec cette techno, l'activité de chaque électrode varie si tu penses consciemment à quelque chose.
Vu que les intentions sont opposées ("oui, c'est bon" vs "non, c'est pas bon"), les ondes émises doivent suffisamment varier pour pouvoir les dissocier.
Du coup, il suffit de créer des tâches "largement correctes" et "largement incorrectes" pour entraîner l'algorithme à reconnaître ton pattern (qui varie énormément d'une personne à l'autre).

J'avais déjà testé une POC de ce type : il fallait déplacer une boule dans un environnement 3D "par la pensée". C'était assez peu réactif, mais dans l'ensemble ça fonctionnait plutôt bien. Je crois même que techniquement, reconnaître un "oui" d'un "non" sur un échantillon de quelques secondes doit être assez facile.

Je me demande par contre comment le système réagit quand l'utilisateur ne sait pas si c'est bon ou pas...
Avatar de Aiekick Aiekick - Membre expérimenté https://www.developpez.com
le 09/03/2017 à 10:26
Mode sexiste : On

Comment le système fait avec les femmes ? Vu que chez elle un "non" peu être un "peu-être" et un "peu-être" est un oui.
Donc comme un "non" peu etre un "oui", ca va etre compliqué non ?

Mode sexiste : Off
Avatar de AoCannaille AoCannaille - Membre expérimenté https://www.developpez.com
le 09/03/2017 à 10:40
Citation Envoyé par Aiekick Voir le message
Mode sexiste : On

Comment le système fait avec les femmes ? Vu que chez elle un "non" peu être un "peu-être" et un "peu-être" est un oui.
Donc comme un "non" peu etre un "oui", ca va etre compliqué non ?

Mode sexiste : Off
Heureusement que tu as attendu aujourd'hui pour ce genre de blague, hier, c'était interdit
Avatar de Aiekick Aiekick - Membre expérimenté https://www.developpez.com
le 09/03/2017 à 23:07
oui c'est voulu
Offres d'emploi IT
Ingénieur développement électronique H/F
Safran - Ile de France - 100 rue de Paris 91300 MASSY
Ingénieur statisticien H/F
Safran - Ile de France - Moissy-Cramayel (77550)
Responsable de projets - actionneurs H/F
SAFRAN - Ile de France - MASSY / MANTES

Voir plus d'offres Voir la carte des offres IT
Contacter le responsable de la rubrique Accueil