IA : des scientifiques du MIT conçoivent un algorithme capable d'interpréter des images
Pour répondre à des questions sur leur contenu

Le , par Bill Fassinou, Chroniqueur Actualités
L’intelligence artificielle ne cesse de connaître chaque jour des avancées. L’objectif ultime est de pouvoir concevoir des systèmes automatisés capables de raisonner exactement comme un être humain dans toutes les situations imaginables. Ces systèmes devront donc être capables de s’adapter à un éventuel changement brusque des paramètres d’une situation afin d’ajuster leur comportement en fonction des nouveaux paramètres aussi vite qu’un esprit humain est capable de le faire.

Et le moins que l’on puisse dire, c’est que de gros efforts sont consentis pour atteindre cet objectif. On a donc vu des IA capables de battre des joueurs dans un jeu de stratégie, des IA capables de travailler en équipe pour battre une équipe d’humains dans le même jeu et plus récemment, un système robotique capable de manipuler des objets avec une dextérité humaine. Eh bien, aujourd’hui, la dernière percée dans le domaine concerne le processus de prise de décisions des intelligences artificielles.


En effet, l’équipe du MIT Lincoln Laboratory Intelligence and Decision Technologies Group a mis au point un réseau neuronal qui suit des étapes similaires au raisonnement humain pour répondre aux questions sur le contenu des images. Nommé Transparency by Design Network (TbD-net), ledit réseau fournit un rendu visuel de son processus de réflexion afin de permettre aux scientifiques d’analyser la manière dont les décisions sont prises. Les mécanismes internes entrant en ligne de compte dans le processus de prise de décision de TbD-net ont été conçus de manière à être transparents pour rendre facile l’interprétation des résultats de l’IA.

« Les progrès en matière de performances dans le raisonnement visuel se sont acquis au détriment de la possibilité d’interprétation », explique Ryan Soklaski, co-concepteur de TbD-net avec ses collègues chercheurs Arjun Majumdar, David Mascharka et Philip Tran. Cet état de choses a été corrigé avec ce nouveau système neuronal grâce, entre autres, à une collection de petits réseaux neuronaux intégrés spécialisés dans l’exécution de sous-tâches spécifiques.

Comme dans une chaîne de montage, chacun de ces petits réseaux traite la part du travail qui le concerne et la mise en commun de tous les résultats fournit la réponse finale. En clair, TbD-net scinde les questions qui lui sont posées en sous-tâches qui sont ensuite affectées aux modules pour être traitées. « Briser une chaîne de raisonnement complexe en une série de sous-problèmes plus petits, chacun pouvant être résolu indépendamment, est un moyen puissant et intuitif de raisonner », explique Arjun Majumdar, un des concepteurs du système.

Après la phase de tests, les résultats obtenus par le système étaient de loin, selon les chercheurs, supérieurs à ceux des systèmes de raisonnement visuel les plus perfectionnés. TbD-net a été testé avec un jeu de données comprenant 70 000 images et 700 000 questions avec un ensemble de données de test constitué de 15 000 images et 150 000 questions. Le premier essai a abouti sur un résultat de 98,7 % de précision, ce qui, selon les chercheurs, est déjà beaucoup plus que n’importe quelle autre approche basée sur les réseaux de modules neuronaux.

Les scientifiques ont pu, à la fin du premier essai, affiner leur approche pour améliorer davantage les résultats de l'algorithme. En fin de compte, le résultat final de la phase d’essai du système a donc été un exceptionnel 99,1 % de précision. « Notre modèle fournit des résultats simples et interprétables à chaque étape du processus de raisonnement visuel », explique David Mascharka.

Comprendre le processus de raisonnement des algorithmes d'IA est le premier pas pour déterminer comment et pourquoi ils pourraient prendre de mauvaises décisions. Il est donc impérieux de mieux comprendre ce processus si des algorithmes doivent être déployés aux côtés des humains pour aider à résoudre des tâches complexes. Autrement, la confiance en ces systèmes restera toujours un sujet clivant.

Voir ici plus de détail sur la « Transparency by Design : Closing the Gap Between Performance and Interpretability in Visual Reasoning »

Source : MIT

Et vous ?

Que pensez-vous de l'utilisation de la méthode du raisonnement transparent par les algorithmes intelligents ?
Cela marquera-t-il un nouvel ère pour l'évolution de l'IA ? Comment et pourquoi selon vous ?

Voir aussi

Cinq algorithmes d'IA font équipe pour écraser des humains au Dota 2, un jeu d'équipe connu pour être extrêmement compliqué

OpenAI d'Elon Musk crée une IA capable de battre des humains sur Dota 2, un jeu vidéo de type arène de bataille en 3D

Intelligence artificielle : OpenAI annonce un système robotique capable de manipuler des objets avec une dextérité humaine


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse Signaler un problème

Avatar de G'Optimus G'Optimus - Membre régulier https://www.developpez.com
le 13/09/2018 à 11:02
Code : Sélectionner tout
 En fin de compte, le résultat final de la phase d’essai du système a donc été un exceptionnel 99,1 % de précision
C'est exceptionnel vraiment vos résultat.

Mais détrompez-vous c'est impossible une intelligence artificiel ne pourra jamais égalé celle de l'homme . Pour ça il faut que l'homme puis ce comprendre lui même .
Avatar de Matthieu76 Matthieu76 - Membre éclairé https://www.developpez.com
le 19/09/2018 à 17:09
Citation Envoyé par G'Optimus Voir le message
c'est impossible une intelligence artificiel ne pourra jamais égalé celle de l'homme .
C'est complètement faux, il suffit de regarder les IA d'échec. Et encore là je ne prends que le premier exemple qui me vient à l'esprit.

Citation Envoyé par Wikipedia
Deep Blue bat le champion du monde (3,5–2,5) lors du match revanche en 1997
Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 19/09/2018 à 17:25
Distinction habituelle : IA faible (dédiée à une tâche) ou forte (équivalente à un humain) ?

Pour la citation de l'article : une telle précision n'est pas forcément un gage de bonne performance… N'y a-t-il pas de déséquilibre dans les données ? Comment définissent-ils la précision dans le cadre de réponse à des questions ouvertes ?
Avatar de Matthieu76 Matthieu76 - Membre éclairé https://www.developpez.com
le 20/09/2018 à 14:40
Citation Envoyé par Bill Fassinou Voir le message
Autrement, la confiance en ces systèmes restera toujours un sujet clivant.
Pour moi ce n'est pas la confiance au système qui est important mais la confiance à l'ensemble de données de test.

Si l’ensemble de données test est 100% fiable (ce qui n'arrive jamais), je pense qu'on peut faire aveuglément confiance aux résultats fournit par le système.

 
Contacter le responsable de la rubrique Accueil