L’intelligence artificielle ne cesse de connaître chaque jour des avancées. L’objectif ultime est de pouvoir concevoir des systèmes automatisés capables de raisonner exactement comme un être humain dans toutes les situations imaginables. Ces systèmes devront donc être capables de s’adapter à un éventuel changement brusque des paramètres d’une situation afin d’ajuster leur comportement en fonction des nouveaux paramètres aussi vite qu’un esprit humain est capable de le faire.
Et le moins que l’on puisse dire, c’est que de gros efforts sont consentis pour atteindre cet objectif. On a donc vu des IA capables de battre des joueurs dans un jeu de stratégie, des IA capables de travailler en équipe pour battre une équipe d’humains dans le même jeu et plus récemment, un système robotique capable de manipuler des objets avec une dextérité humaine. Eh bien, aujourd’hui, la dernière percée dans le domaine concerne le processus de prise de décisions des intelligences artificielles.
En effet, l’équipe du MIT Lincoln Laboratory Intelligence and Decision Technologies Group a mis au point un réseau neuronal qui suit des étapes similaires au raisonnement humain pour répondre aux questions sur le contenu des images. Nommé Transparency by Design Network (TbD-net), ledit réseau fournit un rendu visuel de son processus de réflexion afin de permettre aux scientifiques d’analyser la manière dont les décisions sont prises. Les mécanismes internes entrant en ligne de compte dans le processus de prise de décision de TbD-net ont été conçus de manière à être transparents pour rendre facile l’interprétation des résultats de l’IA.
« Les progrès en matière de performances dans le raisonnement visuel se sont acquis au détriment de la possibilité d’interprétation », explique Ryan Soklaski, co-concepteur de TbD-net avec ses collègues chercheurs Arjun Majumdar, David Mascharka et Philip Tran. Cet état de choses a été corrigé avec ce nouveau système neuronal grâce, entre autres, à une collection de petits réseaux neuronaux intégrés spécialisés dans l’exécution de sous-tâches spécifiques.
Comme dans une chaîne de montage, chacun de ces petits réseaux traite la part du travail qui le concerne et la mise en commun de tous les résultats fournit la réponse finale. En clair, TbD-net scinde les questions qui lui sont posées en sous-tâches qui sont ensuite affectées aux modules pour être traitées. « Briser une chaîne de raisonnement complexe en une série de sous-problèmes plus petits, chacun pouvant être résolu indépendamment, est un moyen puissant et intuitif de raisonner », explique Arjun Majumdar, un des concepteurs du système.
Après la phase de tests, les résultats obtenus par le système étaient de loin, selon les chercheurs, supérieurs à ceux des systèmes de raisonnement visuel les plus perfectionnés. TbD-net a été testé avec un jeu de données comprenant 70 000 images et 700 000 questions avec un ensemble de données de test constitué de 15 000 images et 150 000 questions. Le premier essai a abouti sur un résultat de 98,7 % de précision, ce qui, selon les chercheurs, est déjà beaucoup plus que n’importe quelle autre approche basée sur les réseaux de modules neuronaux.
Les scientifiques ont pu, à la fin du premier essai, affiner leur approche pour améliorer davantage les résultats de l'algorithme. En fin de compte, le résultat final de la phase d’essai du système a donc été un exceptionnel 99,1 % de précision. « Notre modèle fournit des résultats simples et interprétables à chaque étape du processus de raisonnement visuel », explique David Mascharka.
Comprendre le processus de raisonnement des algorithmes d'IA est le premier pas pour déterminer comment et pourquoi ils pourraient prendre de mauvaises décisions. Il est donc impérieux de mieux comprendre ce processus si des algorithmes doivent être déployés aux côtés des humains pour aider à résoudre des tâches complexes. Autrement, la confiance en ces systèmes restera toujours un sujet clivant.
Voir ici plus de détail sur la « Transparency by Design : Closing the Gap Between Performance and Interpretability in Visual Reasoning »
Source : MIT
Et vous ?
Que pensez-vous de l'utilisation de la méthode du raisonnement transparent par les algorithmes intelligents ?
Cela marquera-t-il un nouvel ère pour l'évolution de l'IA ? Comment et pourquoi selon vous ?
Voir aussi
Cinq algorithmes d'IA font équipe pour écraser des humains au Dota 2, un jeu d'équipe connu pour être extrêmement compliqué
OpenAI d'Elon Musk crée une IA capable de battre des humains sur Dota 2, un jeu vidéo de type arène de bataille en 3D
Intelligence artificielle : OpenAI annonce un système robotique capable de manipuler des objets avec une dextérité humaine
IA : des scientifiques du MIT conçoivent un algorithme capable d'interpréter des images
Pour répondre à des questions sur leur contenu
IA : des scientifiques du MIT conçoivent un algorithme capable d'interpréter des images
Pour répondre à des questions sur leur contenu
Le , par Bill Fassinou
Une erreur dans cette actualité ? Signalez-nous-la !