Intelligence artificielle : AlphaGo au coude à coude avec un enfant de six ans en termes de QI
Bing et Siri font moins bien

Le , par Patrick Ruiz, Chroniqueur Actualités
Une intelligence artificielle bat des experts de l’armée de l’air dans des simulations de combats aériens, Boeing étudie la possibilité de remplacer ses pilotes par l’intelligence artificielle dans ses vols commerciaux ou encore homme vs IA au jeu de go : première manche sur cinq en faveur d’AlphaGo, la liste des sujets relatifs à l’intelligence artificielle s’allonge chaque jour un peu plus sur cette plateforme. Une publication de chercheurs chinois ouvre à nouveau le volet intelligence artificielle avec une comparaison entre humains et intelligence artificielle en termes de quotient intellectuel (QI).

De façon brossée, il ressort des travaux des chercheurs que le créateur (ou Dieu chez les chrétiens) est comparable à une intelligence artificielle dont le quotient intellectuel est le plus élevé. L’humain le seconde et ensuite seulement viennent toutes les autres formes d’IA qui ont été mentionnées jusqu’ici sur DVP. Aspect particulièrement digne d’intérêt, la comparaison frontale de l’intelligence artificielle à l’intelligence humaine en termes de quotient intellectuel (QI). La publication des chercheurs met en exergue le fait qu’à date, AlphaGo de Google est, dans le volet « autres IA » testées par l’équipe, celle qui possède le QI le plus élevé. À noter cependant que, d’après les chiffres publiés par les chercheurs, celui-ci se situe à 47,28 contre 55,5 pour un enfant âgé de six ans. Bing (31,98) et Siri (23,94) sont dans les trois dernières places du top 10 dont l’humain (âgé de 18 ans) occupe le haut du podium avec 97 points de QI.

Il s’agit ici de chiffres de 2016 qui, comparés à ceux de résultats que l’équipe a précédemment obtenus, montrent que dans le volet « autres IA », les agents d’apprentissage se sont améliorés. Pour revenir au cas AlphaGo, on part de 26,5 points de QI pour les chiffres actuels, toutes choses qui laissent penser que dans une future mise à jour, l’IA de Google pourrait dépasser le QI d’un enfant de six ans. De quoi ajouter de l’eau au moulin de ceux qui, comme Elon Musk, pensent que l’intelligence artificielle supplantera bientôt l’humain en termes de capacités. Toutefois, l’humain considéré comme l’IA la plus performante d’après l’étude est, d’année en année, dans un processus d’évolution qui pourra un jour en faire un dieu. Marc Zuckerberg aura sûrement là un argument de plus pour contredire Elon Musk au sujet de l’IA.

Dans cette étude, la comparaison entre humains et IA repose sur un « modèle d’intelligence standard » qui, d’après les chercheurs, a jusqu’ici fait défaut pour effectuer une évaluation de la « menace IA ». « En fait, l’évaluation quantitative de l’intelligence artificielle pose actuellement deux problèmes : il n’existe pas de modèle unifié d’intelligence artificielle pas plus qu’il n’y a de modèle permettant la comparaison entre une IA et un humain », ont écrit les chercheurs à ce sujet. D’après les chercheurs toute intelligence qu’elle soit artificielle ou naturelle doit être capable : obtenir de l’information de l’extérieur, la transformer pour établir une base de données interne maîtrisée, innover par elle-même pour mettre sa base interne à jour, partager des connaissances avec l’extérieur.


« L’architecture de Von Neumann est une référence importante dans l’établissement du modèle d’intelligence standard. En lui adjoignant deux nouvelles composantes, il est possible l’intelligence (humaine ou artificielle) de façon plus explicite », ont écrit les chercheurs. Pour les besoins de la comparaison humains et IA sont donc considérés comme l’ensemble constitué : d’une unité arithmétique et logique (A), d’une unité de contrôle (B), de mémoire interne (C), d’une unité d’innovation (D) et d’unités d’E/S ((E) et (F)).

Les chercheurs ont entamé l’évaluation quantitative de la « menace IA » sur la base de ce modèle depuis 2014. À côté de trois groupes d’humains respectivement âgés de 18, 12 et 6 ans, ils affirment avoir testé 50 moteurs de recherche et les intelligences artificielles de grandes enseignes de l’informatique pour arriver à ces résultats. Une mise à jour devrait faire surface dans les jours à venir puisque les travaux se poursuivent.

Source : publication de recherche


Et vous ?

Que pensez-vous des conclusions de ces travaux ?

Voir aussi :

Jeu de poker : l'IA meilleure que l'homme ? Des chercheurs déclarent avoir battu des professionnels avec l'IA DeepStack et l'IA Libratus est en tête
Des programmes IA pourraient battre les humains au jeu de Doom après avoir appris à jouer en regardant d'autres joueurs
Le champion aux échecs, Garry Kasparov, pense que l'avenir de l'humanité se trouve aux côtés de l'IA, même après sa défaite contre un superordinateur


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse

Avatar de Fleur en plastique Fleur en plastique - Nouveau Candidat au Club https://www.developpez.com
le 09/10/2017 à 17:13
Soyons réalistes. Le QI d'AlphaGo est probablement meilleur que celui de la plupart de nos hommes politiques ainsi que de certains membres du forum qui se reconnaîtront.
Avatar de Aiekick Aiekick - Membre expérimenté https://www.developpez.com
le 09/10/2017 à 22:20
c'est plein d'espoirs de penser qu'une bande de cons va vraiment faire quelque chose de très intelligent
Avatar de Forge Forge - Candidat au Club https://www.developpez.com
le 12/10/2017 à 14:45
Et le test de Turing ? AlphaGo ne le passerai donc pas ?
Avatar de dourouc05 dourouc05 - Responsable Qt https://www.developpez.com
le 12/10/2017 à 16:39
AlphaGo est très bon pour jouer au go, mais exécrable pour tout le reste. En fait, il ne sait faire que jouer au go. C'est un logiciel pour jouer au go, comme il en existe pour les échecs. Il est incapable de s'exprimer, de voir quoi que ce soit : il ne peut pas passer le moindre test de Turing.
Avatar de Deck0 Deck0 - Membre à l'essai https://www.developpez.com
le 12/10/2017 à 22:27
Un gamin de 6 ans à une capacité d'apprentissage actuelle ou à venir phénoménale.
Espérons (?) qu'un jour une IA l'égale sur tous les plans.
Avatar de magnum812 magnum812 - Membre du Club https://www.developpez.com
le 13/10/2017 à 8:39
Je n'ai aucune crainte à ce sujet, si l'IA est calquée sur l'intelligence humaine pour évoluer, ça sera long... très long...
Avatar de Anthaus Anthaus - Membre du Club https://www.developpez.com
le 13/10/2017 à 10:49
J'ai lu en diagonale l'article d'origine, et je veux bien croire qu'il faudrait y passer plus de temps. Mais dans tous les cas, la comparaison n'a pas l'air pertinente. Ils ont mis au point un "modèle mathématique" pour évaluer le "QI" des IA (et pour le détail, il faudrait lire leurs anciens articles), et font la comparaison à travers ce prisme. Ce qui veut dire que même en "QI IA" (qui n'est du coup pas évalué de la même façon qu'un psy évalue le QI d'un enfant), les humains font mieux.
Mais bon, AlphaGo, c'est juste un joueur de go. Meilleur, certes, que n'importe quel joueur humain, mais il ne fait que ça. Donc comparer son "QI" à celui d'un enfant de 6 ans, ça n'a juste aucun sens.
Avatar de maferrari maferrari - Nouveau Candidat au Club https://www.developpez.com
le 13/10/2017 à 17:52
Après avoir imaginé dieu l'humanité va le créer !
Avatar de deathman8683 deathman8683 - Membre actif https://www.developpez.com
le 14/10/2017 à 17:23
« L’architecture de Von Neumann est une référence importante dans l’établissement du modèle d’intelligence standard. En lui adjoignant deux nouvelles composantes, il est possible l’intelligence (humaine ou artificielle) de façon plus explicite »
Oubli d'un verbe

Citation Envoyé par dourouc05 Voir le message
AlphaGo est très bon pour jouer au go, mais exécrable pour tout le reste. En fait, il ne sait faire que jouer au go. C'est un logiciel pour jouer au go, comme il en existe pour les échecs. Il est incapable de s'exprimer, de voir quoi que ce soit : il ne peut pas passer le moindre test de Turing.
C'est la principale différence entre les IA du moment et l'intelligence : L'intelligence est généraliste. Les IA généralistes ne dépassent pas du tout l'homme et c'est hors contexte tant qu'on ne maîtrisera pas le cerveau humain, on reste dans le domaine de la simulation, de l'imitation, de l'automatisme d'un certains nombre de situations. En plus le test de QI n'est pas une science exacte et l'intelligence n'a pas le même sens selon les populations.

Citation Envoyé par magnum812 Voir le message
Je n'ai aucune crainte à ce sujet, si l'IA est calquée sur l'intelligence humaine pour évoluer, ça sera long... très long...
Surtout que contrairement à ce que dit l'article, le QI de l'humain moyen semble régresser plus qu'autre chose. Comparaison de dessins d'enfants de 6 ans :



image tirée de cet article sur la lobotomie et la TV : https://christophevieren.fr/article-...omie-121420120

On voit qu'il devient facile de dépasser le QI d'un enfant de 6 ans, même un enfant de 6 ans y arriverai (en codant en python)

Citation Envoyé par maferrari Voir le message
Après avoir imaginé dieu l'humanité va le créer !
Elle veut surtout l'être, c'est une énième manifestation de l’instinct de domination et d'anthropocentrisme de l'Homme.
Avatar de Matthieu Vergne Matthieu Vergne - Expert confirmé https://www.developpez.com
le 18/11/2017 à 20:42
Bon, ça fait longtemps que je n'ai pas posté, et j'étais en train de parcourrir mes notifs DVP pas encore lues, lorsque j'arrive sur ce sujet. Et quoi de mieux qu'un sujet sur l'IA pour m'y remettre ?

...

En fait je pensais pouvoir faire une analyse poussée, mais ça ne serait aps rentable, donc on va se limiter à ce qui fait que personne ne devrait lire cet article plus que "en diagonale".

Pour faire simple, cet article souffre de l'absence totale d'étude de l'existant, alors que c'est la base de tout travail de recherche. Notamment, on a là des auteurs qui parlent (voire se vantent) d'avoir déjà publié des articles et d'avoir fait des expérimentations depuis 2014 sur un modèle d'intelligence standard, on peut donc légitimement s'attendre à une bonne quantité de sources pour appuyer leurs travaux. L'article étant de 16 pages mono-colonne, cela ressemble à un article de conférence classique au format LNCS, qui dispose généralement de 20-30 citations. Or on a là 9 citations au total, dont le tiers revient aux auteurs eux-même. Le reste ? Voilà un extrait de l'article :
The basic characteristic of a first-grade system of artificial intelligence is that it cannot carry out information-related interaction with human testers. For example, there is an animistic line of thought in which all objects have a soul or a "spirit of nature"[7] and in which, for instance, trees or stones have equivalent values and rights to those of humans. Of course, this is more of a philosophical than a scientific point of view; for the purposes of our hierarchical criteria, we can only know whether or not the system can exchange information with testers (humans).
En d'autres termes, voilà un commentaire sur les religions animistes sans grande importance pour leurs travaux, une simple note de curiosité, qui pourtant se retrouve avoir sa propre référence (le [7] au milieu). La références, au passage, est la suivante, en français dans l'article :
Emile Durkheim. Les formes élementaires de la vie religieuse [M]. Shanghai:Shanghai people's Publishing House,2006:78-79

Je n'ai rien contre citer des textes religieux, ou même des romans ou autres, mais dans un article bien fait, la place coûte cher, et on a donc rarement l'opportunité de caler une référence de ce genre. Donc un article où on en vient à alimenter les citations pour de simples petites notes reconnue comme étant sans importance par les auteurs eux-même, autant dire que ça sent très fort le manque de support.

Je ne vais pas faire une liste exhaustive de ce qu'on pourrait reprocher à cet article, mais j'aimerais notamment citer :
- l'absence totale de citation traitant de l'intelligence humaine, un comble quand on parle de le comparer à l'IA
- l'absence totale de citation liée à l'AGI (intelligence artificielle générale), qui se focalise justement sur l'évaluation de l'intelligence humains comme artificielle
- l'absence totale de citation traitant du QI tel qu'on le conçoit aujourd'hui, un comble quand on parle d'en faire un alors qu'aujourd'hui le QI est anthropocentré
- l'amalgame criant entre connaissances et intelligence, et cela dès le résumé
- le manque de discernement entre ce que sont des données, des informations et des connaissances (pas même une définition)
- une formalisation mathématique certes simple (vous avez dit simpliste ?) mais surtout avec des variables qui ne sont nulle part définies
- aucun détail sur les tests effectués (je me demande comment ils ont pu tester la capacité de stockage des humains, une des 4 charactéristiques fondamentales de leur modèle)
- un modèle qui ne fait que trahir le côté anthropocentré de leurs tests (le testeur est toujours humain)
- aucune justification d'aucune sorte quant à la pertinence de telle ou telle idée (les auteurs on vu que des trucs pouvaient être mis ensemble, ils les ont mis ensemble, et d'après le modèle en résultant, hop, X est intelligent à hauteur de autant)

En bref, on a là des notes persos, écrites pendant un cours ennuyeux, enrichies de quelques citations entendues ici ou là, formattées pour ressembler à un article de recherche, et publiées sans la moindre revue sérieuse. Si vous êtes intéressés par l'IA, passez votre chemin, votre temps vaut plus que ça. Cela vaudra donc un -1 à l'auteur DVP !

Du coup, j'en viens même à regretter d'avoir réveillé le sujet...
Contacter le responsable de la rubrique Accueil