Ne mélangeons pas tout non plus : on parle là de comprendre comment le cerveau fonctionne, et non pas l'intelligence. Être doté d'un cerveau ne protège pas contre les bêtises les plus idiotes à ce que je sache.
Par ailleurs, si on se fie à
l'article scientifique, les motivations des chercheurs sont assez spécifiques :
Recently, we have taken an alternative “thought-experiment” approach to this question (Tsien, 2015a,b; Li et al., 2016). We reasoned that the essence of intelligence lies in the brain’s ability to
discover specific features and generalized knowledge from a world full of uncertainties and infinite possibilities; therefore, our search for the brain’s computational logic can be reduced to the question of how neurons should be connected in such a way that would inherently afford the brain to
discover various patterns and conceptual knowledge.
On se focalise là sur certains aspects qu'on associe à l'intelligence (découverte de concepts) mais pas d'autres (raisonnement logique, pondération des décisions, etc.). En l'occurrence, si on se focalise sur la construction de modèles statistiques, n'est-ce pas ce qu'on fait déjà avec les réseaux de neurones artificiels ? Quid de la validation de ces modèles ?
Par ailleurs, que dit cette théorie ? Elle parle d'avoir en bref des connexions "exhaustives", c'est à dire par exemple que pour 4 entrées, on a 4 cliques de neurones qui ne prennent qu'une entrée chacun, 6 qui prennent les combinaisons de 2 entrées, 4 qui prennent les combinaisons de 3 entrées, et 1 qui prend les 4 entrées, soit 15 cliques de neurones pour couvrir l'ensemble des combinaisons d'entrées possibles. Les premières cliques, qui ne prennent que quelques entrées, concernent les fonctions (mémoire et actions) les plus spécifiques, alors que les cliques ayant le plus d'entrées concernent les fonctions les plus génériques. Ou comme le disent les auteurs :
this power-of-two-based permutation logic intrinsically enables each FCM to cover every mathematical possibility of connectivity patterns in a specific-to-general manner
En bref, on parle ici de couvrir toutes les possibilités, un simple "brute force" en quelque sorte. Quoi que, on n'a pas de cliques avec les même entrées mais pondérées différemment, ce qu'on peut avoir dans un réseau de neurones artificiels. De là, on commence à comprendre qu'effectivement on ne parle pas d'intelligence, qui est un concept de haut niveau, mais bien d'une simple architecture de base visant à représenter tout et n'importe quoi (i.e. pas juste le meilleur). Un test effectué par exemple est celui de la nourriture : 4 aliments ont été donnés et ils ont été capables de trouver des cliques de neurones qui effectivement ne s'activent que pour 1 aliment (pour chaque cas), que pour 2 aliments (pour chaque combinaisons), que pour 3 aliments (pour chaque combinaisons), et indifféremment pour les 4. En quoi cela montre pour autant que la souris ou le hamster est intelligent...
Donc du point de vue de l'intelligence, pour moi cet article n'apporte absolument rien. Ça fait buzz, c'est cool de caser le terme intelligence dans l'article, mais concrètement on parle de couverture de concepts ou d'attributs : on est capable de trouver des cliques de neurones spécialisées pour chacune des expériences suivies. De là on en tire comme conclusion qu'on doit avoir des cliques de neurones spécialisées pour toutes les expériences possibles. Le même genre d'expérience a été fait pour identifier des cliques de neurones sur des événements sociaux et de peur pour montrer que ça couvre plusieurs phénomènes.
Est-ce que ça veut dire que toutes les cliques de neurones fonctionnent comme ça ? Non, ce qu'ils montrent par exemple avec ceux liés à la dopamine, pour lesquels ils ne retrouvent que quelques combinaisons, notamment les plus génériques. Cela dit, ça n'empêchera pas les auteurs de clamer à la fin de l'article l'universalité du principe du fait qu'ils ont été capable de le faire dans 7 régions du cerveau. Par ailleurs, je me demande comment ils peuvent en venir aussi facilement aux conclusions en testant 4 cas pour chaque expérience (e.g. 4 nourritures différentes). Dans ces conditions, il me semble facile de trouver toutes les combinaisons et stupide de penser qu'on a fait le tour de toutes les possibilités, alors que la théorie prône justement cette exhaustivité.
Une observation intéressante me semble être que les expérimentations ont tenté de cibler des événements nouveaux (e.g. manger un type de nourriture pour la première fois), ce qui implique que la séparation des cliques identifiées n'est pas due à un phénomène d'apprentissage mais à une pré-configuration des neurones (i.e. dépendant des gènes et non de l'environnement). Ils ont testé l'hypothèse en tentant de faire une sorte de reset des connections neuronales pour voir que finalement ils retrouvaient des résultats très similaire, laissant penser que ça ne dépend donc pas de l'apprentissage. Conclusion à mettre cependant en lumière avec la méthode d'expérimentation, qui peut avoir ses défauts. Je suis pas un expert donc je passe ce point.
D'autres hypothèses sont abordées dans l'article, telles que sur la structure (du plus spécifique au plus générique) et une certaine hérédité, mais encore une fois rien à voir avec un concept abstrait comme l'intelligence. Finalement, après lecture de l'article, je ne vois pas bien ce que ça m'apprend de plus dont je ne pouvais déjà me douter après avoir terminé mon MOOC sur les réseaux neuronaux artificiels. À part suggérer une initialisation prédéfinie plutôt qu'aléatoire sur les neurones du deuxième étage (qui combine les entrées du premier étage) je ne vois pas grand chose à en tirer. De mon point de vue, on est donc très loin d'une découverte majeure. Ça reste plutôt incrémental pour ce qui me concerne. Surtout que la théorie est grosso modo détruite en fin d'article dès qu'on en arrive à voir qu'avec 40 entrées, il nous faudrait plus de 10x plus de neurones que ce qu'on a déjà pour que la théorie se tienne.
En bref, on sort une nouvelle théorie simpliste, on montre avec des expérimentations extrêmement réduites que ça peut tenir à petite échelle, puis que dans les faits c'est juste intenable car non scalable, et donc que la théorie est bien mais bon, au final les théories déjà prépondérantes (supposant des neurones à la suite plutôt que des cliques indépendantes) est plus efficace et n'est finalement pas vraiment remis en cause. Il ne fait aucun doute que j'ai loupé des détails, vu que ce n'est pas mon domaine, mais il me semble clair que l'article enfonce quelques portes ouvertes et n'apporte finalement pas grand chose de solide à exploiter pour l'IA.
4 |
0 |