IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA apprend à se créer elle-même, pour cause, les humains auraient eu du mal à créer des machines intelligentes,
Peut-être devrions-nous les laisser s'en occuper eux-mêmes

Le , par Bruno

2PARTAGES

4  0 
Chercheur en intelligence artificielle chez Uber, Rui Wang aime laisser le logiciel Paired Open-Ended Trailblazer (POET), qu'il a contribué à développer, tourner sur son ordinateur portable pendant la nuit. POET est une sorte d’outil d'entraînement pour les robots virtuels. Jusqu'à présent, ils n'auraient pas appris à faire grand-chose. Ces agents d'IA ne jouent pas au go, ne repèrent pas les signes de cancer ou ne plient pas des protéines. Ils essaient de naviguer sans tomber dans un paysage de cartoon grossier fait de clôtures et de ravins.

Mais ce n'est pas ce que les robots apprennent qui est passionnant, c'est la manière dont ils apprennent. POET génère les parcours d'obstacles, évalue les capacités des robots et leur assigne leur prochain défi, le tout sans intervention humaine. Pas-à-pas, les robots s'améliorent par essais et erreurs.


« À un moment donné, il peut sauter par-dessus une falaise comme un maître du kung-fu », explique MWang. « Chaque jour, j'entre dans mon bureau, j'ouvre mon ordinateur et je ne sais pas à quoi m'attendre », poursuit-il. Cela peut sembler élémentaire pour l'instant, mais pour Wang et une poignée d'autres chercheurs, POET laisse entrevoir une nouvelle façon révolutionnaire de créer des machines super intelligentes : en amenant l'IA à se fabriquer elle-même.

L'ancien collègue de Wang, Jeff Clune, est l'un des plus fervents défenseurs de cette idée. Clune y travaille depuis des années, d'abord à l'université du Wyoming, puis aux Uber AI Labs, où il a collaboré avec Wang et d'autres. Il partage désormais son temps entre l'université de Colombie-Britannique et OpenAI, et bénéficie du soutien de l'un des meilleurs laboratoires d'intelligence artificielle au monde.

Clune estime que la tentative de créer une IA véritablement intelligente est la quête scientifique la plus ambitieuse de l'histoire de l'humanité. Aujourd'hui, sept décennies après le début des efforts sérieux en matière d'IA, nous sommes encore loin de créer des machines aussi intelligentes que les humains, voire plus intelligentes. Clune pense que POET pourrait montrer un raccourci. « Nous devons nous libérer de nos entraves et sortir de notre propre chemin », déclare-t-il.

Si Clune a raison, l'utilisation de l'IA pour créer de l'IA pourrait constituer une étape importante sur la voie qui mènera un jour à l'intelligence artificielle générale (IAG), c'est-à-dire à des machines capables de surpasser les humains. À plus court terme, cette technique pourrait également nous aider à découvrir d'autres types d'intelligence : des intelligences non humaines capables de trouver des solutions de manière inattendue et peut-être de compléter notre propre intelligence plutôt que de la remplacer.

La vision ambitieuse de Clune ne repose pas uniquement sur l'investissement d'OpenAI. L'histoire de l'IA est remplie d'exemples où des solutions conçues par l'homme ont cédé la place à des solutions apprises par la machine. Prenons l'exemple de la vision par ordinateur : il y a dix ans, la grande avancée dans le domaine de la reconnaissance d'images s'est produite lorsque les systèmes manuels existants ont été remplacés par des systèmes autodidactes. Il en va de même pour de nombreux succès de l'IA.

L'un des aspects fascinants de l'IA, et de l'apprentissage automatique en particulier, est sa capacité à trouver des solutions que les humains n'ont pas trouvées. Un exemple souvent cité est celui d'AlphaGo (et de son successeur AlphaZero), qui a battu le meilleur de l'humanité à l'ancien et fascinant jeu de Go en utilisant des stratégies apparemment étrangères.

En 2016, à l'issue d'une partie qui a duré trois heures et que les commentateurs ont estimé être serrée, Lee Sedol, le joueur professionnel considéré comme le meilleur joueur international des années 2000, s'est incliné face aux assauts du programme. Après des centaines d'années d'étude par des maîtres humains, l'IA a trouvé des solutions auxquelles personne n'avait pensé.

Clune travaille actuellement avec une équipe d'OpenAI qui a mis au point des bots ayant appris à jouer à cache-cache dans un environnement virtuel en 2018. Ces IA ont commencé avec des objectifs simples et des outils simples pour les atteindre : une paire devait trouver l'autre, qui pouvait se cacher derrière des obstacles mobiles. Pourtant, lorsque ces bots ont été lâchés pour apprendre, ils ont rapidement trouvé des moyens de tirer parti de leur environnement d'une manière que les chercheurs n'avaient pas prévue.

Ils ont exploité des failles dans la physique simulée de leur monde virtuel pour sauter par-dessus les murs et même les traverser.
Ce type de comportements émergents inattendus laisse entrevoir que l'IA pourrait trouver des solutions techniques auxquelles les humains n'auraient pas pensé par eux-mêmes, en inventant de nouveaux types d'algorithmes ou de réseaux neuronaux plus efficaces, voire en abandonnant complètement les réseaux neuronaux, pierre angulaire de l'IA moderne.

Il faut d'abord fabriquer un cerveau, puis l'enseigner. Mais les cerveaux des machines n'apprennent pas comme les nôtres. Notre cerveau est fantastique pour s'adapter à de nouveaux environnements et à de nouvelles tâches. Les IA d'aujourd'hui peuvent résoudre des problèmes dans certaines conditions, mais échouent lorsque ces conditions changent, même légèrement. Cette rigidité entrave la recherche d'une IA plus généralisable, capable d'être utile dans un large éventail de scénarios, ce qui constituerait un grand pas vers une véritable intelligence.

Pour Jane Wang, chercheuse chez DeepMind à Londres, la meilleure façon de rendre l'IA plus flexible est de lui faire apprendre elle-même cette caractéristique. En d'autres termes, elle veut construire une IA qui non seulement apprend des tâches spécifiques, mais apprend aussi à apprendre ces tâches d'une manière qui peut être adaptée à de nouvelles situations.

Depuis des années, les chercheurs tentent de rendre l'IA plus adaptable. Wang pense que le fait de laisser l'IA résoudre elle-même ce problème permet d'éviter les tâtonnements d'une approche conçue à la main : « Nous ne pouvons pas nous attendre à trouver la bonne réponse tout de suite ». Elle espère que ce faisant, nous en apprendrons également davantage sur le fonctionnement du cerveau. « Il y a encore tellement de choses que nous ne comprenons pas sur la façon dont les humains et les animaux apprennent », dit-elle. Il existe deux approches principales pour générer automatiquement des algorithmes d'apprentissage, mais toutes deux partent d'un réseau neuronal existant et utilisent l'IA pour l'enseigner.

La première approche, inventée séparément par Wang et ses collègues de DeepMind et par une équipe d'OpenAI à peu près au même moment, utilise des réseaux neuronaux récurrents. Ce type de réseau peut être entraîné de manière à ce que l'activation de ses neurones, qui s'apparente à la mise à feu des neurones dans les cerveaux biologiques, code n'importe quel type d'algorithme. DeepMind et OpenAI en ont profité pour entraîner un réseau neuronal récurrent afin de générer des algorithmes d'apprentissage par renforcement, qui indiquent à une IA comment se comporter pour atteindre des objectifs donnés.

Le résultat est que les systèmes DeepMind et OpenAI n'apprennent pas un algorithme qui résout un défi spécifique, comme la reconnaissance d'images, mais apprennent un algorithme d'apprentissage qui peut être appliqué à de multiples tâches et s'adapter au fur et à mesure. C'est comme le vieil adage sur l'apprentissage de la pêche : alors qu'un algorithme conçu à la main peut apprendre une tâche particulière, ces IA sont faites pour apprendre à apprendre par elles-mêmes. Et certaines d'entre elles obtiennent de meilleurs résultats que celles conçues par l'homme.

La deuxième approche est celle de Chelsea Finn, de l'université de Californie à Berkeley, et de ses collègues. Appelée méta-apprentissage agnostique des modèles, ou MAML, elle forme un modèle à l'aide de deux processus d'apprentissage automatique, l'un imbriqué dans l'autre.

Voici, ci-dessous, son fonctionnement :

le processus interne de MAML est entraîné sur des données, puis testé, comme d'habitude. Mais ensuite, le modèle externe prend les performances du modèle interne comment il identifie les images, par exemple et les utilise pour apprendre à ajuster l'algorithme d'apprentissage de ce modèle afin d'améliorer les performances. C'est comme si vous aviez un inspecteur scolaire qui surveillait un groupe de professeurs, chacun proposant différentes techniques d'apprentissage. L'inspecteur vérifie quelles techniques permettent aux élèves d'obtenir les meilleurs résultats et les modifie en conséquence.

Grâce à ces approches, les chercheurs construisent une IA plus robuste, plus généralisée et capable d'apprendre plus rapidement avec moins de données. Par exemple, Finn veut qu'un robot qui a appris à marcher sur un terrain plat soit capable de passer, avec un minimum d'entraînement supplémentaire, à la marche sur une pente, sur de l'herbe ou en portant une charge.

L'année dernière, Clune et ses collègues ont étendu la technique de Finn pour concevoir un algorithme qui apprend en utilisant moins de neurones afin de ne pas éffacer tout ce qu'il a appris précédemment, un gros problème non résolu dans l'apprentissage automatique connu sous le nom d'oubli catastrophique. Un modèle entraîné qui utilise moins de neurones, appelé modèle "clairsemé", aura plus de neurones inutilisés à consacrer à de nouvelles tâches lors du réentraînement, ce qui signifie que moins de neurones "utilisés" seront écrasés.


Clune a constaté que le fait de soumettre son IA au défi d'apprendre plus d'une tâche l'a amenée à créer sa propre version d'un modèle clairsemé qui a donné de meilleurs résultats que les modèles conçus par l'homme. Si nous voulons laisser l'IA se créer et s'enseigner elle-même, elle devrait également créer ses propres environnements de formation - les écoles et les manuels, ainsi que les plans de cours.

L'année dernière, nous avons assisté à une multitude de projets dans lesquels l'IA a été formée à partir de données générées automatiquement. Les systèmes de reconnaissance des visages sont entraînés avec des visages générés par l'IA, par exemple. Les IA apprennent également à s'entraîner mutuellement. Dans un exemple récent, deux bras de robot ont travaillé ensemble, l'un apprenant à relever des défis de plus en plus difficiles en matière d'empilement de blocs, ce qui a permis à l'autre bras de s'entraîner à saisir des objets.

Si l'IA commence à générer de l'intelligence par elle-même, rien ne garantit qu'elle sera de type humain. Plutôt que d'apprendre aux machines à penser comme les humains, les machines pourraient enseigner aux humains de nouvelles façons de penser.

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

La blockchain, la cybersécurité, le cloud, l'apprentissage automatique, et le DevOps font partie des compétences technologiques les plus demandées en 2022, selon un rapport de Comptia

Des images montrent un char robot piloté par l'IA qui fait exploser des voitures, soulevant à nouveau les craintes sur la prolifération des armes létales autonomes

La transcription utilisée comme preuve de la sensibilité de l'IA LaMDA de Google a fait l'objet de modification pour la rendre agréable à lire, d'après des notes de l'ingénieur congédié par Google

Un ingénieur de Google a été congédié après avoir déclaré que le chatbot IA LaMDA de Google est devenu sensible et exprime des pensées et des sentiments équivalents à ceux d'un enfant humain

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 02/07/2022 à 14:49
Là ça m'intéresse ! Maintenant on parle AGI ! Hâte de voir comment ça avancera, voire d'y participer !
0  0