Chaque fois que le site est rafraîchi, une image débordant de réalisme présente le visage d’une personne. Phillip Wang, ingénieur en logiciel chez Uber, a créé la page pour démontrer les capacités du GAN, puis l'a publiée mardi sur le groupe public "Intelligence artificielle et apprentissage en profondeur".
Le code sous-jacent qui a rendu cela possible, intitulé StyleGAN, a été écrit par Nvidia et fait l'objet d'un article qui n'a pas encore été approuvé par des pairs. Ce type de réseau de neurones a le potentiel de révolutionner la technologie du jeu vidéo et de la modélisation 3D, mais, comme presque tout type de technologie, il pourrait également être utilisé à des fins plus sinistres. Rappelons par exemple que les deepfakes, ou des images générées par ordinateur superposées à des images ou des vidéos existantes, peuvent être utilisés pour diffuser de faux récits d’actualité ou d’autres canulars. C’est donc dans un but de sensibilisation que Wang a choisi de faire cette page Web.
Portrait généré par l'IA
Envoyé par Phillip Wang
Le concept de GAN a été introduit pour la première fois en 2014 par le célèbre informaticien Ian Goodfellow, et depuis lors, Nvidia est à la pointe de la technologie. Tero Karras, chercheur principal de la société, a dirigé de nombreuses études sur le GAN.
Un GAN est un modèle génératif où deux réseaux sont placés en compétition dans un scénario de théorie des jeux. Le premier réseau est le générateur, il génère un échantillon (ex. une image), tandis que son adversaire, le discriminateur essaie de détecter si un échantillon est réel ou bien s'il est le résultat du générateur. L'apprentissage peut être modélisé comme un jeu à somme nulle. Ces programmes informatiques se font concurrence des millions de fois afin d’affiner leurs compétences en matière de génération d’images jusqu’à ce qu’ils aient la capacité de créer des images complètes.
S’il fallait simplifier, nous pourrions dire que le GAN implique que deux réseaux travaillent l’un contre l’autre. Le premier va être nourri en données brutes qu’il va décomposer. À partir de ces données, il va tenter de créer une image. Il va ensuite soumettre cette image à un autre réseau qui, lui, n’a que des photos ou images réelles dans sa base de données. Ce deuxième réseau va alors juger de l’image et va informer le premier de son jugement. Si l’image ne ressemble pas au résultat attendu, le premier algorithme va recommencer le processus. Si le résultat correspond, il va être informé qu’il est sur la bonne voie et finir par comprendre ce qu’est une bonne image. Une fois qu’il est suffisamment entraîné, il peut en produire à la chaîne.
Il faut noter que les GAN ne servent pas seulement dans le domaine de l'art ou du jeu vidéo. En Russie, l'Institut de physique et de technologie de Moscou développe des GAN qui seraient capables d'"inventer" de nouvelles structures moléculaires dans le cadre de la recherche pharmaceutique. Ils seraient employés pour exploiter au mieux les propriétés spécifiques de molécules utilisées pour la fabrication de médicaments. L'existence de cette technologie pourrait apporter pour la recherche un gain de temps et de coûts, et améliorer l'efficacité ou réduire les effets secondaires de certains médicaments comme l'aspirine. Sur le principe, les informations sur des composés aux propriétés médicinales reconnues sont intégrées dans le Generative Adversarial Autoencodeur, une extension du GAN, ajusté pour faire ressortir ces même données.
Artur Kadurin, développeur au sein du groupe Mail.Ru et conseiller indépendant chez Insilico Medecine, une entreprise américaine, annonce que : "Les GAN sont vraiment la ligne de front des neurosciences. Il est clair qu'ils peuvent être utilisés pour une gamme de tâches beaucoup plus large que la simple génération d'images et de musique. Nous avons testé cette approche avec la bio-informatique et obtenu d'excellents résultats."
Cependant, bien que des progrès ont été notés dans l'apprentissage de ces GAN et qu'ils peuvent apporter une meilleure compréhension en biologie et chimie, il n'en reste pas moins que leur utilisation dans des essais cliniques ne sont pas encore fiables
Nvidia tire son épingle du jeu
Le premier secteur d'activité de Nvidia est la conception et la vente d'unités de traitement graphique (GPU, ou cartes graphiques). Les GPU sont les moteurs de l'apprentissage automatique utilisés pour la formation d'algorithmes, tels que StyleGAN, pendant des heures. En somme, les GPU sont excellents pour multiplier rapidement d’énormes rangées et colonnes de chiffres, ce qui est un peu ce qui se passe sous le capot quand une IA se forme.
L’entreprise a l’avantage d’avoir accès à ses GPU les plus avancés, offrant ainsi à ses chercheurs l’avantage supplémentaire des ressources les plus avancées pour la formation de réseaux de neurones.
Nvidia, Facebook, Google et de nombreuses autres entreprises de haute technologie ont des escadrons de chercheurs développant des versions de cette technique d’IA. L'objectif final est de l'utiliser pour générer des mondes virtuels complètement développés, potentiellement en réalité virtuelle, en utilisant des méthodes automatisées au lieu d'un codage strict. Mais dans le même temps, les GAN sont déjà utilisés pour développer le marché naissant des influenceurs virtuels dans les médias sociaux.
Sources : ThisPersonDoesNotExist, déclarations Phillip Wang (Facebook), réseaux antagonistes génératifs
Et vous ?
Que pensez-vous de cette initiative ?
Ces portraits vous semblent-ils réalistes ?
Trop beau pour être vrai ?
Voir aussi :
Gartner démystifie cinq idées fausses sur l'intelligence artificielle, ou « IA », l'argument marketing du moment, d'après l'un des inventeurs de Siri
Watson IA bientôt disponible partout, IBM compte externaliser son service vers les autres clouds concurrents
Vos compétences en IA sont moins précieuses que vous le pensez, selon un ex-Googler estimant que c'est une mauvaise idée de lancer une startup en IA
AlphaStar, la nouvelle IA de DeepMind, a écrasé des joueurs pro de Starcraft II, un jeu vidéo conçu pour défier l'intellect humain