IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Facebook lance le Deepfake Detection Challenge, un concours avec plus de 10 millions de dollars à la clé
Visant à faire avancer la recherche en matière de lutte contre les contenus manipulés

Le , par Stéphane le calme

93PARTAGES

4  0 
Un deepfake - la contraction des termes anglais deep learning (apprentissage profond) et fake (feint, truqué) - est une technique de synthèse d'images basée sur l'intelligence artificielle. Les méthodes actuelles utilisées deviennent incroyablement sophistiquées et permettent déjà de créer des fausses vidéos difficilement identifiables en tant que telles. Le deepfake est utilisé pour combiner et superposer des images et des vidéos existantes afin de les manipuler à l’aide de l’apprentissage automatique. La technologie est en développement et des chercheurs continuent d’améliorer les méthodes qui contribueront certainement à révolutionner certains secteurs d’activité, mais qui ne manqueront, peut-être, pas de se retrouver, comme une arme, entre les mains des personnes malveillantes.

Sans surprise, l’une des premières utilisations de deepfake a été vue dans l’industrie porno, où des visages ont été superposés à d’autres.

Des chercheurs ont créé des algorithmes qui sont capables de récupérer le contenu d'une vidéo et de l'appliquer à une autre, et ce, sans altérer le style de la vidéo cible. La vidéo, ci-dessous, offre une illustration des plus explicites. Cela commence avec le présentateur américain John Oliver dont les expressions faciales et les mouvements de bouche sont littéralement calqués de façon transparente sur le visage de son homologue Stephen Colbert. On découvre que le système peut s'appliquer à des fleurs ou des paysages. La démonstration se conclut avec le clonage du style de Martin Luther King appliqué sur le visage de Barack Obama, lequel va ensuite se glisser dans la peau de Donald Trump.


Autant d'éléments qui ont contribué à pousser des réflexions pour endiguer les effets pervers de cette technologie. Du côté des législateurs, l'on pense que cette technique de synthèse d’images pourrait être utilisée dans le cadre de campagnes de désinformation plus larges par exemple dans l’optique d’influencer des élections en diffusant des fake news qui pourraient alors paraître plus crédibles. Raison pour laquelle un sénateur américain a proposé un projet de loi prohibant l'utilisation de la technologie deepfake si elle venait à servir des buts frauduleux.

Du côté des grandes technologies, l'a mise sur une approche orientée vers la recherche qui fait appel aux professionnels de l'informatique avec un gain financier à la clé.

Deepfake Detection Challenge

C'est ainsi que Facebook a annoncé le lancement du Deepfake Detection Challenge (DFDC) pour faire avancer la recherche en matière de lutte contre les contenus manipulés et les deepfakes. « Empêcher la diffusion de vidéos deepfake est une préoccupation majeure pour l'ensemble de l'industrie technologique et pour la société. Nous franchissons aujourd'hui une étape importante avec le lancement du Deepfake Detection Challenge (DFDC), une initiative ouverte et collaborative visant à accélérer le développement de nouvelles technologies pour détecter les deepfakes et les médias manipulés », a déclaré Facebook IA.

Organisé en partenariat avec Microsoft, the Partnership on AI, AWS et des chercheurs de Cornell Tech, du MIT, de l’University of Oxford, UC Berkeley, University of Maryland, College Park, et University at Albany-SUNY, le challenge s’appuiera sur un jeu de données réaliste fourni par Facebook. Un classement général permettra de suivre les performances des candidats et le challenge sera accompagné de subventions et de bourses pour inciter l’industrie à créer de nouvelles façons de détecter et d’empêcher que les médias manipulés par l’IA ne soient utilisés pour induire les autres en erreur. Facebook indique avoir consacré plus de 10 millions de dollars en prix et subventions dans le concours, tandis qu'Amazon Web Services verse jusqu'à 1 million de dollars en crédits pour l'utilisation de ses services.

Le nouveau Steering Committee on AI sera en charge de la supervision du DFDC. Il est composé de membres venant d’organisations telles que Facebook, WITNESS, Microsoft et d’autres organisations de la société civile, du monde de la technologie, des médias et des milieux universitaires. Tous sont conscients qu’une solution définitive ne pourra être trouvée; l’implication du plus grand nombre possible de chercheurs a donc pour objectif de coller au plus près à l’évolution technique des deepfakes.


Pour le Deepfake Detection Challenge, Facebook a créé un jeu de données de 100 000 vidéos avec des acteurs rémunérés et pour des scénarios voulus réalistes. Aucune donnée d'utilisateur de Facebook n'est utilisée dans le jeu de données qui comprend 54 % de femmes et 46 % d'hommes. Des vidéos ont donc été manipulées par IA. Des deepfakes qui sont annotés.

« Les chercheurs en intelligence artificielle de Facebook ont utilisé un certain nombre de techniques différentes pour générer des échanges de visages et des altérations de voix des vidéos originales. Avec un sous-ensemble de vidéos, nous avons également appliqué des augmentations qui se rapprochent de dégradations réelles observées dans des vidéos partagées en ligne », explique Facebook.

Gage aux participants de mettre au point des outils de détection en entraînant leurs modèles. Le code sera soumis dans un environnement de boîte noire pour les tests. Pour prétendre à une récompense, les participants doivent accepter de partager leur travail en open source pour en faire bénéficier la communauté de la recherche : « les participants au défi doivent soumettre leur code dans un environnement de boîte noire pour les tests. Les participants n'ont pas besoin de partager leurs modèles pour concourir. Mais pour être éligibles aux prix du défi, ils doivent accepter de partager leur travail en open source afin que d'autres membres de la communauté de la recherche puissent en bénéficier. Les participants conserveront les droits sur leurs modèles formés sur l'ensemble de données de formation. La soumission sera notée et classée par la métrique d'évaluation détaillée sur le site Web du défi, et le classement sera régulièrement mis à jour sur le site afin que les participants puissent comparer leurs progrès avec ceux des autres ».

« Ce projet combine deux éléments qui ont été efficaces pour catalyser la recherche sur l'IA dans d'autres domaines : un défi ouvert pour que les chercheurs puissent rivaliser et comparer leurs résultats, et un ensemble de données à grande échelle et de grande qualité conçu expressément pour ce cas d'usage », déclare Jérôme Presenti, vice-président Facebook AI.

Et d'ajouter : « Les deepfakes sont un défi à évolution rapide, tout comme le spam, le phishing et d'autres menaces, et des progrès rapides exigeront les contributions d'experts de toute la communauté de l'IA ».

Deepfake Detection Challenge

Source : Facebook Artificial Intelligence

Et vous ?

Que pensez-vous de cette initiative ?
Que pensez-vous de ces modalités, notamment de la nécessité de fournir ses travaux en open source ?

Voir aussi :

La Chine fait de la publication des deepfakes ou de fausses nouvelles en ligne un délit criminel, s'il n'est pas dûment révélé que le contenu en question a été créé avec la technologie IA ou VR
La Californie sévit contre les deepfakes politiques et pornographiques avec deux nouveaux projets de loi, les résidents pourront poursuivre quiconque met leur image dans du porno sans consentement
Deepfake : les vidéos manipulées et parfaitement réelles, pourront être créées par n'importe qui d'ici 6 à 12 mois d'après Hao Li, un pionnier de cette technologie
« L'IA ne peut pas nous protéger contre les deepfakes », selon un rapport de Data & Society qui préconise une solution tenant compte à la fois de l'histoire et des processus sociaux

Une erreur dans cette actualité ? Signalez-nous-la !