Les deepfakes sont de fausses vidéos ou de faux enregistrements audio qui ont l'air et le son de la réalité. Le mot est issu de la combinaison des mots « deep learning » ou « apprentissage profond », signifiant que la technique de création de ces médias se base sur l'intelligence artificielle, et « fake », qui étiquette le média comme un faux. Les deepfakes se sont longtemps limités aux amateurs qui mettent des visages de célébrités sur le corps de stars de la pornographie et font dire des choses drôles aux politiciens. Cela dit, les créateurs de ces faux médias peuvent aller plus loin.
Ils sont aussi tout à fait capables de créer un deepfake d'alerte d'urgence avertissant qu'une attaque est imminente ou en créer un pour perturber une élection serrée en diffusant une fausse vidéo ou un faux enregistrement audio d'un des candidats quelques jours avant le scrutin. Si les deepfakes démontrent les progrès remarquables dans le domaine de l’IA, depuis leur apparition, ces derniers ont toujours été considérés comme une technologie dangereuse et nuisible dans presque tous les pays du monde. En 2018, les États-Unis ont qualifié les deepfakes comme une menace à la sécurité nationale.
Cela à cause du fait qu’un deepfake peut contribuer à l’ingérence dans les élections et d’autres raisons secondaires. Cependant, les voilà prêts à user de cette même technologie pour combattre une éventuelle ingérence de la part des Russes ou des Nord-Coréens lors du scrutin présidentiel prévu en novembre. Pour ce faire, ils ont préparé deux vidéos deepfakes mettant en scène des versions truquées du président russe Vladimir Poutine et du président nord-coréen Kim Jong-un. Il s’agit de deux publicités politiques censées être diffusées cette semaine sur les médias sociaux.
Les deux faux présidents donneront le même message : « l'Amérique n'a pas besoin de leur ingérence dans les élections ; elle ruinera sa démocratie par elle-même ».
Alors, quel est le but de la manœuvre ?
Selon un rapport datant du mardi du MIT Technology Review, même si les publicités ont l’air effrayantes, elles sont destinées à une bonne cause. Le média américain estime qu’elles font partie d’une campagne du groupe de défense non partisan RepresentUs qui vise à protéger le droit de vote lors des prochaines élections présidentielles, au milieu des attaques du président actuel Donald Trump contre le vote par correspondance et des allégations selon lesquelles il pourrait refuser une transition pacifique, récemment relayées par de nombreux médias.
Le but est donc de faire comprendre aux Américains la fragilité de la démocratie et les inciter à prendre diverses mesures, notamment à s’assurer de leur inscription sur les listes électorales et à se porter volontaires pour les élections. Le groupe retourne ainsi le scénario sur le récit typique des deepfakes politiques, dont les experts craignent souvent qu'ils ne soient utilisés à mauvais escient pour semer la confusion chez les électeurs et perturber le scrutin. RepresentUs a travaillé avec l'agence de création “Mischief at No Fixed Address”, qui a eu l'idée d'utiliser des dictateurs pour faire passer le message.
Ils ont filmé deux acteurs ayant la bonne forme de visage et des accents authentiques pour réciter le script. Ensuite, ils ont fait appel à un amateur de deepfakes qui a utilisé un algorithme open source pour intervertir les visages de Poutine et de Kim. Pour peaufiner le tout, une équipe de postproduction a nettoyé les artefacts restants de l'algorithme afin de rendre la vidéo plus réaliste. Selon le rapport, l'ensemble du processus n'a pris que 10 jours. L’équipe a expliqué que tenter l'équivalent avec l'algorithme CGI aurait probablement pris des mois. Le coût aurait également pu être prohibitif.
Enfin, les publicités devraient être diffusées sur Fox, CNN et MSNBC sur leurs antennes de Washington, DC, mais les stations les ont retirées de la diffusion à la dernière minute. Un porte-parole de la campagne a déclaré qu'ils attendaient toujours une explication. Les publicités comportent un avertissement à la fin, indiquant « les images ne sont pas réelles, mais la menace l'est ». Mais étant donné la nature sensible de l'utilisation des deepfakes dans un contexte politique, il est possible que les canaux de diffusion aient eu le sentiment que le public américain n'était pas prêt.
Source : MIT Technology Review
Et vous ?
Qu'en pensez-vous ?
Voir aussi
Ne dites plus « deepfake » mais dites « vidéotox », préférez « divulgâcher » à « spoiler », la Commission propose de nouvelles traductions officielles
Avatarify, un deepfake qui échange en temps réel votre visage avec celui d'une célébrité pendant les appels vidéo sur Zoom et Skype
Les législateurs US estiment que la technologie deepfake constitue une menace à la sécurité nationale et appellent à des contremesures
Une nouvelle méthode inédite de deepfake a été mise au point par des chercheurs, permettant de transférer le style d'une personne à une autre
Facebook lance le Deepfake Detection Challenge, un concours avec plus de 10 millions de dollars à la clé, visant à faire avancer la recherche en matière de lutte contre les contenus manipulés