Une nouvelle méthode inédite de deepfake a été mise au point par des chercheurs,
Permettant de transférer le style d'une personne à une autre

Le , par Stan Adkens, Chroniqueur Actualités
Les méthodes de deepfakes deviennent incroyablement sophistiquées et permettent déjà de créer des fausses vidéos difficilement identifiables en tant que telles. Un deepfake est une technique de synthèse d'images basée sur l'intelligence artificielle. Il est utilisé pour combiner et superposer des images et des vidéos existantes afin de les manipuler à l’aide de l’apprentissage automatique. La technologie est en développement et des chercheurs continuent d’améliorer les méthodes qui contribueront certainement à révolutionner certains secteurs d’activité mais qui ne manqueront, peut-être, pas de se retrouver, comme une arme, entre les mains des personnes malveillantes.


La toute dernière méthode a été mise au point par des chercheurs de l’Université Carnegie Mellon, qui ont trouvé un moyen de transférer automatiquement le style d’une personne à une autre. Dans une vidéo Youtube, les chercheurs exposent les résultats obtenus à l’aide de leur méthode. « Par exemple, le style de Barack Obama peut être transformé en Donald Trump », ont-ils écrit dans la description de la vidéo.

La mauvaise utilisation de cette méthode pourrait la transformer en véritable source de problème sur Internet. C’est, d’ailleurs, pour limiter des éventuels dégâts que causeraient ces méthodes ainsi que bien d’autres techniques que l’administration Trump travaille à l'établissement de règles de protection de la vie privée sur Internet à l’image du RGPD en Europe.

Vidéo mettant en évidence les résultats de la nouvelle méthode


Les résultats de la nouvelle méthode exposés dans la vidéo montrent que les expressions faciales de John Oliver dans la vidéo originale sont transférées chez Stephen Colbert et ensuite chez la grenouille animée dans la vidéo deepfake. De même, les expressions faciales chez de Martin Luther King dans la vidéo originale sont transférées à Obama dans la vidéo deepfake. Les vidéos obtenues avec leur méthode sont très convaincantes, selon Gizmodo.

Dans un article publié, les chercheurs expliquent le processus en tant qu’une approche d’apprentissage non supervisé basée, bien évidemment, sur l’intelligence artificielle comme les précédentes méthodes de développement de deepfakes.

La méthode ne traite pas seulement que du transfert du style de parole et des mouvements du visage des humains, elle s’étend aux autres paysages de la nature comme dans les exemples de la vidéo où la méthode s’applique à des fleurs épanouies, aux levers et aux couchers de soleil, aux nuages et au vent.

En ce qui concerne le transfert de style de personne à personne dans les exemples de la vidéo, les chercheurs énumèrent « la fossette de John Oliver en souriant, la forme de la bouche caractéristique de Donald Trump et les lignes faciales des lèvres et le sourire de Stephen Colbert. », comme des exemples de styles transférés des vidéos originales aux vidéos deepfakes. Pour démontrer l’authenticité de la méthode, les chercheurs ont utilisées des vidéos populaires à la disposition du grand public.

La méthode peut paraitre bien sympathique et utile à plusieurs fins telles que dans le cas de l’application au développement des animations anthropomorphes réalistes. Pourvu qu’elle ne soit pas mise au service de la propagande politique.

Source : Gizmodo, Article des chercheurs

Et vous ?

Que vous inspire cette nouvelle méthode ?
Ces méthodes de deepfakes ne feront-elles pas de l’Internet un lieu hostile ?

Voir aussi

USA : l'administration Trump travaille à l'établissement de règles de protection de la vie privée sur Internet, avec Facebook et Google
USA : un sénateur donne des pistes pour la réglementation des médias sociaux et entreprises technologiques, et voici ce qu'il propose
Trump accuse Google de truquer les résultats de recherche pour supprimer les news positives sur le président, et donner la priorité aux "Fake News"
Trump accuse Google de ne pas avoir fait la promotion de son discours annuel comme il l'a fait pour Obama, une accusation aussitôt rejetée par Google
Trump accuse Google de truquer les résultats de recherche pour supprimer les news positives sur le président, et donner la priorité aux "Fake News"


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse Signaler un problème

Avatar de ShigruM ShigruM - Futur Membre du Club https://www.developpez.com
le 12/09/2018 à 22:36
j'ai rien compris au danger de ce truc...

les hommes politiques sont tous des acteurs (macron à eu pas mal de cours de théâtre...)
tous leurs paroles, tous leurs discours et gestes ne sont que du cinéma ! orchestré par des experts en communications.

un homme politique qui parle ce n'est que du cinéma, delà mise en scène, ces mises en scènes sont écrites dans tous les manuels qui parle de communication.
Avatar de codec_abc codec_abc - Membre averti https://www.developpez.com
le 12/09/2018 à 22:41
@ShigruM : La le danger c'est de le faire dire des choses qu'ils n'ont pas dit et donc de les discréditer ou inculper dans des affaires qu'ils n'ont pas participé.

Autant le résultat est plutôt sympa, mais à moins de faire une vidéo en 240p archi compressé avec l'acteur vu de loin ça sonne encore trop faux. Entre la géométrie des lunettes qui se déforment et les sourcils qui font n'imp y'a encore du boulot avant de feinter un observateur qui fait attention.
Avatar de saturn1 saturn1 - Membre confirmé https://www.developpez.com
le 13/09/2018 à 0:12
Oui danger, is coming !
Avatar de Aiekick Aiekick - Membre chevronné https://www.developpez.com
le 13/09/2018 à 17:57
Quand on créer une arme numérique il faut aussi en créer la contre mesure, sinon on en sera victime un jour ou l’autre.

il devraient en même temps entrainer une ia a detecter les fausses videos sinon ca va etre la merde
Avatar de zoonel zoonel - Membre du Club https://www.developpez.com
le 13/09/2018 à 21:31
c'est déjà le cas actuellement, si c'est pas du direct il y a eu du montage de la prostprod etc... et c'est facile de couper au mauvais moment, de ne garder qu'une partie des explication, de couper si c'est bon/mauvais pour ne garder que le mauvais/bon, de mixer des séquences temporellement différente (genre passer un public qui se marre alors que c'était une réaction à un truc passé plus tot ou plus tard), etc...

le summum étant la télé réalité, si ce n'est pas des acteurs c'est pas grave avec un bon montage on fait passer qui on veut pour ce qu'on veut.

edit:
la seule solution viable c'est d'avoir des médias de confiance avec des vrais journalistes qui font du travail d'investigation et qui vérifient/croisent les sources.
Contacter le responsable de la rubrique Accueil