Une nouvelle méthode inédite de deepfake a été mise au point par des chercheurs,
Permettant de transférer le style d'une personne à une autre

Le , par Stan Adkens

61PARTAGES

14  0 
Les méthodes de deepfakes deviennent incroyablement sophistiquées et permettent déjà de créer des fausses vidéos difficilement identifiables en tant que telles. Un deepfake est une technique de synthèse d'images basée sur l'intelligence artificielle. Il est utilisé pour combiner et superposer des images et des vidéos existantes afin de les manipuler à l’aide de l’apprentissage automatique. La technologie est en développement et des chercheurs continuent d’améliorer les méthodes qui contribueront certainement à révolutionner certains secteurs d’activité mais qui ne manqueront, peut-être, pas de se retrouver, comme une arme, entre les mains des personnes malveillantes.


La toute dernière méthode a été mise au point par des chercheurs de l’Université Carnegie Mellon, qui ont trouvé un moyen de transférer automatiquement le style d’une personne à une autre. Dans une vidéo Youtube, les chercheurs exposent les résultats obtenus à l’aide de leur méthode. « Par exemple, le style de Barack Obama peut être transformé en Donald Trump », ont-ils écrit dans la description de la vidéo.

La mauvaise utilisation de cette méthode pourrait la transformer en véritable source de problème sur Internet. C’est, d’ailleurs, pour limiter des éventuels dégâts que causeraient ces méthodes ainsi que bien d’autres techniques que l’administration Trump travaille à l'établissement de règles de protection de la vie privée sur Internet à l’image du RGPD en Europe.

Vidéo mettant en évidence les résultats de la nouvelle méthode


Les résultats de la nouvelle méthode exposés dans la vidéo montrent que les expressions faciales de John Oliver dans la vidéo originale sont transférées chez Stephen Colbert et ensuite chez la grenouille animée dans la vidéo deepfake. De même, les expressions faciales chez de Martin Luther King dans la vidéo originale sont transférées à Obama dans la vidéo deepfake. Les vidéos obtenues avec leur méthode sont très convaincantes, selon Gizmodo.

Dans un article publié, les chercheurs expliquent le processus en tant qu’une approche d’apprentissage non supervisé basée, bien évidemment, sur l’intelligence artificielle comme les précédentes méthodes de développement de deepfakes.

La méthode ne traite pas seulement que du transfert du style de parole et des mouvements du visage des humains, elle s’étend aux autres paysages de la nature comme dans les exemples de la vidéo où la méthode s’applique à des fleurs épanouies, aux levers et aux couchers de soleil, aux nuages et au vent.

En ce qui concerne le transfert de style de personne à personne dans les exemples de la vidéo, les chercheurs énumèrent « la fossette de John Oliver en souriant, la forme de la bouche caractéristique de Donald Trump et les lignes faciales des lèvres et le sourire de Stephen Colbert. », comme des exemples de styles transférés des vidéos originales aux vidéos deepfakes. Pour démontrer l’authenticité de la méthode, les chercheurs ont utilisées des vidéos populaires à la disposition du grand public.

La méthode peut paraitre bien sympathique et utile à plusieurs fins telles que dans le cas de l’application au développement des animations anthropomorphes réalistes. Pourvu qu’elle ne soit pas mise au service de la propagande politique.

Source : Gizmodo, Article des chercheurs

Et vous ?

Que vous inspire cette nouvelle méthode ?
Ces méthodes de deepfakes ne feront-elles pas de l’Internet un lieu hostile ?

Voir aussi

USA : l'administration Trump travaille à l'établissement de règles de protection de la vie privée sur Internet, avec Facebook et Google
USA : un sénateur donne des pistes pour la réglementation des médias sociaux et entreprises technologiques, et voici ce qu'il propose
Trump accuse Google de truquer les résultats de recherche pour supprimer les news positives sur le président, et donner la priorité aux "Fake News"
Trump accuse Google de ne pas avoir fait la promotion de son discours annuel comme il l'a fait pour Obama, une accusation aussitôt rejetée par Google

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de ShigruM
Nouveau Candidat au Club https://www.developpez.com
Le 12/09/2018 à 22:36
j'ai rien compris au danger de ce truc...

les hommes politiques sont tous des acteurs (macron à eu pas mal de cours de théâtre...)
tous leurs paroles, tous leurs discours et gestes ne sont que du cinéma ! orchestré par des experts en communications.

un homme politique qui parle ce n'est que du cinéma, delà mise en scène, ces mises en scènes sont écrites dans tous les manuels qui parle de communication.
Avatar de codec_abc
Membre averti https://www.developpez.com
Le 12/09/2018 à 22:41
@ShigruM : La le danger c'est de le faire dire des choses qu'ils n'ont pas dit et donc de les discréditer ou inculper dans des affaires qu'ils n'ont pas participé.

Autant le résultat est plutôt sympa, mais à moins de faire une vidéo en 240p archi compressé avec l'acteur vu de loin ça sonne encore trop faux. Entre la géométrie des lunettes qui se déforment et les sourcils qui font n'imp y'a encore du boulot avant de feinter un observateur qui fait attention.
Avatar de saturn1
Membre confirmé https://www.developpez.com
Le 13/09/2018 à 0:12
Oui danger, is coming !
Avatar de Aiekick
Membre chevronné https://www.developpez.com
Le 13/09/2018 à 17:57
Quand on créer une arme numérique il faut aussi en créer la contre mesure, sinon on en sera victime un jour ou l’autre.

il devraient en même temps entrainer une ia a detecter les fausses videos sinon ca va etre la merde
Avatar de zoonel
Membre régulier https://www.developpez.com
Le 13/09/2018 à 21:31
c'est déjà le cas actuellement, si c'est pas du direct il y a eu du montage de la prostprod etc... et c'est facile de couper au mauvais moment, de ne garder qu'une partie des explication, de couper si c'est bon/mauvais pour ne garder que le mauvais/bon, de mixer des séquences temporellement différente (genre passer un public qui se marre alors que c'était une réaction à un truc passé plus tot ou plus tard), etc...

le summum étant la télé réalité, si ce n'est pas des acteurs c'est pas grave avec un bon montage on fait passer qui on veut pour ce qu'on veut.

edit:
la seule solution viable c'est d'avoir des médias de confiance avec des vrais journalistes qui font du travail d'investigation et qui vérifient/croisent les sources.
Avatar de Coriolan
Chroniqueur Actualités https://www.developpez.com
Le 14/01/2019 à 20:04
Une vidéo deepfake de Donald Trump diffusée sur une chaine de TV nationale ?
l'employé responsable a été licencié

En septembre, nous vous parlions d’une technique de synthèse d’images basée sur l’intelligence artificielle. Il s’agit de créer de fausses vidéos difficilement identifiables en combinant et en superposant des images et des vidéos existantes afin de les manipuler à l’aide de l’apprentissage automatique.

Il est facile de trouver sur des sites de diffusion en continu comme YouTube ou Vimeo du contenu non pornographique qui fait appel à la permutation intelligente de visages. Il est aussi possible de faire facilement des vidéos avec permutation intelligente de visages en utilisant l’application FakeApp, qui utilise TensorFlow, un outil à code source ouvert développé par Google.

La dernière personne en date à tomber victime de cette technique serait Donald Trump. Une chaîne de TV américaine (Seattle TV) a publié une vidéo où on voit le visage du président américain transformé pour paraitre plus orange que la normale lors d’un discours télévisé, et avec une fin de vidéo qui le fait paraitre plutôt stupide.

Voici une comparaison juxtaposée de la version originale et la version truquée (à droite) :


« Espérons que nous pourrons nous élever au-dessus de la politique partisane pour soutenir la sécurité…, » a dit Trump. La vidéo (publiée par Q13) a été modifiée pour donner l'impression que Trump sortait languissamment sa langue entre les phrases. De plus, les couleurs de la vidéo semblent plus saturées, ce qui fait que la peau et les cheveux du président apparaissent orange.

« Cette vidéo ne répond pas à nos normes éditoriales, et nous regrettons qu’elle peint une image négative du président », a écrit la directrice d’actualités de Q13, Erica Hill, dans un communiqué. Plus tard jeudi matin, Hill a publié un autre communiqué dans lequel elle déclarait : « Nous avons terminé notre enquête sur cet incident et déterminé que les actions ont été menées par un éditeur individuel qui a été viré. »

Il n’est pas clair si l’employé a créé la vidéo ou bien a permis sa diffusion. Mais sa diffusion sur une station de TV nationale, autrement dit un média traditionnel, devrait soulever plusieurs questions sur la légitimité des vidéos, et le potentiel d’utilisation de cette technique pour partager des fake news. Dans un contexte de politique fracturée et de technologie accessible, il est devenu plus facile que jamais de modifier et manipuler des images pour altérer la réalité, c’est d’ailleurs, pour limiter d'éventuels dégâts que causeraient ces méthodes ainsi que bien d’autres techniques que l’administration Trump travaille à l'établissement de règles de protection de la vie privée sur Internet à l’image du RGPD en Europe. Sur cet exemple précis il ne s'agit vraisemblablement pas d'un deepfake mais plutôt d'une simple édition de vidéo, à savoir rendu la couleur plus orangée et passé en boucle la fin de la vidéo.

Ce n’est pas la première fois que ce genre d'incident a créé la polémique. L’année dernière, l’accès du journaliste de CNN Jim Acosta à la Maison-Blanche a été suspendu. L’homme a été accusé d’accrocher une jeune stagiaire par l’attachée de presse Sarah Huckabee Sanders. Elle a d’ailleurs publié une vidéo qui semblait montrer Acosta retenant le bras de la stagiaire avec sa main alors qu’elle essayait de lui arracher le micro. Par la suite, des experts et chercheurs ont noté que la vidéo publiée par Sanders est truquée et ne reflète pas la réalité.

La permutation intelligente de visages est surtout connue pour avoir été utilisée afin de créer de fausses vidéos à caractère sexuel qui mettent en scène des célébrités, et pour la porno de vengeance. La pornographie avec permutation intelligente de visages a émergé sur Internet en 2017, notamment sur Reddit, et a été depuis interdite par Reddit, Twitter, Pornhub et d’autres. Cette technique utilisée pour créer des fausses nouvelles et des canulars s’appuie sur le machine learning comme l’explique cette vidéo :


Source : vidéo - Seattle Times

Et vous ?

Qu’en pensez-vous ?
La technologie IA deepfake constitue-t-elle une menace pour la démocratie ?
S'agit-il ici d'une simple édition de vidéo et non d'un véritable deepfake ?
Comme pour d'autres technologies à la mode (IA, Deep learning, Blockchain,...), les réseaux sociaux et la presse vont-il s'enflammer en utilisant le mot Deepfake à tort et à travers ?

Voir aussi

Une nouvelle méthode inédite de deepfake a été mise au point par des chercheurs, permettant de transférer le style d'une personne à une autre
Trump accuse Google de truquer les résultats de recherche pour supprimer les news positives sur le président, et donner la priorité aux "Fake News"
Trump accuse Google de ne pas avoir fait la promotion de son discours annuel comme il l'a fait pour Obama, une accusation aussitôt rejetée par Google
Avatar de marsupial
Membre expert https://www.developpez.com
Le 14/01/2019 à 20:56
Je pense qu'un réalisateur de cinéma peut produire des vidéos plus élaborées qui seraient un véritable danger pour la Démocratie. Pour l'instant le procédé reste trop artisanal pour bluffer un être humain. Alors une machine qui filtre les vidéos devrait nous éviter toute menace sur la Démocratie.
Avatar de moddernity
Candidat au Club https://www.developpez.com
Le 14/01/2019 à 22:41
Au vu de la vidéo , je ne vois en rien un exemple de deepfake.
Juste une colorisation et une simple boucle.
Avatar de smobydick
Membre du Club https://www.developpez.com
Le 15/01/2019 à 8:01
'' Sur cet exemple précis il ne s'agit vraisemblablement pas d'un deepfake mais plutôt d'une simple édition de vidéo, à savoir rendu la couleur plus orangée et passé en boucle la fin de la vidéo.''

Alors changez le titre de votre article si vous saviez que ce n'était pas du deepfake...
Avatar de CoderInTheDark
Membre expérimenté https://www.developpez.com
Le 15/01/2019 à 9:50
A la base, je ne vois pas l'intérêt d'essayer de rendre Trump plus con en transformant la réalité, il l'est déjà bien assez.

Et comme déjà dit ce n'est pas du deepfake.

Mais quand cela sera au point, j'ai peur que se soit dangereux.
Car on nous sert de l'information en continue et il est plus dur de la digérer, cela tourne à l'indigestion.

Le risque est qu'une information fausse bien placé provoque une adhésion massive, surtout si elle joue sur l'émotion.
Nos politiques ne disent plus les choses pour ce qu'elles sont mais pour l'effet qu'elle produit sur les moutons que nous sommes en train de devenir.

Par exemple au sujet des gilets jaunes, je suspecte le pouvoir de nous saturer avec les images des débordements pour retourner l'opinion.

Et il n'y a pas forcément besoin de techniques avancée pour mentir et manipuler l'opinion
Les Bush père et fils on fait la guerre en Irak sur la bases de mensonges
Rappelez-vous des témoignages qui prétendaient que des soldats irakiens avaient pris des nouveau-néss dans des couveuses pour les jeter à terre.
En autre le témoignage poignant, de la fille d' l'ambassadeur kowétien à l'ONU.
Rien de tel que jouer sur la corde sensible, les enfants?*

Tout cela pour laisser prendre l'idée, que se sont des barbares ils ne méritent pas de vivre on peut les tuer sans remords .

Et le canon géant de Saddam qui n'a jamais existé.
Il y avait même eu des arrestations.

Et Bush qui disait sans complexe que l'effet du mensonge l'emporte sur la vérité à long terme.
Là où il a été infâme est qu'il a envoyé ses GI se faire tuer tout en sachant qu'il n'y avait pas d'armes de destruction massives , sans compter tout les cciviles irakiens.
Dans sa séquence vidéo de départ soit disant drôle il marchait à quatre pattes dans son bureau en rigolant et disant "elle sont où ".
J'ai trouvé cela tellement méprisant pour ceux qu'il a fait tuer.

Et ce qui m'a désespéré c'est que les gens ont trouvé ça amusant.
Alors &la manipulation en image à de l'avenir, tant que les gens se diront c'est vrai c'es passé à la télé au journal de 20h
Contacter le responsable de la rubrique Accueil

Partenaire : Hébergement Web