La toute dernière méthode a été mise au point par des chercheurs de l’Université Carnegie Mellon, qui ont trouvé un moyen de transférer automatiquement le style d’une personne à une autre. Dans une vidéo Youtube, les chercheurs exposent les résultats obtenus à l’aide de leur méthode. « Par exemple, le style de Barack Obama peut être transformé en Donald Trump », ont-ils écrit dans la description de la vidéo.
La mauvaise utilisation de cette méthode pourrait la transformer en véritable source de problème sur Internet. C’est, d’ailleurs, pour limiter des éventuels dégâts que causeraient ces méthodes ainsi que bien d’autres techniques que l’administration Trump travaille à l'établissement de règles de protection de la vie privée sur Internet à l’image du RGPD en Europe.
Vidéo mettant en évidence les résultats de la nouvelle méthode
Les résultats de la nouvelle méthode exposés dans la vidéo montrent que les expressions faciales de John Oliver dans la vidéo originale sont transférées chez Stephen Colbert et ensuite chez la grenouille animée dans la vidéo deepfake. De même, les expressions faciales chez de Martin Luther King dans la vidéo originale sont transférées à Obama dans la vidéo deepfake. Les vidéos obtenues avec leur méthode sont très convaincantes, selon Gizmodo.
Dans un article publié, les chercheurs expliquent le processus en tant qu’une approche d’apprentissage non supervisé basée, bien évidemment, sur l’intelligence artificielle comme les précédentes méthodes de développement de deepfakes.
La méthode ne traite pas seulement que du transfert du style de parole et des mouvements du visage des humains, elle s’étend aux autres paysages de la nature comme dans les exemples de la vidéo où la méthode s’applique à des fleurs épanouies, aux levers et aux couchers de soleil, aux nuages et au vent.
En ce qui concerne le transfert de style de personne à personne dans les exemples de la vidéo, les chercheurs énumèrent « la fossette de John Oliver en souriant, la forme de la bouche caractéristique de Donald Trump et les lignes faciales des lèvres et le sourire de Stephen Colbert. », comme des exemples de styles transférés des vidéos originales aux vidéos deepfakes. Pour démontrer l’authenticité de la méthode, les chercheurs ont utilisées des vidéos populaires à la disposition du grand public.
La méthode peut paraitre bien sympathique et utile à plusieurs fins telles que dans le cas de l’application au développement des animations anthropomorphes réalistes. Pourvu qu’elle ne soit pas mise au service de la propagande politique.
Source : Gizmodo, Article des chercheurs
Et vous ?
Que vous inspire cette nouvelle méthode ?
Ces méthodes de deepfakes ne feront-elles pas de l’Internet un lieu hostile ?
Voir aussi
USA : l'administration Trump travaille à l'établissement de règles de protection de la vie privée sur Internet, avec Facebook et Google
USA : un sénateur donne des pistes pour la réglementation des médias sociaux et entreprises technologiques, et voici ce qu'il propose
Trump accuse Google de truquer les résultats de recherche pour supprimer les news positives sur le président, et donner la priorité aux "Fake News"
Trump accuse Google de ne pas avoir fait la promotion de son discours annuel comme il l'a fait pour Obama, une accusation aussitôt rejetée par Google