IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« L'IA ne peut pas nous protéger contre les deepfakes », selon un rapport de Data & Society
Qui préconise une solution tenant compte à la fois de l'histoire et des processus sociaux

Le , par Bill Fassinou

487PARTAGES

12  0 
Un deepfake est une technique de synthèse d'images basée sur l'intelligence artificielle. Il est utilisé pour combiner et superposer des images et des vidéos existantes afin de les manipuler à l’aide de l’apprentissage automatique. La technologie est en développement et des chercheurs continuent d’améliorer les méthodes qui contribueront certainement à révolutionner certains secteurs d’activité, mais qui ne manqueront, peut-être, pas de se retrouver, comme une arme, entre les mains des personnes malveillantes.

Les techniques de deepfake se développent très rapidement et deviennent de plus en plus performantes. Elles sont arrivées à supplanter certains algorithmes qui, autrefois, permettaient de les détecter. Dans ce sens, plusieurs scientifiques classent les deepfakes comme une menace pour l’espace Web. Par exemple, dans des situations en évolution rapide, telles qu'une crise humanitaire ou une campagne électorale, des vidéos et des images totalement fausses pourraient modifier le déroulement des événements et créer la désinformation.

Pour cela, des chercheurs et certaines entreprises continuent de mettre en place des outils pour détecter les deepfakes ou ils travaillent pour perfectionner ceux qui existent déjà. L’une de ces méthodes de détection, publiée en juillet dernier par des chercheurs de l’université de Californie à Riverside, consiste à diviser une image susceptible d’avoir été manipulée en de petites zones pour l’examiner pixel par pixel. Pour le faire, l’algorithme mis en place par les universitaires s’appuie sur une variété de « réseau de neurones récurrents » et d’autres techniques.

Pendant que certains chercheurs et développeurs mettent en place des systèmes d’IA qui rendent facile la création de deepfakes à partir d’une seule image, d’autres font le contraire. Ils conçoivent des algorithmes basés sur l’IA pour détecter les deepfakes suivant plusieurs critères. Par exemple, une IA peut désormais détecter les deepfakes en recherchant des mouvements faciaux étranges. Mais ces méthodes de détection sont loin d’être suffisantes et ne sont pas capables de détecter certaines catégories de deepfakes, qui emploient des méthodes de synthèse sophistiquées.

Dans ce contexte, un rapport paru aujourd’hui a établi comme conclusion que « l’IA ne peut pas nous protéger contre les deepfakes ». Le rapport a été publié par les auteures Britt Paris et Joan Donovan, affiliés à Data & Society. Le rapport souligne que, comme beaucoup de techniques de manipulation audiovisuels dans le passé, les deepfakes et les « cheap fakes » ont bousculé les règles traditionnelles concernant les preuves et la vérité, et les institutions de confiance doivent intervenir pour redéfinir ces frontières, afin de limiter les dommages qu’ils peuvent causer à l’homme.


Paris et Donovan ont utilisé le mot « cheap fakes » pour montrer que la création de supports trompeurs n'a jamais obligatoirement nécessité des technologies de traitement avancées, telles que les outils d'apprentissage automatique actuels. Un deepfake est une vidéo qui a été modifiée à l’aide de l'apprentissage automatique pour hybrider ou générer des corps et des visages humains, alors qu'un « cheap fakes » est une manipulation audiovisuelle créée avec un logiciel moins cher et plus accessible (ou pas du tout), comme Photoshop, Lookalikes, etc.

Ainsi, grâce aux médias sociaux d'aujourd'hui, ces deux types de manipulation audiovisuelle peuvent maintenant se propager à une vitesse sans précédent. Le rapport souligne que les problèmes posés par la manipulation audiovisuelle sont nombreux et difficiles à résoudre, mais que l’on peut travailler pour réduire les risques et atténuer les dommages. Paris et Donovan pensent que les deepfakes, bien que nouvelles, font partie d'une longue histoire de manipulation médiatique, une histoire qui exige à la fois une solution sociale et technique.

Les solutions basées sur l’IA sont insuffisantes. « S'appuyer sur l'intelligence artificielle pourrait, en fait, aggraver la situation en concentrant davantage de données et de pouvoir entre les mains des entreprises privées », ont déclaré les auteures. En fait, elles estiment que les deepfakes ne se contentent pas de nuire aux personnes contre lesquelles ils sont dirigés, mais ils créent également plus de pouvoir pour une poignée de personnes. Pour elles, l’IA étant elle aussi une technologie des plus craintes, elle ne peut pas lutter contre les deepfakes.

« Les nouvelles technologies des médias ne changent pas intrinsèquement le fonctionnement des données probantes (des preuves) dans la société. Ce qu'ils font, c'est offrir de nouvelles possibilités de négociation d'expertise, et donc de pouvoir », ont-elles écrit. Alors, Paris et Donovan s’accordent pour dire qu'il nous faut plus qu'une approche exclusivement technologique pour faire face aux menaces des deepfakes et des « cheap fakes ». Mais à quel type de solution doit-on penser ? Paris et Donovan ont répondu à la question.

D’après leur rapport, toute solution doit tenir compte à la fois de l'histoire de l'évidence et des processus sociaux qui produisent la vérité. Il faut agir ainsi pour que le pouvoir de l'expertise ne repose pas seulement entre les mains de quelques-uns et ne contribue pas à renforcer les inégalités structurelles, mais qu'il soit plutôt distribué parmi les communautés à risque. Selon Paris, cela signifie que la panique autour des deepfakes a besoin de solutions techniques rapides qui ne s'attaquent pas aux inégalités structurelles.

« C'est un projet massif, mais nous devons trouver des solutions sociales et politiques pour que les gens sans pouvoir ne soient pas exclus de l'équation », a expliqué Paris. Paris craint que les filtres de contenu basés sur l'IA et d'autres solutions techniques ne causent un préjudice réel. « Ils améliorent les choses pour certains, mais pourraient aggraver les choses pour d'autres. La conception de nouveaux modèles techniques crée des possibilités pour les entreprises de capturer toutes sortes d'images et de créer un référentiel de la vie en ligne », a-t-elle ajouté.

Enfin, Britt Paris et Joan Donovan conviennent qu'une solution technique s'impose, mais qu'elle doit collaborer avec le système judiciaire pour poursuivre les mauvais acteurs et arrêter la diffusion de deepfakes. Elles pensent qu’il est crucial de tenir compte des problèmes plus vastes et des complications des médias générés par l'IA lorsqu'ils pénètrent dans un paysage médiatique déjà troublé.

Source : Rapport de l'étude (pdf)

Et vous ?

Quel est votre avis sur le sujet ?
Comme Britt Paris et Joan Donovan, pensez-vous aussi que l'IA ne peut pas nous protéger contre les deepfakes ? Pourquoi ?
Quelles solutions préconiseriez-vous pour lutter contre les deepfakes ?

Voir aussi

Des chercheurs ont mis au point un algorithme pour détecter les deepfakes en divisant l'image en de petites zones pour les examiner pixel par pixel

Deepfake : des chercheurs présentent un logiciel qui permet d'éditer le discours d'une vidéo et faire dire au sujet ce que vous voulez

L'IA peut désormais détecter les deepfakes en recherchant des mouvements faciaux étranges,selon une étude

Des chercheurs créent une IA qui rend facile la création de deepfakes à partir d'une seule image et les résultats sont dangereusement réalistes

Une erreur dans cette actualité ? Signalez-nous-la !