« Les gens partagent des millions de photos et de vidéos sur Facebook chaque jour, créant certains des visuels les plus convaincants et créatifs sur notre plateforme. Une partie de ce contenu est manipulée, souvent pour des raisons bénignes, comme rendre une vidéo plus nette ou une audio plus claire. Mais il y a des gens qui se livrent à la manipulation des médias pour tromper.
« Les manipulations peuvent être effectuées grâce à une technologie simple comme Photoshop ou à des outils sophistiqués qui utilisent l'intelligence artificielle ou des techniques "d'apprentissage en profondeur" pour créer des vidéos qui déforment la réalité - généralement appelées "deepfakes". Bien que ces vidéos soient encore rares sur Internet, elles présentent un important défi pour notre industrie et notre société à mesure que leur utilisation augmente.
« Aujourd'hui, nous voulons décrire comment nous abordons à la fois les deepfakes et tous les types de médias manipulés. Notre approche comprend plusieurs volets, allant de l'enquête sur le contenu généré par l'IA et les comportements trompeurs tels que les faux comptes, au partenariat avec le monde universitaire, le gouvernement et l'industrie à la révélation des personnes derrière ces efforts.
« La collaboration est essentielle. À travers le monde, nous avons mené des conversations avec plus de 50 experts mondiaux ayant des antécédents techniques, politiques, médiatiques, juridiques, civiques et universitaires pour éclairer l'élaboration de nos politiques et améliorer la science de la détection des médias manipulés.
« À la suite de ces partenariats et discussions, nous renforçons notre politique envers les vidéos manipulées trompeuses qui ont été identifiées comme des deepfakes. À l'avenir, nous supprimerons les supports manipulés trompeurs s'ils répondent aux critères suivants :
- ils ont été édités ou synthétisés - au-delà des ajustements pour la clarté ou la qualité - d'une manière qui n'est pas apparente pour une personne moyenne et qui induirait probablement quelqu'un en erreur en pensant qu'un sujet de la vidéo a dit des mots qu'il n'a pas réellement dits ;
- ils sont le produit de l'intelligence artificielle ou de l'apprentissage automatique qui fusionne, remplace ou superpose le contenu sur une vidéo, ce qui donne l'impression qu'elle est authentique.
« Cette politique ne s'applique pas aux contenus parodiques ou satiriques ni aux vidéos qui ont été modifiées uniquement pour omettre ou modifier l'ordre des mots.
« Conformément à nos politiques existantes, l'audio, les photos ou les vidéos, qu'il s'agisse d'un deepfake ou non, seront supprimés de Facebook s'ils violent l'une de nos autres normes communautaires, y compris celles régissant la nudité, la violence graphique, la suppression des électeurs et le discours de haine.
« Les vidéos qui ne satisfont pas à ces normes de suppression peuvent toujours être examinées par l'un de nos vérificateurs de faits tiers indépendants, qui comprend plus de 50 partenaires dans le monde entier qui vérifient les faits dans plus de 40 langues. Si une photo ou une vidéo est jugée fausse ou partiellement fausse par un vérificateur des faits, nous réduisons considérablement sa distribution dans le fil d'actualités et la rejetons si elle est diffusée en tant qu'annonce. Et de manière critique, les personnes qui la voient, essaient de le partager, ou l'ont déjà partagé, verront des avertissements les prévenant qu'il s'agit d'un faux ».
Facebook a été la cible de protestations et de critiques pointues ces derniers mois. En juin dernier, des farceurs sur Internet ont publié un deepfake de Mark Zuckerberg censé se vanter d'être « un seul homme, avec un contrôle total sur des milliards de données volées ». Il a ajouté que « je dois tout à SPECTRE » - une organisation maléfique fictive de la franchise James Bond.
Instagram, qui appartient à Facebook, avait refusé de retirer ladite vidéo. À peu près à la même période, Facebook a refusé de retirer une vidéo de la présidente de la Chambre des représentants des États-Unis, Nancy Pelosi, qui a été ralentie, donnant l'impression que Pelosi était ivre. L'élue aurait été furieuse à cause du fait que Facebook n'a pas retiré la vidéo trompeuse.
La nouvelle politique s'appliquerait clairement à des vidéos comme celle de Zuckerberg attribuant à SPECTRE sa réussite professionnelle. Mais la nouvelle politique ne semble pas s'appliquer aux vidéos comme celle de Pelosi. Cette dernière a été manipulée à l'aide d'outils plus conventionnels et non par « une intelligence artificielle ou l'apprentissage automatique ». De plus, elle n'a pas changé les mots de Pelosi ; elle a juste changé la façon dont elle les a dits.
Dans les heures qui ont suivi l'annonce de la nouvelle politique, même les responsables de Facebook semblaient confus quant à savoir si l'entreprise interdisait les deepfakes dans les publicités politiques. En effet, un porte-parole de Facebook a déclaré que « Facebook n'interdira pas les deepfakes dans les publicités politiques ». Cela est conforme à la position plus large de Facebook selon laquelle il ne se livrerait pas à la vérification des faits des publicités politiques, mais il est susceptible d'être impopulaire auprès de ceux qui pensent que Facebook ne fait pas assez pour contrôler la désinformation sur sa plateforme.
En effet, en septembre dernier, le vice-président des communications de Facebook, Nick Clegg, lui-même un ancien membre du Parlement britannique, a indiqué que : « Nous nous appuyons sur des vérificateurs de données tiers pour nous aider à réduire la propagation de fake news et autres types de désinformation virale, tels que des mèmes ou des photos et vidéos manipulées. Cependant, nous ne pensons pas que le rôle d'arbitre des débats politiques nous revienne, ce qui reviendrait à empêcher ainsi le discours d’un homme politique d’atteindre le public et de faire l’objet d’un débat et d’un examen minutieux. C’est pourquoi Facebook exempte les politiciens de notre programme de vérification des faits par une tierce partie. Cette politique est inscrite dans les livres depuis plus d'un an et a été publiée sur notre site, conformément à nos directives en matière d'admissibilité. Cela signifie que nous n'enverrons pas de contenu organique ni d'annonces de responsables politiques à nos partenaires tiers chargés de la vérification des faits pour examen. Cependant, lorsqu'un politicien partage un contenu précédemment démystifié, notamment des liens, des vidéos et des photos, nous prévoyons de rétrograder ce contenu, d'afficher des informations connexes issues de vérificateurs de faits et de rejeter son inclusion dans les publicités ».
Après quelques contradictions avec des journalistes sur la question de savoir si les politiciens pouvaient payer pour promouvoir les deepfakes, il semblerait que même les politiciens n'aient pas le droit de s'en servir dans leurs publicités : « Qu'ils soient publiés par un politicien ou quelqu'un d'autre, nous n'autorisons pas le contenu médiatique manipulé dans les publicités », a déclaré un porte-parole de Facebook.
La réaction du public
Sans surprise, de nombreux membres du personnel de Pelosi ne sont pas satisfaits des nouvelles règles. Dans un communiqué répondant à la politique mise à jour, le chef de cabinet adjoint de Pelosi Drew Hammill a félicité le changement, mais a déclaré : « Facebook veut que vous pensiez que le problème est la technologie de montage vidéo, mais le vrai problème est le refus de Facebook d'arrêter la propagation de la désinformation ».
Même la campagne de Biden a noté que Facebook fait le strict minimum en matière de lutte contre la désinformation en ligne. Le porte-parole de la campagne électorale de Biden, Bill Russo, a fait écho à la déclaration de l'équipe Pelosi, déclarant : « L'annonce de Facebook aujourd'hui n'est pas une politique destinée à résoudre le véritable problème de désinformation qui mine le visage de notre processus électoral, mais est plutôt une illusion de progrès. La politique de Facebook ne s'attaque pas au problème principal à savoir comment leur plateforme est utilisée pour répandre la désinformation, mais s'attaque plutôt au professionnalisme avec lequel cette désinformation est réalisée. L'interdiction des deepfakes devrait être un plancher incroyablement bas dans la lutte contre la désinformation ».
Une chose est sûre: les législateurs vont faire attention : « Comme pour toute nouvelle politique, il sera essentiel de voir comment elle est mise en œuvre et en particulier si Facebook peut détecter efficacement les deepfakes à la vitesse et à l'échelle nécessaires pour les empêcher de devenir viraux », a déclaré le président du comité du renseignement de la maison, Adam Schiff (D-CA) dans un communiqué.
En décembre , Facebook a lancé le Deepfake Detection Challenge, un concours avec plus de 10 millions de dollars à la clé, pour faire avancer la recherche en matière de lutte contre les contenus manipulés et les deepfakes. « Empêcher la diffusion de vidéos deepfake est une préoccupation majeure pour l'ensemble de l'industrie technologique et pour la société. Nous franchissons aujourd'hui une étape importante avec le lancement du Deepfake Detection Challenge (DFDC), une initiative ouverte et collaborative visant à accélérer le développement de nouvelles technologies pour détecter les deepfakes et les médias manipulés », a déclaré Facebook IA.
Organisé en partenariat avec Microsoft, the Partnership on AI, AWS et des chercheurs de Cornell Tech, du MIT, de l’University of Oxford, UC Berkeley, University of Maryland, College Park, et University at Albany-SUNY, le challenge s’appuiera sur un jeu de données réaliste fourni par Facebook. Un classement général permettra de suivre les performances des candidats et le challenge sera accompagné de subventions et de bourses pour inciter l’industrie à créer de nouvelles façons de détecter et d’empêcher que les médias manipulés par l’IA ne soient utilisés pour induire les autres en erreur. Facebook indique avoir consacré plus de 10 millions de dollars en prix et subventions dans le concours, tandis qu'Amazon Web Services verse jusqu'à 1 million de dollars en crédits pour l'utilisation de ses services. Le concours prendra fin en mars 2020.
Source : Facebook
Et vous ?
Que pensez-vous de cette politique de Facebook ?
Que pensez-vous de l'exception accordée aux contenus parodiques, satiriques ainsi qu'aux vidéos qui ont été modifiées uniquement pour omettre ou modifier l'ordre des mots ?
Partagez-vous l'avis des politiciens qui pensent que cette mesure ne s'attaque pas au problème de fond de la désinformation en ligne ?
Voir aussi :
Un cadre de Facebook déclare que la société était pour des raisons insoupçonnées responsable de l'élection de Trump en 2016, et qu'il ne faudrait pas qu'elle use de stratagèmes pour le stopper en 2020
Sécurité : la police traque un présumé terroriste sur WhatsApp jusqu'à ce que son téléphone disparaisse de ses radars après une alerte de Facebook
Facebook lance le Deepfake Detection Challenge, un concours avec plus de 10 millions de dollars à la clé visant à faire avancer la recherche en matière de lutte contre les contenus manipulés
Plus de 267 millions de noms et de numéros de téléphone provenant de Facebook ont été divulgués en ligne, selon des chercheurs en sécurité