GitHub a récemment banni de sa plateforme le code de DeepNude, l'application qui utilisait l'IA pour créer des images nues de femmes. Le développeur de l’application avait expliqué que « le logiciel est basé sur pix2pix, un algorithme open source développé par les chercheurs de l'Université de Californie à Berkeley en 2017. Pix2pix utilise des réseaux adverses génératifs (GAN), qui fonctionnent en formant un algorithme sur un énorme ensemble d'images – dans le cas de DeepNude, plus de 10 000 photos de femmes nues, selon le développeur. Cet algorithme est similaire à ce qui est utilisé dans les vidéos deepfake, et à ce que les voitures autonomes utilisent pour “imaginer” des scénarios routiers ».
DeepNude était à l'origine une application payante qui créait des images nues non consensuelles de femmes utilisant une technologie similaire à celle de « deepfake » pour supprimer les vêtements des femmes.
Dans la version gratuite de l'application, les images de sortie sont partiellement recouvertes d'un grand filigrane. Dans une version payante, qui coûte 50 dollars, le filigrane est supprimé, mais un timbre portant la mention « FAKE » est placé dans le coin supérieur gauche, timbre qui pourrait être facilement enlevé avec Photoshop, par exemple.
Katelyn Bowden, fondatrice et PDG de l'organisation Badass, qui milite contre la pornodivulgation, a déclaré : « C'est absolument terrifiant ». « Maintenant, n'importe qui peut se retrouver victime d’une pornodivulgation, sans jamais avoir pris une photo de nudité. Cette technologie ne devrait pas être accessible au public », a-t-elle ajouté.
Danielle Citron, professeure de droit à la faculté de droit Carey de l'Université du Maryland, qui a récemment témoigné devant le Congrès au sujet de la menace du deepfake, a également déclaré qu’il s'agit là d'une « invasion de la vie privée sexuelle », en parlant de DeepNude qui est vendu au grand public. « Oui, ce n'est pas votre vrai vagin, mais... les autres pensent qu'ils vous voient nue », a-t-elle dit avant d’ajouter : « Comme me l'a dit une fausse victime, des milliers de personnes l'ont vue nue, elle avait l'impression que son corps n'était plus le sien ».
Suite à la réaction négative du public et des médias, l'équipe de développement l'a fermée, reconnaissant que « la probabilité que les gens l'utilisent de manière abusive est trop élevée ». C’est sur son compte Twitter que DeepNude a annoncé que l'application était supprimée et aucune autre version ne sera publiée et personne d'autre ne sera autorisé à utiliser l'application. « Nous avons créé ce projet pour le divertissement des utilisateurs il y a des mois ». « Nous pensions faire quelques ventes chaque mois de façon contrôlée... Nous n'avons jamais pensé qu'il deviendrait viral et que nous ne pourrions pas contrôler le trafic », a-t-il ajouté dans une déclaration jointe au tweet.
GitHub supprime les copies de DeepNude
Le développeur a également dit dans son communiqué de renoncement : « Nous ne voulons pas faire de l'argent de cette façon. Certaines copies de DeepNude seront sûrement partagées sur le web, mais nous ne voulons pas être ceux qui les vendront ».
Comme il s’en doutait, des copies de l’application étaient toujours disponibles en ligne, y compris sur GitHub. Aussi, en fin de semaine, l'équipe DeepNude a décidé de télécharger l'algorithme principal (mais pas l'interface réelle de l'application) sur la plateforme GitHub. « L'ingénierie inverse de l'application était déjà sur GitHub. Cacher le code source n'a plus de sens », a écrit l'équipe sur une page désormais supprimée. « DeepNude utilise une méthode intéressante pour résoudre un problème typique d'intelligence artificielle. Il pourrait donc être utile aux chercheurs et aux développeurs travaillant dans d'autres domaines tels que la mode, le cinéma et les effets visuels ».
« Nous ne surveillons pas de manière proactive le contenu généré par les utilisateurs, mais nous enquêtons activement sur les informations faisant état d'abus. Dans ce cas, nous avons désactivé le projet, car nous avons constaté qu'il contrevenait à notre politique d'utilisation acceptable », a déclaré un porte-parole de GitHub. « Nous n'acceptons pas l'utilisation de GitHub pour la publication de contenu sexuellement obscène et interdisons un tel comportement dans nos Conditions d'utilisation et notre règlement de la communauté ».
La section « Sexuellement obscène » des Règles de la communauté de GitHub stipule : « Ne publiez pas de contenu pornographique. Cela ne signifie pas que toute nudité ou tout code et contenu liés à la sexualité est interdit. Nous reconnaissons que la sexualité fait partie intégrante de la vie et le contenu sexuel à caractère non pornographique peut faire partie de votre projet, ou peut être présenté à des fins éducatives ou artistiques. Nous n'autorisons pas les contenus sexuels obscènes ni ceux pouvant impliquer l'exploitation ou la sexualisation de mineurs ».
Plusieurs copies de l'application DeepNude ont ainsi été supprimées. Le fichier README de l'un des dépôts indique : « il s'agit d'une réimplémentation open source en cours de développement de DeepNude basée sur le reverse engineering de l'original ». Un autre a déclaré : « ce référentiel ne contient que l'algorithme principal, pas l'interface utilisateur ».
Un concept qui n'est pas nouveau
DeepNude n’a pas inventé le concept de fausses photos de nu, c’est quelque chose qui est rendu possible par des logiciels comme Photoshop, entre autres méthodes, depuis des décennies. La technologie n’étant encore qu’à ses débuts, elle donne de meilleurs résultats avec des photos où le sujet portait déjà quelque chose comme un bikini. Néanmoins, même dans ces circonstances, certains médias qualifient les photos dénudées de « passablement réalistes ». Toutefois, contrairement à Photoshop, elles pourraient être produites par quiconque n’ayant aucune compétence technique ou artistique.
Les politiciens et les commentateurs ont déjà sonné l’alarme sur l’impact politique de deepfakes. DeepNude est une utilisation dérivée de cette technologie qui peut constituer une menace pour les femmes étant donné que certaines personnes malintentionnées pourraient se servir d’images nues factices pour les harceler. Prenant le taureau par les cornes, l’État de Virginie a placé l'utilisation de deepfakes pour le harcèlement aux côtés d'autres formes de « reveng porn ».
Rien de tout cela ne peut empêcher les copies de DeepNude d'apparaître en ligne, même si la décision de GitHub pourrait rendre l'application et son algorithme plus difficile à trouver. D’ailleurs, suite à la décision de GitHub, certaines plateformes ont décidé d’arrêter la diffusion d'outils similaires.
Source : GitHub Community Guidelines
Voir aussi :
Que pensez-vous de cette décision ? Modération pertinente et juste ou acte de couardise basée sur une moralité obsolète ?
Voir aussi :
L'IA peut désormais détecter les deepfakes en recherchant des mouvements faciaux étranges, selon une étude
Ce Deepfake de Zuckerberg teste les règles de suppression de vidéos de Facebook, alors qu'il avait déclaré qu'une telle vidéo resterait en ligne
Deepfake : des chercheurs présentent un logiciel qui permet d'éditer le discours d'une vidéo, et faire dire au sujet ce que vous voulez
GitHub supprime de sa plateforme les versions open source de DeepNude
L'application qui crée des images de femmes nues en quelques secondes
GitHub supprime de sa plateforme les versions open source de DeepNude
L'application qui crée des images de femmes nues en quelques secondes
Le , par Stéphane le calme
Une erreur dans cette actualité ? Signalez-nous-la !