IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

GitHub supprime de sa plateforme les versions open source de DeepNude
L'application qui crée des images de femmes nues en quelques secondes

Le , par Stéphane le calme

347PARTAGES

17  0 
GitHub a récemment banni de sa plateforme le code de DeepNude, l'application qui utilisait l'IA pour créer des images nues de femmes. Le développeur de l’application avait expliqué que « le logiciel est basé sur pix2pix, un algorithme open source développé par les chercheurs de l'Université de Californie à Berkeley en 2017. Pix2pix utilise des réseaux adverses génératifs (GAN), qui fonctionnent en formant un algorithme sur un énorme ensemble d'images – dans le cas de DeepNude, plus de 10 000 photos de femmes nues, selon le développeur. Cet algorithme est similaire à ce qui est utilisé dans les vidéos deepfake, et à ce que les voitures autonomes utilisent pour “imaginer” des scénarios routiers ».

DeepNude était à l'origine une application payante qui créait des images nues non consensuelles de femmes utilisant une technologie similaire à celle de « deepfake » pour supprimer les vêtements des femmes.

Dans la version gratuite de l'application, les images de sortie sont partiellement recouvertes d'un grand filigrane. Dans une version payante, qui coûte 50 dollars, le filigrane est supprimé, mais un timbre portant la mention « FAKE » est placé dans le coin supérieur gauche, timbre qui pourrait être facilement enlevé avec Photoshop, par exemple.

Katelyn Bowden, fondatrice et PDG de l'organisation Badass, qui milite contre la pornodivulgation, a déclaré : « C'est absolument terrifiant ». « Maintenant, n'importe qui peut se retrouver victime d’une pornodivulgation, sans jamais avoir pris une photo de nudité. Cette technologie ne devrait pas être accessible au public », a-t-elle ajouté.

Danielle Citron, professeure de droit à la faculté de droit Carey de l'Université du Maryland, qui a récemment témoigné devant le Congrès au sujet de la menace du deepfake, a également déclaré qu’il s'agit là d'une « invasion de la vie privée sexuelle », en parlant de DeepNude qui est vendu au grand public. « Oui, ce n'est pas votre vrai vagin, mais... les autres pensent qu'ils vous voient nue », a-t-elle dit avant d’ajouter : « Comme me l'a dit une fausse victime, des milliers de personnes l'ont vue nue, elle avait l'impression que son corps n'était plus le sien ».

Suite à la réaction négative du public et des médias, l'équipe de développement l'a fermée, reconnaissant que « la probabilité que les gens l'utilisent de manière abusive est trop élevée ». C’est sur son compte Twitter que DeepNude a annoncé que l'application était supprimée et aucune autre version ne sera publiée et personne d'autre ne sera autorisé à utiliser l'application. « Nous avons créé ce projet pour le divertissement des utilisateurs il y a des mois ». « Nous pensions faire quelques ventes chaque mois de façon contrôlée... Nous n'avons jamais pensé qu'il deviendrait viral et que nous ne pourrions pas contrôler le trafic », a-t-il ajouté dans une déclaration jointe au tweet.


GitHub supprime les copies de DeepNude

Le développeur a également dit dans son communiqué de renoncement : « Nous ne voulons pas faire de l'argent de cette façon. Certaines copies de DeepNude seront sûrement partagées sur le web, mais nous ne voulons pas être ceux qui les vendront ».

Comme il s’en doutait, des copies de l’application étaient toujours disponibles en ligne, y compris sur GitHub. Aussi, en fin de semaine, l'équipe DeepNude a décidé de télécharger l'algorithme principal (mais pas l'interface réelle de l'application) sur la plateforme GitHub. « L'ingénierie inverse de l'application était déjà sur GitHub. Cacher le code source n'a plus de sens », a écrit l'équipe sur une page désormais supprimée. « DeepNude utilise une méthode intéressante pour résoudre un problème typique d'intelligence artificielle. Il pourrait donc être utile aux chercheurs et aux développeurs travaillant dans d'autres domaines tels que la mode, le cinéma et les effets visuels ».

« Nous ne surveillons pas de manière proactive le contenu généré par les utilisateurs, mais nous enquêtons activement sur les informations faisant état d'abus. Dans ce cas, nous avons désactivé le projet, car nous avons constaté qu'il contrevenait à notre politique d'utilisation acceptable », a déclaré un porte-parole de GitHub. « Nous n'acceptons pas l'utilisation de GitHub pour la publication de contenu sexuellement obscène et interdisons un tel comportement dans nos Conditions d'utilisation et notre règlement de la communauté ».

La section « Sexuellement obscène » des Règles de la communauté de GitHub stipule : « Ne publiez pas de contenu pornographique. Cela ne signifie pas que toute nudité ou tout code et contenu liés à la sexualité est interdit. Nous reconnaissons que la sexualité fait partie intégrante de la vie et le contenu sexuel à caractère non pornographique peut faire partie de votre projet, ou peut être présenté à des fins éducatives ou artistiques. Nous n'autorisons pas les contenus sexuels obscènes ni ceux pouvant impliquer l'exploitation ou la sexualisation de mineurs ».

Plusieurs copies de l'application DeepNude ont ainsi été supprimées. Le fichier README de l'un des dépôts indique : « il s'agit d'une réimplémentation open source en cours de développement de DeepNude basée sur le reverse engineering de l'original ». Un autre a déclaré : « ce référentiel ne contient que l'algorithme principal, pas l'interface utilisateur ».


Un concept qui n'est pas nouveau

DeepNude n’a pas inventé le concept de fausses photos de nu, c’est quelque chose qui est rendu possible par des logiciels comme Photoshop, entre autres méthodes, depuis des décennies. La technologie n’étant encore qu’à ses débuts, elle donne de meilleurs résultats avec des photos où le sujet portait déjà quelque chose comme un bikini. Néanmoins, même dans ces circonstances, certains médias qualifient les photos dénudées de « passablement réalistes ». Toutefois, contrairement à Photoshop, elles pourraient être produites par quiconque n’ayant aucune compétence technique ou artistique.

Les politiciens et les commentateurs ont déjà sonné l’alarme sur l’impact politique de deepfakes. DeepNude est une utilisation dérivée de cette technologie qui peut constituer une menace pour les femmes étant donné que certaines personnes malintentionnées pourraient se servir d’images nues factices pour les harceler. Prenant le taureau par les cornes, l’État de Virginie a placé l'utilisation de deepfakes pour le harcèlement aux côtés d'autres formes de « reveng porn ».

Rien de tout cela ne peut empêcher les copies de DeepNude d'apparaître en ligne, même si la décision de GitHub pourrait rendre l'application et son algorithme plus difficile à trouver. D’ailleurs, suite à la décision de GitHub, certaines plateformes ont décidé d’arrêter la diffusion d'outils similaires.

Source : GitHub Community Guidelines

Voir aussi :

Que pensez-vous de cette décision ? Modération pertinente et juste ou acte de couardise basée sur une moralité obsolète ?

Voir aussi :

L'IA peut désormais détecter les deepfakes en recherchant des mouvements faciaux étranges, selon une étude
Ce Deepfake de Zuckerberg teste les règles de suppression de vidéos de Facebook, alors qu'il avait déclaré qu'une telle vidéo resterait en ligne
Deepfake : des chercheurs présentent un logiciel qui permet d'éditer le discours d'une vidéo, et faire dire au sujet ce que vous voulez

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de onilink_
Membre émérite https://www.developpez.com
Le 10/07/2019 à 12:20
DeepNude est une utilisation dérivée de cette technologie qui peut constituer une menace pour les femmes étant donné que certaines personnes malintentionnées pourraient se servir d’images nues factices pour les harceler.
Ou a l'inverse, plus ce genre de technologies seront accessibles, et moins ce genre d'image seront considéré comme potentiellement vrais.
Plutôt que mettre la poussière sur le tapis, il faudrait surtout que le plus de gens possibles soient au courant...
Je pense que les générations actuelles sont déjà bien baignées dans ce genre de choses (l'édition d'image, le "photoshopage", tout le monde ayant accès a un ordinateur ou a un téléphone sait que ça existe).

Bannir ce genre de technos de github, a mon avis, va faire plus de mal que de bien, car ça va créer de la réactance, et pousser plus de personnes a essayer de le faire (et probablement mieux).
14  0 
Avatar de TheLastShot
Membre extrêmement actif https://www.developpez.com
Le 10/07/2019 à 13:07
Citation Envoyé par Aiekick Voir le message
au fond des que quelqu'un aura sa photo en ligne a poil volé ( comme le revenge pron), tout le monde pourra dire c'est pas moi c'est un fake. c'est pas si mal au fond non ?
Oui quand on vit dans un monde de bisounoursça pourrait marcher... Dans la réalité, fake ou pas, ça te restera collé à ta peau, comme n'importe quel fake.
5  1 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 10/07/2019 à 12:24
il s’émeuvent des fausses photo de nue, mais pas des fausses videos de gens qui disent des choses qu'ils n'ont pas dites. la 2eme est pire que la 1ere.

au fond des que quelqu'un aura sa photo en ligne a poil volé ( comme le revenge pron), tout le monde pourra dire c'est pas moi c'est un fake. c'est pas si mal au fond non ?
3  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 10/07/2019 à 15:26
Citation Envoyé par TheLastShot Voir le message
Oui quand on vit dans un monde de bisounoursça pourrait marcher... Dans la réalité, fake ou pas, ça te restera collé à ta peau, comme n'importe quel fake.
dans un monde de bisounours, il n'y aurait même pas de polémique, ni de revenge porn...
3  2 
Avatar de
https://www.developpez.com
Le 10/07/2019 à 23:45
Citation Envoyé par NBoulfroy Voir le message
C'est un grand pas pour le genre humain cette IA ! Non mais sérieux ...
C'est clair, quelle honte ! Alors que les IA des sites de commerce qui permettent de spammer encore plus de pub ou les IA de la finance qui permettent de spéculer encore plus, ça c'est de la bonne IA qui va sauver l'humanité...
1  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 11/07/2019 à 18:49
Citation Envoyé par eldran64 Voir le message
Tu ne serais pas fan du "technicien" par hasard?

Sinon on aurait simplement pu parler de l'effet Streisand tout simplement.
Si tu parles de la chaîne de Gull, ouais j'aime beaucoup leurs vidéos.
Et en effet pour l'effet Streisand, je n'avais plus le mot.
1  0 
Avatar de NBoulfroy
Membre éclairé https://www.developpez.com
Le 10/07/2019 à 12:19
C'est un grand pas pour le genre humain cette IA ! Non mais sérieux ...
0  0 
Avatar de CoderInTheDark
Membre émérite https://www.developpez.com
Le 10/07/2019 à 18:35
Ca ne va pas me manquer, l'application 'est pas accessible.

Plus sérieusement la mention "fake", il ne pouvait pas la coller directement sur le corps nue générés ?
Ca doit être plus dure à enlever qu'un texte par dessus le fond de l'image dans un coin avec Photoshop.
La peau n'est pas d'une couleur unie,
0  0 
Avatar de eldran64
Membre extrêmement actif https://www.developpez.com
Le 11/07/2019 à 8:46
Citation Envoyé par onilink_ Voir le message

Bannir ce genre de technos de github, a mon avis, va faire plus de mal que de bien, car ça va créer de la réactance, et pousser plus de personnes a essayer de le faire (et probablement mieux).
Tu ne serais pas fan du "technicien" par hasard?

Sinon on aurait simplement pu parler de l'effet Streisand tout simplement.
0  0 
Avatar de eldran64
Membre extrêmement actif https://www.developpez.com
Le 12/07/2019 à 8:50
Citation Envoyé par onilink_ Voir le message
Si tu parles de la chaîne de Gull, ouais j'aime beaucoup leurs vidéos.
Ouaip je parlais bien de cette chaine youtube. Je la trouve excellente. En lisant ton com' j'avais la voix du personnage "technicien" dans la tête
0  0