Microsoft donne PhotoDNA à la police pour lutter contre la pédophilie
Sur le Net, un fléau en progression constante d'après l'éditeur

Le , par Sarah Mendès, Membre chevronné
En 2009, Microsoft mettait au point avec l’Université privée Darthmouth College, située dans la ville de Hanover aux Etats-Unis, une technologie baptisée PhotoDNA. Cette dernière permet de mieux traquer les images à caractère pédophile qui polluent la Toile.

Offerte dans un premier temps au National Center for Missing and Exploited Children (Centre National de Recherche des Enfants Disparus et Exploités ou NCMEC), une organisation américaine travaillant avec le ministère de la justice, elle était proposée aux différents fournisseurs d’accès dans le but de les aider dans leur lutte contre les images à caractère pédophile.

En partenariat avec la société suédoise NetClean Technologies, une entreprise qui développe elle aussi des solutions logicielles pour combattre la circulation sur Internet de ce type de contenus, Microsoft donne aujourd'hui PhotoDNA aux forces de l’ordre pour qu’elles puissent détecter et combattre les actes d'abus sexuels sur les enfants.

PhotoDNA crée une signature unique pour une image numérique qui pourra être comparée aux signatures d’autres images qui circulent sur la Toile pour trouver des correspondances. Cette signature, dite « robuste », permet de traquer des copies de l’image même si elle a été redimensionnée ou modifiée.

PhotoDNA permet aussi de rechercher sur le réseau social les enfants portés disparus. Le réseau social Facebook, qui voit l’échange de plusieurs millions de photos, a adopté cette technologie en début d’année 2011 pour contrer la diffusion d'images sexuelles de mineurs.

Cette technologie bloque ensuite les images reconnues comme délictueuses et oriente la police vers la source de l’image.


Photo issue de la vidéo de Microsoft Digital Crimes Unit

D'après Bill Harmon, de la Digital Crimes Unit de Microsoft, ce genre de contenus ne cesserait de croître sur la Toile. Et les victimes seraient de plus en plus jeunes. « Depuis 2002, le NCMEC a passé en revue plus de 65 millions d’images et de vidéos à caractère pédophile. Les images sont de plus en plus violentes et les victimes de plus en plus jeunes : 10% des images examinées par le NCMEC concernent des enfants en bas-âge et des nourrissons ».

Source : Microsoft



Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse

Avatar de buzzkaido buzzkaido - Membre éclairé https://www.developpez.com
le 21/03/2012 à 15:41
A mon avis, c'est une très bonne initiative, on ne luttera jamais assez contre ces gens-là.

Et selon moi, 1000x plus efficace que les lois liberticides à base d'Hadopi/LOPPSI/ACTA qui ne servent qu'à pousser ces gens là à encore mieux se cacher...
Avatar de MiaowZedong MiaowZedong - Membre émérite https://www.developpez.com
le 21/03/2012 à 16:57
Citation Envoyé par buzzkaido  Voir le message
A mon avis, c'est une très bonne initiative, on ne luttera jamais assez contre ces gens-là.

Et selon moi, 1000x plus efficace que les lois liberticides à base d'Hadopi/LOPPSI/ACTA qui ne servent qu'à pousser ces gens là à encore mieux se cacher...

Je pense que tu illustres là à quel point l'argument de la pédopornographie est efficace.

D'un point de vue technique, il s'agit d'une technologie d'identification d'images, comme le disent Microsoft eux-même. Elle peut être utilisée pour retrouver diverses versions d'une même image. Microsoft parlent de l'utiliser pour retrouver des images pédopornographiques; on pourrait aussi l'utiliser pour retrouver des images d'une même aggression (ce qui reste louable) ou pour retrouver des images d'une même manifestation (ce qui est tout de suite suspect).

En soit, la technologie est un outil neutre. PhotoDNA n'est pas plus une technologie anti-pedophilie que les empreintes ADN ne sont une technologie anti-viol. On peut retrouver des contenus pédopornographiques avec l'un et des violeurs avec l'autre; où alors on peut rechercher des images de campagnes politiques à censurer et une "race" à exterminer. Ce qui compte ce n'est pas la technologie, c'est l'usage qui en est fait.

De même pour HADOPI/LOPPSI, etc: techniquement je ne pense pas que mettre hors ligne un contenu ou couper un accès Internet ne soient des actes répréhensibles. Ce qui est inquiétant, c'est le manque de transparence, la difficulté à controler les actes permis par ces lois (ainsi que leur motivation, mais c'est un autre debat).

Pour en revenir à l'article, espèrons que PhotoDNA serve à mettre de nombreux prédateurs sexuels hors d'état de nuire, et aussi qu'il ne soit pas détourné à d'autres fins.
Avatar de vampirella vampirella - Membre éclairé https://www.developpez.com
le 21/03/2012 à 17:18
Citation Envoyé par MiaowZedong  Voir le message
En soit, la technologie est un outil neutre.

Tiens, ça me rappelle une autre discussion qui date un peu
Tout dépend : un missile est loin d'être pour moi une technologie tout à fait neutre, bien au contraire. Cependant, et là je te rejoins, l'utilisation finale de la technologie rend celle-ci plus ou moins moralement acceptable. Et encore on peut reprendre le vieil argument : "la fin ne justifie pas les moyens".

M'enfin, c'est encore tout autre chose.

Je me demande comment est produite cette "signature numérique" ? Je veux dire, ils doivent forcément partir d'un original, ou en tout cas d'une base. Cette signature est inutilisable tant qu'on n'arrive pas à trouver une seule copie de la photo et donc trouver la source primaire (le serveur contenant la photo), ou je me trompe ?
Avatar de Squisqui Squisqui - En attente de confirmation mail https://www.developpez.com
le 21/03/2012 à 18:28
Citation Envoyé par vampirella  Voir le message
Je me demande comment est produite cette "signature numérique" ? Je veux dire, ils doivent forcément partir d'un original, ou en tout cas d'une base. Cette signature est inutilisable tant qu'on n'arrive pas à trouver une seule copie de la photo et donc trouver la source primaire (le serveur contenant la photo), ou je me trompe ?

C'est la même question que je me suis posé.
A priori, il faut bien trouver une première fois du contenu avant de pouvoir le retrouver (qui lui, sera peut-être accompagné de nouveaux contenus).

Il me semble que Youtube est capable de reconnaitre du contenu (lutte contre la diffusion de contenu illégal) en voyant pas mal de vidéo ayant subit un effet miroir pour ne pas se faire prendre. En espérant que la technologie aille plus loin que ça ^^
Avatar de kolodz kolodz - Modérateur https://www.developpez.com
le 21/03/2012 à 22:40
L'offre de cette outil au service de lutte contre la pédopornographie est louable.
Mais je doute qu'elle soit totalement intéressé. Cela prouve les capacités des technologie Microsoft dans le domaine de la reconnaissance d'image, de personne sur une image et du type de contenu. Ce qui n'est pas rien dans le domaine d'après ce que j'en sais.

J'espère seulement que l’augmentation de ce type de contenu est en partie dû à la plus grande facilité de prendre un grand nombre de photo, qu'une augmentation du nombre de victime ou autres.

Cordialement,
Patrick Kolodziejczyk.
Avatar de Loceka Loceka - Expert confirmé https://www.developpez.com
le 22/03/2012 à 8:41
Citation Envoyé par vampirella  Voir le message
Tout dépend : un missile est loin d'être pour moi une technologie tout à fait neutre, bien au contraire.

Un missile n'est pas une technologie.

La technologie derrière le missile c'est :
- la propulsion (utilisée dans les avions, fusées, ...)
- les explosifs (forage, ...)
- la géolocalisation
- à la rigueur le nucléaire

Tout de suite c'est moins évidemment néfaste.
Avatar de Freem Freem - Membre émérite https://www.developpez.com
le 22/03/2012 à 10:26
C'est sûr que ça me paraît tout à fait naturel que les pédophiles utilisent facebook pour diffuser leur contenu...
Mouarf.

Quand à leur technologie, elle n'agit que sur du contenu stéganographié, ou également chiffré?
A quel degré de stéganographie s'applique-t'elle? Se contente-t-elle d'une image "redimensionnée" ou autres techniques de cet acabit clairement inutiles, ou est-elle également capable de retrouver une image disséminée dans une autre en exploitant la trop grosse quantité de couleurs disponibles dans les fichiers utilisant 32bit pour coder un pixel seul?

La stéganographie est un art aussi ancien que le chiffrage, et ceux qui veulent casser des codes de chiffrement ou des techniques de stéga sont tout aussi vieux.

Bref, sans vouloir entrer dans le côté des méfaits potentiels de cette techno, et de la neutralité morale de la science, j'ai un très sérieux doute quand à la possibilité d'exploiter cette technologie.

Ah, une dernière chose.
Il semble que cette techno ait déjà été utilisée. A-t-on des chiffres probants parlant de son efficacité? Genre hausse des résultats... J'en doute, si ça avait été le cas, ils auraient très vite été mis en avant.
Avatar de ZiGoM@r ZiGoM@r - Membre averti https://www.developpez.com
le 22/03/2012 à 10:32
Si le missile sert à détruire un géocroiseur avant qu'il ne frappe la terre, je n'irais pas manifester contre.

@ Freem : Si l'on peut attraper des pédophiles à moindre frais, même peu nombreux, cela ne me dérange pas, surtout s'il s'agit de ceux dont l'offrent est publique ou facilement accessible. Les réseaux plus privés demanderons toujours un effort d'investigation plus conséquent, qu'ils opèrent sur Internet ou non.
Avatar de leminipouce leminipouce - Membre éprouvé https://www.developpez.com
le 22/03/2012 à 11:09
Je pense aussi qu'il faille partir d'une source. Je pense aussi que toutes les images trop élaborées (chiffrées, stéganographiées, ...) sont inévitablement beaucoup plus (peut-être trop ?) complexe à analyser.

Maintenant, tous les pédophiles ne sont pas des experts en chiffrement, des as de la sécurité, etc...

Si l'un d'entre eux trouve une image sympa, qu'il la récupère, la remet un peu en forme et la rediffuse, il publie du contenu. Si la techno de M$ permet de le retrouver plus rapidement et le mettre hors d'état de nuire, c'est pour moi tout bénéf. Et plus cette techno avancera et fera écrouer des pédophiles, moins la demande pour ce type de contenus sera grande.
On retombe sur une loi de marché applicable à une grande majorité de cas, l'offre et la demande. Si les pédophiles se savent traquer sur internet, savent que les risques qu'ils prennent en utilisant cet outil sont de plus en plus grands, ... ils seront de moins en moins nombreux à le faire. Et la diffusion d'images à caractère pédopornographique deviendra moins intéressante/rentable pour les diffuseur, plus risquée... donc plus rare !

Chaque outil pour protéger les enfants dans ce domaine ne peut être qu'un plus. Jamais une solution radicale et ultime, mais à défaut un nouveau frein pour les pédopronographes.
Avatar de Loceka Loceka - Expert confirmé https://www.developpez.com
le 22/03/2012 à 11:27
Ben déjà, un des buts de la stéganographie c'est de faire en sorte qu'une personne "externe" ne soit pas capable de déterminer s'il y'a ou non du contenu stéganographié et, à défaut, qu'elle soit incapable de comprendre le-dit contenu.

Donc si MS avait réussi le tour de force de déjouer les algorithmes de stéganographie par un processus automatique, ça voudrait dire que la stéganographie n'a plus aucun intérêt.
Offres d'emploi IT
Développeur Web FULL-STACK
VACALIANS GROUP - Languedoc Roussillon - SETE (34)
RESPONSABLE WEB ANALYTICS F/H
VACALIANS GROUP - Languedoc Roussillon - SETE (34)
Développeur WEB PHP F/H
VACALIANS GROUP - Languedoc Roussillon - SETE (34)

Voir plus d'offres Voir la carte des offres IT
Contacter le responsable de la rubrique Accueil