IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Le plan de surveillance des appareils d'Apple est une menace pour la vie privée des utilisateurs - et la liberté de la presse »
Prévient la Freedom of the Press Association

Le , par Bill Fassinou

315PARTAGES

10  0 
Les groupes de défense des droits de l'homme, de la liberté d'expression et de la vie privée en ligne continuent de mettre la pression à Apple pour qu'il abandonne ses plans de détection de CSAM [child sexual abuse material] sur les appareils des utilisateurs. Un nouveau groupe s'est joint à la cause ce jeudi, notamment la Freedom of the Press Association (FPA), qui allègue que le projet de surveillance des appareils d'Apple est une menace pour la vie privée des utilisateurs, mais également pour la liberté de la presse. Apple insiste toujours sur le bien-fondé de ce projet et assure que le système ne peut pas être détourné.

La Freedom of the Press Association rejoint le combat contre Apple

Au début du mois, Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS et iPadOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste. Apple a précisé que cette nouvelle technologie fait partie d'une nouvelle série de systèmes de protection des enfants qui « évolueront et se développeront au fil du temps ».



Les fonctionnalités seront déployées dans le cadre d'iOS 15, qui devrait sortir le mois prochain. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société. Mais les choses ne sont pas passées comme prévu. En effet, lorsqu'Apple a annoncé ses plans il y a deux semaines, la société s'attendait peut-être à une faible controverse. Après tout, les abus sexuels sur les enfants sont un problème que tout le monde veut résoudre.

Cela dit, la réaction des défenseurs de la vie privée et des droits de l'homme a été rapide, forte et presque unanime. Les plaintes ne portaient pas principalement sur la mise en œuvre précise annoncée par Apple, mais plutôt sur le dangereux précédent qu'elle crée. Les façons dont la technologie pourrait être utilisée à mauvais escient à l'avenir lorsqu'Apple et ses partenaires seront soumis à la pression extérieure des gouvernements ou d'autres acteurs puissants sont presque trop nombreuses pour être comptées. Selon la FPA, de manière très générale, les atteintes à la vie privée proviennent de situations où de "faux positifs" sont générés.

C'est-à-dire qu'une image, un appareil ou un utilisateur est signalé alors qu'il n'y a aucune image d'abus sexuel. « Ce type de faux positifs peut se produire si la base de données de comparaison a été modifiée ou élargie pour inclure des images qui ne représentent pas d'abus sexuels, ou si un adversaire peut tromper l'algorithme d'Apple en faisant correspondre par erreur une image existante. (Apple, pour sa part, a déclaré qu'un faux positif accidentel - où une image innocente est signalée comme du matériel pédopornographique sans raison - est extrêmement improbable, ce qui est probablement vrai) », a déclaré l'association aujourd'hui.

Selon elle, le problème des faux positifs touche plus directement les questions de liberté de la presse lorsqu'on considère la première catégorie, avec des adversaires qui peuvent modifier le contenu de la base de données à laquelle les appareils Apple comparent les fichiers. Elle estime qu'une organisation qui pourrait ajouter des copies de ses dossiers internes ayant fait l'objet de fuites pourrait trouver les appareils qui détiennent ces données - y compris, potentiellement, les dénonciateurs et les journalistes qui ont travaillé sur une histoire donnée. Cela pourrait également révéler l'ampleur d'une fuite si elle n'est pas encore connue.

Les gouvernements qui pourraient inclure des images critiques de leurs politiques ou de leurs responsables pourraient également trouver les dissidents qui échangent ces fichiers. Dans un billet de blogue publié ce jeudi, l'organisation affirme que ces préoccupations ne sont pas purement hypothétiques. Elle note, par exemple, que la Chine obligerait déjà certains de ses citoyens à installer directement sur leurs appareils des applications qui recherchent les images qu'elle juge pro- Ouïghour. Cela dit, il faut noter qu'Apple a déclaré dans un document FAQ qu'il s'opposera à l'insertion d'images non-CSAM dans la base de données de hachage.

« Apple refuserait de telles demandes et notre système a été conçu pour empêcher que cela ne se produise », a déclaré l'entreprise. Cependant, la FPA estime que ce n'est pas aussi simple. « Si seulement c'était aussi simple ! Même avec les meilleures intentions, Apple et les organisations qui maintiennent les bases de données en question sont susceptibles de faire face à une pression extrême des gouvernements du monde entier pour étendre leurs efforts à toutes sortes d'autres types de contenus illégaux. Et les ordres juridiques ne sont pas exactement quelque chose que les entreprises peuvent simplement refuser », a-t-elle déclaré.

Electronic Frontier Foundation : si vous construisez, ils viendront

Après de nombreuses critiques, Apple a publié la semaine dernière de nouvelles clarifications sur les efforts visant à atténuer ces préoccupations. Il ne correspondrait qu'aux images qui ont été signalées par des groupes dans plusieurs pays, et les utilisateurs avertis seraient en mesure de vérifier que la liste des images que leur propre téléphone vérifie est la même que sur tous les autres téléphones. Si ces garanties permettent d'atténuer le risque d'un point de défaillance unique, elles ne répondent pas entièrement aux risques posés par un acteur étatique. De même, Apple poursuit actuellement en justice une startup qui fait exactement cela.

Par ailleurs, la Freedom of the Press Association indique dans son billet de blogue que malheureusement, la société a parfois cédé à ce type de pression. Des rapports publiés plus tôt dans l'année ont révélé que, sous pression, Apple a accepté de stocker les données des utilisateurs et les clés de chiffrement en Chine, à la demande du gouvernement, et a accédé aux demandes de données iCloud. La société a aussi retiré des applications et des jeux de sa place de marché pour se conformer aux réglementations locales. Alors, que ferait-elle différemment face à de nouvelles demandes d'utilisation abusive de cette technologie de comparaison d'images ?

Comme l'a déjà souligné l'Electronic Frontier Foundation : « si vous construisez, ils viendront ». « L'exploitation des enfants est un problème grave, et Apple n'est pas la première entreprise technologique à modifier sa position en matière de protection de la vie privée pour tenter de le combattre. Mais ce choix aura un prix élevé pour la vie privée globale des utilisateurs », a déclaré l'EFF, ajoutant qu'une porte dérobée ne pourrait en aucun cas être sécurisée. L'EFF a déclaré qu'il était extrêmement "déçu qu'un champion du chiffrement de bout en bout" entreprenne une volte-face choquante pour les utilisateurs.

Selon la Freedom of the Press Association, au-delà de la possibilité d'altération de la base de données, les faux positifs pourraient aussi se produire si des adversaires parviennent à générer des fichiers qui entrent en collision avec des images connues dans la base de données. Avant même l'annonce officielle d'Apple, les chercheurs ont demandé à l'entreprise de publier son algorithme de comparaison afin de voir dans quelle mesure il est sensible à ce type de fausses correspondances générées (généralement appelées "exemples contradictoires" dans le monde de l'apprentissage automatique).

Mais jusqu'à présent, Apple a refusé de rendre cette fonction de correspondance disponible, même si la société a demandé aux chercheurs en sécurité de vérifier son travail. Cependant, des chercheurs semblent avoir récemment extrait la fonction de correspondance d'iOS et ont même généré une correspondance "préimage", c'est-à-dire un fichier créé de toutes pièces que la fonction de correspondance d'Apple ne peut distinguer d'une autre image connue. Selon la FPA, cela représente un sérieux problème pour les plans d'Apple : des adversaires capables de générer de faux positifs pourraient inonder le système de mauvaises données.

Ils peuvent aussi utiliser les appareils d'utilisateurs peu méfiants pour les héberger. L'organisation a déclaré que les premiers exemples d'adversaires ressemblent à du bruit blanc, mais ce n'est probablement qu'une question de temps avant qu'ils puissent être intégrés dans une tout autre image. « Les journalistes, en particulier, s'appuient de plus en plus sur les solides protections de la vie privée fournies par Apple, même lorsque d'autres grandes entreprises technologiques ne le font pas », a déclaré l'association, rappelant que par le passé, Apple a déjà refusé d'ouvrir l'iPhone d'un suspect en raison du précédent que cela pouvait créer.

« Apple a refusé de remanier son logiciel pour ouvrir le téléphone d'un terroriste présumé - non pas parce qu'elle voulait protéger le contenu du téléphone du criminel, mais parce qu'il s'inquiétait du précédent que cela créerait pour les autres personnes qui comptent sur la technologie d'Apple pour se protéger. En quoi cette situation est-elle différente ? », s'interroge l'association.

« Aucune porte dérobée pour les forces de l'ordre ne sera suffisamment sûre pour empêcher les mauvais acteurs de continuer à l'ouvrir juste un peu plus. Les risques pour la vie privée que présente ce système sont trop extrêmes pour être tolérés. Apple a peut-être eu de nobles intentions avec le système annoncé, mais les bonnes intentions ne suffisent pas à sauver un plan qui est pourri jusqu'à la moelle », a-t-elle conclu, demandant à Apple de renoncer immédiatement à ces plans.

Des dizaines d'organisations forment une coalition contre d'Apple

La coalition contre cette démarche d'Apple continue de grandir depuis l'annonce de la société. Ils seraient désormais plus de 90 groupes politiques et de défense des droits à travers le monde. Ils ont publié ce jeudi une lettre ouverte demandant à Apple d'abandonner son projet de scanner les messages des enfants à la recherche de nudité et les téléphones des adultes à la recherche d'images d'abus sexuels sur des enfants. Certains signataires étrangers, en particulier, s'inquiètent de l'impact des changements dans des pays dotés de systèmes juridiques différents, dont certains sont déjà le théâtre de luttes acharnées sur le chiffrement et la vie privée.

« Bien que ces fonctionnalités soient destinées à protéger les enfants et à réduire la diffusion de documents relatifs à des abus sexuels sur des enfants, nous craignons qu'elles ne soient utilisées pour censurer des discours protégés, menacer la vie privée et la sécurité de personnes dans le monde entier et avoir des conséquences désastreuses pour de nombreux enfants », a écrit la coalition dans une lettre ouverte publiée aujourd'hui par le Center for Democracy & Technology (CDT). Parmi les signataires figurent de nombreux groupes au Brésil, où les tribunaux ont bloqué à plusieurs reprises l'application WhatsApp de Facebook.

WhatsApp a refusé à plusieurs reprises de déchiffrer des messages dans le cadre d'enquêtes criminelles. De plus, le sénat brésilien a adopté un projet de loi imposant la traçabilité des messages, ce qui nécessiterait de marquer leur contenu d'une manière ou d'une autre. Une loi similaire a été adoptée en Inde cette année. « Notre principale préoccupation est la conséquence de ce mécanisme, comment il pourrait être étendu à d'autres situations et à d'autres entreprises. Cela représente un sérieux affaiblissement du chiffrement », a déclaré Flavio Wagner, président de la section indépendante brésilienne de l'Internet Society, qui a signé.

« C'est très décevant et contrariant qu'Apple fasse cela, car il a été un allié fidèle dans la défense du chiffrement par le passé », a déclaré Sharon Bradford Franklin, codirectrice du projet de sécurité et de surveillance du CDT. D'autres signataires se trouvent en Inde, au Mexique, en Allemagne, en Argentine, en Tanzanie et au Ghana. Alors que les plaintes se baisaient jusque-là sur le balayage des iPhone, la lettre de la coalition dénonce également une modification d'iMessage dans les comptes familiaux, qui tenterait d'identifier et d'estomper la nudité dans les messages des enfants et ne les laisserait voir que si les parents en sont informés.

Selon les signataires, cette mesure pourrait mettre en danger les enfants vivant dans des foyers intolérants ou ceux qui recherchent du matériel éducatif. De manière plus générale, ils ont déclaré que ce changement briserait le chiffrement de bout en bout d'iMessage, qu'Apple a farouchement défendu dans d'autres contextes. « Une fois cette fonction de porte dérobée intégrée, les gouvernements pourraient contraindre Apple à étendre la notification à d'autres comptes et à détecter les images choquantes pour des raisons autres que leur caractère sexuellement explicite », indique la lettre. Les autres groupes signataires sont l'American Civil Liberties Union, l'Electronic Frontier Foundation, Access Now, Privacy International et le projet Tor.

Sources : Freedom of the Press Association, Lettre de la coalition

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

Le lanceur d'alerte Edward Snowden et l'EFF critiquent le projet d'Apple de scanner les messages et les images iCloud, des milliers de personnes demandent à l'entreprise de suspendre ses plans

Apple invite les chercheurs à vérifier ses fonctionnalités de sécurité pour les enfants, mais poursuit en justice une startup qui fait exactement cela

Après les critiques, Apple ne recherchera que les images d'abus signalées dans plusieurs pays et insiste qu'il s'agit d'une avancée en matière de confidentialité

Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos, alors que les experts dénoncent un recul dans les progrès en matière de vie privée

Le Parlement allemand demande à Tim Cook de reconsidérer ses projets de CSAM, estimant que le système de balayage d'Apple sape la communication confidentielle

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Jeff_67
Membre chevronné https://www.developpez.com
Le 06/09/2021 à 7:22
La seule donnée privée, c'est celle qui n'est pas collectée.

Quand Apple prétend protéger la vie privée de ses utilisateurs au prétexte que les (nombreuses) informations collectées ne sont pas transmises à des tiers, c'est juste du bidon.
6  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 22/08/2022 à 10:54
j'espere que cet incident ouvrira les yeux aux gens.

google a de nombreux service gratuits qui sont tres bien fait et pour une bonne raisons.
une fois que vous ne pouvez plus vous en passer, il ya une sorte de chantage qui s'installe.

mais au dela de ca, il peut tout vous couper comme ca lui prends. c'est couvert dans les dispositions generales que
vous n'avez pas le choix de signer regulierement pour continuer a utiliser les services en question. (le fameux chantage dont je parlais)

Et comme pour les jeux et apps qui sont supprimés avec un messages abscons sans possibiltié de faire appel par le dev, ni contact de quoi que ce soit,
vous perdez d'un coup l'acces a tous les services google dont vous etes dependant d'une maniere ou d'une autre, donc tout vos mails, votre telephone android, et toute les autres services, comme google ads (que vous ayez des sous ou pas dedssus bien evidemment).

si vous etendez ca aux autres GAFAM, ca peut limite vous couper de la plupart des grand services mainstream d'internet.

Pour eviter ca, il ne faut pas mettre tout ces oeufs dans le meme panier, soit, commencer, a ce passer d'eux quand c'est possible.

Et c'est pas evident, mais necessaire. ce qui lui est arrivé peut vous arriver pour un motif encore plus light..
6  0 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 24/08/2022 à 16:42
Citation Envoyé par Patrick Ruiz Voir le message

Interdire le scannage automatique des communications privées ou le maintenir : de quel bord êtes-vous ?
Que rien ne peut justifier le scan de communications privées qui par définition relèvent de la vie privée.
Sur le fond c'est un scandale que Google les scanne et sur ce cas particulier c'est l'équivalent d'un mauvais fonctionnement que de les bloquer.

Citation Envoyé par Patrick Ruiz Voir le message

Quelles solutions techniques préconisez-vous dans le cas d’un maintien du scannage automatique des communications privées pour garantir un équilibre entre vie privée et sécurité ?
Aucune, on ne va pas voir ce qui relève du privé, point. La question ne peut se poser que pour les communications publiques ou là il y a par contre beaucoup à faire contre les manipulations, les harcèlements et bien d'autres choses
6  1 
Avatar de OldGhost
Membre à l'essai https://www.developpez.com
Le 25/08/2022 à 12:28
La situation interpelle d’autant plus que l’UE travaille ce que les tous les fournisseurs de services de courrier électronique, de chat et de messagerie fouillent dans les communications privées à la recherche de messages suspects de manière entièrement automatisée et à les transmettre à la police dans le cadre de la lutte contre la pédopornographie. La présentation d’un projet de loi y relatif s’est en principe faite au cours du mois de mai de l’année en cours.
En résumé, Bruxelles veut officialiser la capacité des fournisseurs américains à faire de l'espionnage industriel pour le compte des US et au détriment des pays européens, sous couvert de lutte contre la pédocriminalité.

Les réseaux organisés de pornographie infantile n'utilisent pas le courrier électronique ou les services de messagerie, mais les forums du darknet
Pas de chance ! Encore une mesure inutile par rapport à l'objectif annoncé, à croire que tout est fait pour aller vers une société de cyber-contrôle et d'espionnage de masse.
5  0 
Avatar de LeBreton56
Membre régulier https://www.developpez.com
Le 25/08/2022 à 16:32
je me demande comment des européens peuvent voter ce genre de surveillance et en même temps défendre la RGPD et la protection des identités
Il est inadmissible que des sociétés privées aient le pouvoir(et devoir apparemment) de fouiller dans notre vie privée alors qu' en générale la police ou la gendarmerie a besoins d'un mandat pour le faire.

je pense que nos politique sont tombés sur la tête et ne comprennent rien à l'informatique et au réseaux. a moins que des soit disant expert leur aient vendue la lune.

j'en pleure sur la patrie de la liberté égalité fraternité.
5  0 
Avatar de phil995511
Membre éclairé https://www.developpez.com
Le 24/08/2021 à 11:51
Google via Gmail scanne votre boîte à lettre soit disant pour mieux vous cibler publicitairement parlant, Apple vis iCloud scanne la votre soit disant pour y trouver des fichiers compromettant...

En résumé fuyez les services US, vous y êtes super-hyper fichés ;-(

Les Eats Unis se moquent ouvertement du respect de la vie privée, il serait temps pour la vieille Europe de remettre l'église au centre du village et d'entreprendre des actions en justice à l'encontre de ce genre de pratiques, qui sont Dieu merci illégales chez nous.
4  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 24/08/2022 à 18:06
Quelles solutions techniques préconisez-vous dans le cas d’un maintien du scannage automatique des communications privées pour garantir un équilibre entre vie privée et sécurité ?
une solution : https://fr.wikipedia.org/wiki/Proton_Mail, mais limité ne version gratuite
autre solution ; Utilisation de client de messagerie prenant en charge OpenPGP, mais galère, il faut créer un jeu de clé publique/cl privée et le destinataire doit l'utiliser.

Quelle que soit la situation, ayez une sauvegarde offline de vos mails , et dans la mesure du possible, utilisez une adresse sur votre propre nom de domaine, vous pourrez ainsi changer d'hébergeur de mail à tout moment
4  0 
Avatar de tyrtamos
Expert éminent https://www.developpez.com
Le 25/08/2022 à 5:26
Bonjour. Il y a plusieurs choses choquantes dans cette information. C'est bien pour la société que Google (et Facebook, etc...) dispose d'une surveillance pour éviter les messages illégaux et dangereux, mais encore faut-il ne pas le faire n'importe comment. Dans le problème cité:
- comment une conversation et une photo communiquées dans le cadre d'une consultation médicale ont-elles pu être scannées? Il n'y a plus de secret médical?
- la police ayant vérifié et constaté qu'il n'y a rien de répréhensible, comment Google ose-t-il refuser de restaurer le compte annulé?

Un problème du même genre mais heureusement moins grave, vient de m'arriver avec Facebook. J'ai été interpelé méchamment par Facebook pour un message innocent concernant... le code de la route, comme quoi il "contrevenait aux règles de Facebook"! J'avais seulement émis des doutes sur le fait que certaines règles du code de la route allemand soit compatible avec la mentalité des français. J'ai bien sûr refusé le verdict, mais Facebook a maintenu sa position. J'ai encore protesté en m'expliquant , et Facebook ne me supprime pas en disant que "une erreur est toujours possible". Ils ont donc pris acte de ma 2ème protestation mais il ne l'ont pas lue puisqu'ils ne répondent pas sur le fond. Cette dernière décision était donc elle aussi automatique.

Il y a manifestement un algorithme qui repère les "mots interdits" sans tenir aucun compte du sens des phrases ni du contexte, et génère des sanctions automatiques.

Ce qui me choque, c'est que dans un cas aussi simple et aussi facile à défendre que le mien, je n'ai eu manifestement aucune personne physique intelligente pour répondre à mes protestations. Cela augure mal des suites: nous qui critiquions facilement le caractère aveugle de notre administration française, nous allons vers une époque où nous serons condamnés par un ordinateur pour de fausses raisons sans aucune possibilité de se défendre. Je fini par être content d'être vieux: je ne verrai pas la suite, mais nos enfants, eux, la verront et la subiront. Triste époque...
5  1 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 25/08/2022 à 8:34
Citation Envoyé par tyrtamos Voir le message
C'est bien pour la société que Google (et Facebook, etc...) dispose d'une surveillance pour éviter les messages illégaux et dangereux
Alors juste, non.
Il n'y a rien de bien là dedans.
Citation Envoyé par tyrtamos Voir le message
- la police ayant vérifié et constaté qu'il n'y a rien de répréhensible, comment Google ose-t-il refuser de restaurer le compte annulé?
J'ai une réponse simple et cynique : quand tu créés un compte, google t'informes que tout ce qui y est associé (mail, documents, etc) lui appartient et qu'y accéder et un service qu'il te rend.
Donc Google n'a même pas à restaurer le compte parce que ce n'est celui du père mais celui de google.
La seule chose à restaurer est l'accès à celui ci.

Oui, c'est choquant mais beaucoup ont signé pour ça plus ou moins consciemment.
Je suis dans le CA d'une association qui a un compte Gmail, et un google drive qui contient toutes nos données. J'ai suggéré que nous adoptions une alternative ou au minimum que nous ayons un back up. Leur réponse est simple : "tkt, ce genre de situation n'arrivera jamais."
Ils ont même été réticents quand je leur ai proposé de m'occuper de faire ce back up. Je ne comprends pas ce qui bloque autant les gens, je soupçonne qu'ils ont peur de se rendre compte que tout ceci c'est se rendre compte qu'ils ont mis une grande partie de leur sécurité (et potentiellement de leur entreprise) dans un colosse aux pieds d'argile.
5  1 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 22/08/2022 à 7:58
Citation Envoyé par Olivier Famien Voir le message
Quels commentaires faites-vous de cette affaire ?
Cette affaire ne me surprend pas vraiment, les GAFAM veulent éviter tout problème avec les autorités en dépensant le minimum donc soit il n'y a vraiment personne derrière l'analyse du recours soit ceux qui le font ont tout intérêt à rejeter le maximum de recours pour rester sous le radar des responsables en ayant un taux d'acceptation trop élevé. Donc enfant nu = refus, alors ne parlons même pas d'un pénis.
Ce qui me surprend le plus est que ce genre de détection prenne 2 jours. Que seul l'expéditeur à l'air d'être reporté alors que celui qui réceptionne devrait - a priori - être autant suspect. (Ce qui aurait pu leur montrer que c'est un échange entre un médecin et son patient - donc sous couverture de la confidentialité médicale, non?)
Citation Envoyé par Olivier Famien Voir le message
Selon vous, comment doit-on s’y prendre pour éviter d’éventuelles dérives comme ce fut le cas avec Mark et Cassio ?
Ma solution est simple : interdire ce genre d'analyse.
Elles sont nocives et peu efficace de base (1000eme rappel : la majorité de la pédophilie concerne des cas familiaux ou des amis proches).
Elles ont un risque de dérives vers des contrôles encore plus discutables.
3  0