IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un groupe de chercheurs a déclaré que la « technologie dangereuse » d'analyse de photos d'Apple était invasive et inefficace
Pour détecter les images d'abus sexuels sur des enfants

Le , par Stéphane le calme

768PARTAGES

14  0 
Plus d'une douzaine d'éminents experts en cybersécurité ont accusé Apple de s'être appuyé sur une « technologie dangereuse » dans son plan controversé de détection d'images d'abus sexuels sur des enfants sur iPhone

En aout, Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste.

Apple a précisé que la technologie de balayage fait partie d'une nouvelle série de systèmes de protection des enfants qui « évolueront et se développeront au fil du temps ».

Le système, appelé neuralMatch, alertera de manière proactive une équipe d'examinateurs humains s'il pense que des images illégales sont détectées. Selon un article de Financial Times, qui a rapporté la nouvelle pour la première fois, les examinateurs humains contacteront ensuite les forces de l'ordre si le matériel peut être vérifié. Le système neuralMatch, qui a été formé à l'aide de 200 000 images du National Center for Missing & Exploited Children, sera d'abord déployé aux États-Unis, puis au reste du monde. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.

Selon les explications de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un « bon de sécurité » indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.

Une initiative qui a créé la division, même au sein des employés Apple. Matthew Green, professeur à l'université John Hopkins et cryptographe, a indiqué sur Twitter : « Ce genre d'outil peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens... Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire ».

En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.

Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.

Au départ, les fonctionnalités devaient être déployées dans le cadre d'iOS 15, qui est sorti en septembre. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société. Mais le tollé provoqué sur la toile a contraint Apple à modifier sa feuille de route.


Apple a tenté sans succès de rassurer

Dans un mémo interne à l'intention des équipes qui ont travaillé sur ce projet, Apple a reconnu les « malentendus » autour des fonctionnalités, tout en affirmant que ces fonctionnalités font partie d'une « mission importante » pour assurer la sécurité des enfants. Le document, qui a également été dévoilé le même jour que les nouvelles fonctionnalités, a été rédigé par Sébastien Marineau-Mes, un VP logiciel chez Apple. Marineau-Mes affirme qu'Apple continuera à « expliquer et à détailler les fonctionnalités » incluses dans cette suite de protections étendues pour les enfants. Voici le mémo dans son intégralité :

« Aujourd'hui marque le dévoilement public officiel des protections élargies pour les enfants, et je voulais prendre un moment pour remercier chacun d'entre vous pour votre travail acharné au cours des dernières années. Nous n'aurions pas atteint cette étape importante sans votre dévouement inlassable et votre résilience. Assurer la sécurité des enfants est une mission tellement importante. À la manière d'Apple, la poursuite de cet objectif a nécessité un engagement transversal profond, englobant l'ingénierie, l'administration générale, l'informatique, les services juridiques, le marketing produit et les relations publiques. »

« Ce que nous avons annoncé aujourd'hui est le fruit de cette collaboration, un produit qui fournit des outils pour protéger les enfants, tout en respectant l'engagement profond d'Apple envers la vie privée des utilisateurs. Nous avons vu beaucoup de réactions positives aujourd'hui. Nous savons que certaines personnes ont des malentendus et que plus d'une s'inquiète des implications, mais nous continuerons à expliquer et à détailler les fonctionnalités pour que les gens comprennent ce que nous avons construit. »

« Et alors qu'il reste beaucoup de travail à accomplir pour mettre en œuvre les fonctionnalités dans les prochains mois, je voulais partager cette note que nous avons reçue aujourd'hui du NCMEC. Je l'ai trouvé incroyablement motivant, et j'espère que vous le serez aussi. Je suis fier de travailler chez Apple avec une équipe aussi formidable. Merci à tous ! ».

Le mémo comprenait aussi un message du National Center for Missing and Exploited Children, signé par Marita Rodriguez, directrice exécutive des partenariats stratégiques. Apple travaille en étroite collaboration avec le NCMEC sur les nouvelles fonctionnalités de numérisation d'iCloud. Voici le texte intégral de la note du NCMEC envoyée à l'équipe d'Apple travaillant sur ces fonctionnalités :

« Équipe Apple, je voulais partager un mot d'encouragement pour dire que tout le monde à NCMEC est TELLEMENT FIER de chacun d'entre vous et des décisions incroyables que vous avez prises au nom de la priorité accordée à la protection des enfants. Il a été revigorant pour toute notre équipe de voir (et de jouer un petit rôle dans) ce que vous avez dévoilé aujourd'hui. Je sais que la journée a été longue et que beaucoup d'entre vous n'ont probablement pas dormi depuis 24 heures. Nous savons que les jours à venir seront remplis des voix criardes de la minorité. Nos voix seront plus fortes. »

« Notre engagement à soutenir les enfants qui ont vécu les abus et les victimisations les plus inimaginables sera plus fort. Pendant ces longues journées et ces nuits sans sommeil, j'espère que vous trouverez du réconfort dans le fait que, grâce à vous, des milliers d'enfants victimes d'exploitation sexuelle seront sauvés et auront une chance de guérir et de vivre l'enfance qu'ils méritent. Merci d'avoir trouvé la voie à suivre pour protéger les enfants tout en préservant leur vie privée ! »

Des chercheurs en cybersécurité montent au créneau

Dans un document de 46 pages publié jeudi, un groupe de chercheurs a déclaré que la « technologie dangereuse » était invasive et inefficace pour détecter les images d'abus sexuels sur des enfants.

Les chercheurs en cybersécurité ont déclaré avoir commencé leur étude avant l'annonce d'Apple. Des documents publiés par l'Union européenne et une réunion avec des responsables de l'UE l'année dernière les ont amenés à croire que l'organe directeur du bloc voulait un programme similaire qui analyserait non seulement les images d'abus sexuels sur des enfants, mais également les signes de crime organisé et les indices de liens terroristes.

Une proposition visant à autoriser la numérisation de photos dans l'Union européenne pourrait arriver dès cette année, estiment les chercheurs.

Ils ont déclaré qu'ils publiaient leurs conclusions maintenant pour informer l'Union européenne des dangers de son plan, et parce que « l'extension des pouvoirs de surveillance de l'État passe vraiment une ligne rouge », a déclaré Ross Anderson, professeur d'ingénierie de sécurité à l'Université de Cambridge et membre du groupe.

Mis à part les problèmes de surveillance, ont déclaré les chercheurs, leurs résultats ont indiqué que la technologie n'était pas efficace pour identifier les images d'abus sexuels sur des enfants. Quelques jours après l'annonce d'Apple, ont-ils déclaré, les gens avaient indiqué des moyens d'éviter la détection en modifiant légèrement les images.

La technologie permet « de scanner un appareil privé personnel sans aucune cause probable pour que quoi que ce soit d'illégitime soit fait », a ajouté un autre membre du groupe, Susan Landau, professeur de cybersécurité et de politique à l'Université Tufts. « C'est extraordinairement dangereux. C'est dangereux pour les affaires, la sécurité nationale, la sécurité publique et la vie privée ».

Sources : Rapport des chercheurs, UE

Et vous ?

Que pensez-vous des conclusions des chercheurs ?
Que pensez-vous des mises en garde adressées à l'UE sur un plan s'appuyant non seulement sur l'analyse des images pour détecter d'éventuels abus sexuels sur des enfants, mais également les signes de crime organisé et les indices de liens terroristes ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 22/08/2022 à 10:54
j'espere que cet incident ouvrira les yeux aux gens.

google a de nombreux service gratuits qui sont tres bien fait et pour une bonne raisons.
une fois que vous ne pouvez plus vous en passer, il ya une sorte de chantage qui s'installe.

mais au dela de ca, il peut tout vous couper comme ca lui prends. c'est couvert dans les dispositions generales que
vous n'avez pas le choix de signer regulierement pour continuer a utiliser les services en question. (le fameux chantage dont je parlais)

Et comme pour les jeux et apps qui sont supprimés avec un messages abscons sans possibiltié de faire appel par le dev, ni contact de quoi que ce soit,
vous perdez d'un coup l'acces a tous les services google dont vous etes dependant d'une maniere ou d'une autre, donc tout vos mails, votre telephone android, et toute les autres services, comme google ads (que vous ayez des sous ou pas dedssus bien evidemment).

si vous etendez ca aux autres GAFAM, ca peut limite vous couper de la plupart des grand services mainstream d'internet.

Pour eviter ca, il ne faut pas mettre tout ces oeufs dans le meme panier, soit, commencer, a ce passer d'eux quand c'est possible.

Et c'est pas evident, mais necessaire. ce qui lui est arrivé peut vous arriver pour un motif encore plus light..
6  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 24/08/2022 à 16:42
Citation Envoyé par Patrick Ruiz Voir le message

Interdire le scannage automatique des communications privées ou le maintenir : de quel bord êtes-vous ?
Que rien ne peut justifier le scan de communications privées qui par définition relèvent de la vie privée.
Sur le fond c'est un scandale que Google les scanne et sur ce cas particulier c'est l'équivalent d'un mauvais fonctionnement que de les bloquer.

Citation Envoyé par Patrick Ruiz Voir le message

Quelles solutions techniques préconisez-vous dans le cas d’un maintien du scannage automatique des communications privées pour garantir un équilibre entre vie privée et sécurité ?
Aucune, on ne va pas voir ce qui relève du privé, point. La question ne peut se poser que pour les communications publiques ou là il y a par contre beaucoup à faire contre les manipulations, les harcèlements et bien d'autres choses
6  1 
Avatar de OldGhost
Membre à l'essai https://www.developpez.com
Le 25/08/2022 à 12:28
La situation interpelle d’autant plus que l’UE travaille ce que les tous les fournisseurs de services de courrier électronique, de chat et de messagerie fouillent dans les communications privées à la recherche de messages suspects de manière entièrement automatisée et à les transmettre à la police dans le cadre de la lutte contre la pédopornographie. La présentation d’un projet de loi y relatif s’est en principe faite au cours du mois de mai de l’année en cours.
En résumé, Bruxelles veut officialiser la capacité des fournisseurs américains à faire de l'espionnage industriel pour le compte des US et au détriment des pays européens, sous couvert de lutte contre la pédocriminalité.

Les réseaux organisés de pornographie infantile n'utilisent pas le courrier électronique ou les services de messagerie, mais les forums du darknet
Pas de chance ! Encore une mesure inutile par rapport à l'objectif annoncé, à croire que tout est fait pour aller vers une société de cyber-contrôle et d'espionnage de masse.
5  0 
Avatar de LeBreton56
Membre régulier https://www.developpez.com
Le 25/08/2022 à 16:32
je me demande comment des européens peuvent voter ce genre de surveillance et en même temps défendre la RGPD et la protection des identités
Il est inadmissible que des sociétés privées aient le pouvoir(et devoir apparemment) de fouiller dans notre vie privée alors qu' en générale la police ou la gendarmerie a besoins d'un mandat pour le faire.

je pense que nos politique sont tombés sur la tête et ne comprennent rien à l'informatique et au réseaux. a moins que des soit disant expert leur aient vendue la lune.

j'en pleure sur la patrie de la liberté égalité fraternité.
5  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 24/08/2022 à 18:06
Quelles solutions techniques préconisez-vous dans le cas d’un maintien du scannage automatique des communications privées pour garantir un équilibre entre vie privée et sécurité ?
une solution : https://fr.wikipedia.org/wiki/Proton_Mail, mais limité ne version gratuite
autre solution ; Utilisation de client de messagerie prenant en charge OpenPGP, mais galère, il faut créer un jeu de clé publique/cl privée et le destinataire doit l'utiliser.

Quelle que soit la situation, ayez une sauvegarde offline de vos mails , et dans la mesure du possible, utilisez une adresse sur votre propre nom de domaine, vous pourrez ainsi changer d'hébergeur de mail à tout moment
4  0 
Avatar de tyrtamos
Expert éminent https://www.developpez.com
Le 25/08/2022 à 5:26
Bonjour. Il y a plusieurs choses choquantes dans cette information. C'est bien pour la société que Google (et Facebook, etc...) dispose d'une surveillance pour éviter les messages illégaux et dangereux, mais encore faut-il ne pas le faire n'importe comment. Dans le problème cité:
- comment une conversation et une photo communiquées dans le cadre d'une consultation médicale ont-elles pu être scannées? Il n'y a plus de secret médical?
- la police ayant vérifié et constaté qu'il n'y a rien de répréhensible, comment Google ose-t-il refuser de restaurer le compte annulé?

Un problème du même genre mais heureusement moins grave, vient de m'arriver avec Facebook. J'ai été interpelé méchamment par Facebook pour un message innocent concernant... le code de la route, comme quoi il "contrevenait aux règles de Facebook"! J'avais seulement émis des doutes sur le fait que certaines règles du code de la route allemand soit compatible avec la mentalité des français. J'ai bien sûr refusé le verdict, mais Facebook a maintenu sa position. J'ai encore protesté en m'expliquant , et Facebook ne me supprime pas en disant que "une erreur est toujours possible". Ils ont donc pris acte de ma 2ème protestation mais il ne l'ont pas lue puisqu'ils ne répondent pas sur le fond. Cette dernière décision était donc elle aussi automatique.

Il y a manifestement un algorithme qui repère les "mots interdits" sans tenir aucun compte du sens des phrases ni du contexte, et génère des sanctions automatiques.

Ce qui me choque, c'est que dans un cas aussi simple et aussi facile à défendre que le mien, je n'ai eu manifestement aucune personne physique intelligente pour répondre à mes protestations. Cela augure mal des suites: nous qui critiquions facilement le caractère aveugle de notre administration française, nous allons vers une époque où nous serons condamnés par un ordinateur pour de fausses raisons sans aucune possibilité de se défendre. Je fini par être content d'être vieux: je ne verrai pas la suite, mais nos enfants, eux, la verront et la subiront. Triste époque...
5  1 
Avatar de totozor
Membre expert https://www.developpez.com
Le 25/08/2022 à 8:34
Citation Envoyé par tyrtamos Voir le message
C'est bien pour la société que Google (et Facebook, etc...) dispose d'une surveillance pour éviter les messages illégaux et dangereux
Alors juste, non.
Il n'y a rien de bien là dedans.
Citation Envoyé par tyrtamos Voir le message
- la police ayant vérifié et constaté qu'il n'y a rien de répréhensible, comment Google ose-t-il refuser de restaurer le compte annulé?
J'ai une réponse simple et cynique : quand tu créés un compte, google t'informes que tout ce qui y est associé (mail, documents, etc) lui appartient et qu'y accéder et un service qu'il te rend.
Donc Google n'a même pas à restaurer le compte parce que ce n'est celui du père mais celui de google.
La seule chose à restaurer est l'accès à celui ci.

Oui, c'est choquant mais beaucoup ont signé pour ça plus ou moins consciemment.
Je suis dans le CA d'une association qui a un compte Gmail, et un google drive qui contient toutes nos données. J'ai suggéré que nous adoptions une alternative ou au minimum que nous ayons un back up. Leur réponse est simple : "tkt, ce genre de situation n'arrivera jamais."
Ils ont même été réticents quand je leur ai proposé de m'occuper de faire ce back up. Je ne comprends pas ce qui bloque autant les gens, je soupçonne qu'ils ont peur de se rendre compte que tout ceci c'est se rendre compte qu'ils ont mis une grande partie de leur sécurité (et potentiellement de leur entreprise) dans un colosse aux pieds d'argile.
5  1 
Avatar de totozor
Membre expert https://www.developpez.com
Le 22/08/2022 à 7:58
Citation Envoyé par Olivier Famien Voir le message
Quels commentaires faites-vous de cette affaire ?
Cette affaire ne me surprend pas vraiment, les GAFAM veulent éviter tout problème avec les autorités en dépensant le minimum donc soit il n'y a vraiment personne derrière l'analyse du recours soit ceux qui le font ont tout intérêt à rejeter le maximum de recours pour rester sous le radar des responsables en ayant un taux d'acceptation trop élevé. Donc enfant nu = refus, alors ne parlons même pas d'un pénis.
Ce qui me surprend le plus est que ce genre de détection prenne 2 jours. Que seul l'expéditeur à l'air d'être reporté alors que celui qui réceptionne devrait - a priori - être autant suspect. (Ce qui aurait pu leur montrer que c'est un échange entre un médecin et son patient - donc sous couverture de la confidentialité médicale, non?)
Citation Envoyé par Olivier Famien Voir le message
Selon vous, comment doit-on s’y prendre pour éviter d’éventuelles dérives comme ce fut le cas avec Mark et Cassio ?
Ma solution est simple : interdire ce genre d'analyse.
Elles sont nocives et peu efficace de base (1000eme rappel : la majorité de la pédophilie concerne des cas familiaux ou des amis proches).
Elles ont un risque de dérives vers des contrôles encore plus discutables.
3  0 
Avatar de 23JFK
Membre expert https://www.developpez.com
Le 23/08/2022 à 17:36
Bah procès et millions milliards en guise de dédommagement. De toute façon, il n'y a qu'une grosse attaque légale sur le portefeuille qui puisse faire réfléchir ces entreprises grosses comme des états.
4  1 
Avatar de Gluups
Membre chevronné https://www.developpez.com
Le 24/08/2022 à 19:54
Depuis le temps qu'on vous dit qu'il ne faut surtout pas avoir de compte Google !
Ni Twitter. Ni ...
4  1