IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs,
Mais les chercheurs en sécurité craignent une surveillance de masse des iPhone

Le , par Bill Fassinou

169PARTAGES

6  0 
Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste. Le projet, qui devrait prendre vie aux États-Unis avant d'être étendu au reste du monde, suscite l'indignation et la communauté dénonce une surveillance de masse orchestrée par Apple.

À en juger par le nombre de critiques négatives vis-à-vis d'Apple, cette initiative n'est sans doute pas la meilleure de l'entreprise dans sa lutte contre la pédophilie et la pédopornographie. Apple, qui est un fervent défenseur de la vie privée et qui est connu pour avoir refusé de déverrouiller l'iPhone d'un suspect dans le cadre d'une enquête fédérale, envisage désormais d'"espionner" ses utilisateurs. L'entreprise a l'intention d'installer un logiciel sur les iPhone américains pour détecter les images d'abus d'enfants. Elle a présenté son projet pour la première à des universitaires en début de semaine lors d'une visioconférence.



Plus tard, Apple a confirmé ses projets dans un billet de blogue, précisant que la technologie de balayage fait partie d'une nouvelle série de systèmes de protection des enfants qui "évolueront et se développeront au fil du temps". Les fonctionnalités seront déployées dans le cadre d'iOS 15, dont la sortie est prévue le mois prochain. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société.

Le système, appelé neuralMatch, alertera de manière proactive une équipe d'examinateurs humains s'il pense que des images illégales sont détectées. Selon un article de Financial Times, qui a rapporté la nouvelle pour la première fois, les examinateurs humains contacteront ensuite les forces de l'ordre si le matériel peut être vérifié. Le système neuralMatch, qui a été formé à l'aide de 200 000 images du National Center for Missing & Exploited Children, sera d'abord déployé aux États-Unis. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.

Selon les explications du géant de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un "bon de sécurité" indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.

Il faut noter que neuralMatch représente la dernière tentative d'Apple de trouver un compromis entre sa propre promesse de protéger la vie privée des clients et les demandes des gouvernements, des organismes d'application de la loi et des militants pour la sécurité des enfants pour une plus grande assistance dans les enquêtes criminelles, y compris le terrorisme et la pédopornographie. La tension entre les entreprises technologiques telles qu'Apple et Facebook, qui ont défendu leur utilisation croissante du chiffrement dans leurs produits et services, et les forces de l'ordre n'a fait que s'intensifier depuis 2016.

À l'époque, Apple était allé en justice avec le FBI au sujet de l'accès à l'iPhone d'un suspect terroriste après une fusillade à San Bernardino, en Californie. Cette décision est donc perçue comme une sorte de volte-face de la part d'Apple, qui s'est déjà opposé aux forces de l'ordre pour défendre la vie privée des utilisateurs. Matthew Green, professeur à l'université John Hopkins et cryptographe, a fait part de ses inquiétudes concernant ce système sur Twitter mercredi soir. « Ce genre d'outils peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens », a déclaré Green.

« Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire », s'est-il interrogé. Cela inquiète les chercheurs en sécurité qui préviennent que cela pourrait ouvrir la porte à la surveillance des appareils personnels de millions de personnes. Les chercheurs en sécurité, bien qu'ils soutiennent les efforts d'Apple pour lutter contre la maltraitance des enfants, s'inquiètent du fait que l'entreprise risque de permettre aux gouvernements du monde entier de chercher à accéder aux données personnelles de leurs citoyens, potentiellement bien au-delà de son intention initiale.

« C'est une idée absolument épouvantable, car elle va conduire à une surveillance massive et distribuée de nos téléphones et ordinateurs portables », a déclaré Ross Anderson, professeur d'ingénierie de la sécurité à l'université de Cambridge. En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.

Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.

Les systèmes de stockage de photos dans le nuage et les sites de réseaux sociaux recherchent déjà les images d'abus d'enfants. Apple utilise, par exemple, des techniques de hachage lorsque les photos sont téléchargées sur iCloud Photos. Toutes les photos téléchargées sur iCloud Photos pour la sauvegarde et la synchronisation ne sont pas stockées en chiffrement de bout en bout. Les photos sont stockées sous une forme chiffrée dans les fermes de serveurs d'Apple, mais les clés de déchiffrement sont également la propriété d'Apple. Cela signifie que les forces de l'ordre peuvent assigner Apple et voir toutes les photos téléchargées par un utilisateur.

Ce n'est pas inhabituel, tous les services photo tiers fonctionnent de cette manière. Cependant, ce processus devient plus complexe lorsqu'on essaie d'accéder aux données stockées sur un appareil personnel. Ce nouveau système se ferait côté client, sur l'appareil de l'utilisateur. « Le système d'Apple est moins invasif dans la mesure où le contrôle est effectué sur le téléphone, et ce n'est qu'en cas de correspondance qu'une notification est envoyée aux personnes effectuant la recherche », a déclaré Alan Woodward, professeur de sécurité informatique à l'université du Surrey.

Selon Woodward l'approche d'Apple est quand même "louable". « Cette approche décentralisée est à peu près la meilleure approche que vous puissiez adopter si vous vous engagez dans cette voie », a-t-il ajouté. L'algorithme neuralMatch d'Apple analysera en permanence les photos stockées sur l'iPhone d'un utilisateur américain et qui ont également été téléchargées sur son système de sauvegarde iCloud.

Source : Apple

Et vous ?

Quel est votre avis sur le sujet ?
Selon vous, Apple a-t-il le droit d'installer un tel logiciel sur votre iPhone ?
Quel sentiment l'idée de savoir que vos photos privées sont analysées en permanence vous procure-t-elle ?
Pensez-vous que les gouvernements ont gagné la guerre contre le chiffrement de bout en bout ? En quoi cela influera-t-il sur l'industrie ?
Pensez-vous que la lutte contre la maltraitance des enfants l'emporte sur la surveillance en permanence des appareils personnels ? Cette solution résout-elle le problème ?

Voir aussi

Pourquoi Apple refuse-t-elle d'aider le FBI à débloquer l'iPhone en sa possession ? L'entreprise évoque quelques raisons dans une requête d'annulation

Apple transmet des données personnelles à la Chine et supprime les applications jugées « offensantes » par le gouvernement

Apple aurait abandonné l'idée de déployer le chiffrement des sauvegardes sur iCloud après une plainte du FBI, d'après un rapport

Facebook n'a pas l'intention d'affaiblir le chiffrement de ses applications de messagerie pour donner un accès privilégié aux forces de l'ordre dans le cadre d'enquêtes

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de electroremy
Membre éclairé https://www.developpez.com
Le 14/08/2021 à 0:36
Tout ceci est extrêmement inquiétant...
Et encore : Apple a l'honnêté d'annoncer l'existence et le fonctionnement de son système
Car la vraie question est quels sont les mouchards que nous avons sur nos smartphones, nos ordinateurs dont nous ignorons l'existence ???

Les OS et logiciels actuels sont trop gros, trop nombreux et mis à jours trop souvent pour que des informaticiens dignes de confiance puissent tout passer au crible.

Solution : fonctionner en "local" avec un second terminal dédié uniquement à Internet ?
Avec, pour les échanges sensible, un cryptage en amont et en aval avec un outil open source ?
Ce n'est pas très pratique, il faut jongler avec une clef USB ou un outil d'échange maison entre les deux machines...
Le problème supplémentaire étant qu'il devient de plus en plus difficile de fonctionner "en local" c'est à dire sans connexion réseau
Pour un smartphone c'est impossible par principe
Pour un PC ça devient de plus en plus difficile (serveurs de licence par exemple)

Ce qui m'énerve le plus c'est :
- le prétexte "lutte contre la pédophilie" qui est la baguette magique pour faire accepter n'importe quoi
- Internet qui est le grand bouc émissaire de tous les malheurs du monde

Car concernant les viols en général, et les viols sur mineurs en particulier, dans la grande majorité des cas l'agresseur connait la victime (même famille, même cercle amical, même quartier).

Pour une agression sexuelle d'un enfant par un parent (ou un oncle, un voisin, un enseignant, le curé...), le rôle d'Internet est donc... totalement nul !
Et ces cas de figure constituent la majorité de ces agressions.

Ensuite il y a les enlèvements d'enfants par les sinistres criminels en série.
Ils opèrent dans la région où ils habitent, ça se passe "dans la vraie vie", le rôle d'Internet est... nul !

Oui il arrive qu'Internet ai un rôle (les fameux réseaux) mais les agressions se passent toujours "dans la vraie vie" en laissant pas mal de traces pour l'enquête - un enlèvement ne passe pas inaperçu, une enquête de voisinage, des barrages routiers, des analyses ADN sont souvent la solution.
Internet permet de partager et voir les images des crimes commis par d'autre, mais c'est un problème "secondaire", le problème principal c'est l'agression originale dont l'auteur doit être arrêté.

Le pire c'est que ce flicage d'Internet :
- ne va servir à rien, car les criminels vont s'adapter
- va pénaliser les personnes vulnérables (sources des journalistes, lanceurs d'alerte, minorités opprimés)

Car un criminel qui veut commettre un crime va s'organiser dès le départ en faisant attention avec Internet et les smartphones - sauf s'il est idiot... et il y en a des "champions", voir les rubriques "ivre virgule..." de la presse régionale

En revanche, un lanceur d'alerte, au départ, ne se rend pas compte qu'il est en danger, car tout simplement, on devient lanceur d'alerte progressivement : on découvre un problème, on essaye d'en parler, on se rend compte que ça gêne, on se rend compte que c'est beaucoup plus grave que ce qu'on imaginait au départ, on reçoit des menaces, et là seulement on se rend compte qu'il faut prendre des précautions mais c'est trop tard, on est déjà repéré

Que conclure ?
- soit les GAFAM et nos élus sont tous complétements naïfs et incompétents en matière de technologie et de criminalité
- soit les GAFAM et nos élus nous prennent ouvertement pour des imbéciles, leur véritable objectif c'est de pouvoir surveiller tout le monde, pour se débarrasser des lanceurs d'alerte, pour se débarrasser des opposants politiques, pour rester au pouvoir et/ou gagner de l'argent, la lutte contre la pédophilie n'étant qu'un prétexte...

Mais au fait, si on se préoccupait vraiment du sort des enfants de notre planète :
- on aurait fait le ménage dans les institutions (écoles, églises, ...) au lieu de protéger les agresseurs en les mutants ailleurs et en étouffant l'affaire
- on s'occuperai mieux des orphelins placés en institution, et on ne les jetterais pas dehors à 18 ans
- on interdirait le travail des enfants ; en Chine ou dans les pays du tiers-monde beaucoup d'enfants sont exploités en usine, dans les mines ou dans les décharges, mais là ça ne dérange personne du moment que ça fait tourner l'économie et qu'on peut fabriquer des smartphones... Apple protecteur de l'enfance, c'est du foutage de gueule quand on voit où et comment sont fabriqués leurs smartphone, leurs composants et les matières premières...
6  0 
Avatar de Jeff_67
Membre éprouvé https://www.developpez.com
Le 06/08/2021 à 12:08
Et après ça, les Apple fans viennent nous expliquer doctement que la firme à la pomme respecte leur vie privée.

Les promesses engagent ceux qui y croient, pas ceux qui les font. Les seules données personnelles réellement en sécurité sont celles qui n'ont pas été collectées. Peu importe qu'Apple les transmettent à des tiers ou pas après, ce que la société est de toute façon légalement tenue de faire confidentiellement de part le patriot act sans même que l'usager ne soit au courant.
4  0 
Avatar de Jeff_67
Membre éprouvé https://www.developpez.com
Le 06/09/2021 à 7:22
La seule donnée privée, c'est celle qui n'est pas collectée.

Quand Apple prétend protéger la vie privée de ses utilisateurs au prétexte que les (nombreuses) informations collectées ne sont pas transmises à des tiers, c'est juste du bidon.
4  0 
Avatar de Waikiki
Membre habitué https://www.developpez.com
Le 06/08/2021 à 11:24
Qu'ils appliqueront dans un premier temps uniquement aux USA, et heureusement en Europe, et tout du moins en France, une telle mesure à peu de chance de passer.

Sans compter les futurs ratages de l'IA chargée d'analyser les images, je sens que pas mal de parents vont avoir des ennuis. Ils veulent combattre l'abus d'enfants, qu'ils commencent par les parents instrumentalisant leurs enfants sur les réseaux sociaux pour l'appâts du gain.
3  0 
Avatar de Zefling
Expert confirmé https://www.developpez.com
Le 10/08/2021 à 14:28
Citation Envoyé par foetus Voir le message
Pourtant cela va faire presque 5 ans que Google avec GMail scanne les courriels pour la pédopornographie avec des prises.
Il faut vraiment pas être une lumière pour utiliser Gmail sans savoir que tout y est scanné.
Niveau vie privée, pour moi Gmail c'est le néant.
3  0 
Avatar de phil995511
Membre confirmé https://www.developpez.com
Le 24/08/2021 à 11:51
Google via Gmail scanne votre boîte à lettre soit disant pour mieux vous cibler publicitairement parlant, Apple vis iCloud scanne la votre soit disant pour y trouver des fichiers compromettant...

En résumé fuyez les services US, vous y êtes super-hyper fichés ;-(

Les Eats Unis se moquent ouvertement du respect de la vie privée, il serait temps pour la vieille Europe de remettre l'église au centre du village et d'entreprendre des actions en justice à l'encontre de ce genre de pratiques, qui sont Dieu merci illégales chez nous.
3  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 06/08/2021 à 12:00
Citation Envoyé par Bill Fassinou Voir le message
« Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire », s'est-il interrogé. Cela inquiète les chercheurs en sécurité qui préviennent que cela pourrait ouvrir la porte à la surveillance des appareils personnels de millions de personnes. Les chercheurs en sécurité, bien qu'ils soutiennent les efforts d'Apple pour lutter contre la maltraitance des enfants, s'inquiètent du fait que l'entreprise risque de permettre aux gouvernements du monde entier de chercher à accéder aux données personnelles de leurs citoyens, potentiellement bien au-delà de son intention initiale.

« C'est une idée absolument épouvantable, car elle va conduire à une surveillance massive et distribuée de nos téléphones et ordinateurs portables », a déclaré Ross Anderson, professeur d'ingénierie de la sécurité à l'université de Cambridge. En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.

Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.
Ils ont raison les types, même si le prétexte de base est louable parce que ça permettrait peut-être de stopper des gros réseaux pédophiles, le risque d'abus est trop dangereux.
Ce serait terrible que les algorithmes interprètent tout ce qu'on dit, tout ce qu'on écrit, tout ce qu'on film ou prend en photo. (c'est peut-être déjà le cas, mais pour le moment c'est juste utilisé pour vendre des produits)
2  0 
Avatar de Fagus
Membre éprouvé https://www.developpez.com
Le 06/08/2021 à 12:59
Si leur IA fait ne serait-ce que 0,1% de faux positifs (un bon chiffre...), ça veut dire que chaque personne aura quelques unes de ses photos regardées par un humain, soit quelques centaines de millions (113 millions d'iphone aux USA).
Il va falloir des "fermes" d'humains pour regarder vos photos toute la journée...

Edit : commentaire erroné (cf la source en anglais plus claire) : pas d'IA mais un hash.

Une fois qu'on a une telle logistique en place, ce serait dommage de ne pas en profiter pour étendre la mesure.
2  0 
Avatar de earhater
Membre éprouvé https://www.developpez.com
Le 09/08/2021 à 20:22
Je suis très partagé sur cette news, je suis convaincu que le système actuel sera très pertinent au regard du respect de la vie privée des utilisateurs d'Iphone et se montrera très efficace dans la lutte contre ces crimes qui sont quand même les pire, mais c'est vrai que c'est la porte ouverte à beaucoup de choses par la suite (détecter un bisou entre 2 hommes ou 2 femmes dans les pays où ce n'est pas bien vu par exemple). Il suffit qu'un état le décrète et Apple sera obligé de suivre les réglementations locales. Ils ont prouvés qu'il était possible d'espionner certains crimes / délits sans nuire à la vie privée, et si on relit cette phrase 2 fois je ne pensais pas dire ça un jour. Il ne reste désormais plus qu'aux politiques à s'en servir.
2  0 
Avatar de TotoParis
Membre confirmé https://www.developpez.com
Le 07/08/2021 à 18:55
Citation Envoyé par Ryu2000 Voir le message
Ils ont raison les types, même si le prétexte de base est louable parce que ça permettrait peut-être de stopper des gros réseaux pédophiles, le risque d'abus est trop dangereux.
Ce serait terrible que les algorithmes interprètent tout ce qu'on dit, tout ce qu'on écrit, tout ce qu'on film ou prend en photo. (c'est peut-être déjà le cas, mais pour le moment c'est juste utilisé pour vendre des produits)
Les "gros" réseaux pédophiles n'utilisent pas d'iPhones, sont sur le darkweb, et avec même des protocoles développés ad-hoc parfois...
Il faut avoir un pois-chiche comme cerveau pour stocker des contenus illégaux sur un iPhone et dans un espace iCloud (qui reste facultatif)...
1  0