Apple a précisé que la technologie de balayage fait partie d'une nouvelle série de systèmes de protection des enfants qui « évolueront et se développeront au fil du temps ». Les fonctionnalités seront déployées dans le cadre d'iOS 15, dont la sortie est prévue le mois prochain. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société.
Le système, appelé neuralMatch, alertera de manière proactive une équipe d'examinateurs humains s'il pense que des images illégales sont détectées. Selon un article de Financial Times, qui a rapporté la nouvelle pour la première fois, les examinateurs humains contacteront ensuite les forces de l'ordre si le matériel peut être vérifié. Le système neuralMatch, qui a été formé à l'aide de 200 000 images du National Center for Missing & Exploited Children, sera d'abord déployé aux États-Unis, puis au reste du monde. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.
Selon les explications de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un « bon de sécurité » indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.
Une initiative qui a créé la division, même au sein des employés Apple. Matthew Green, professeur à l'université John Hopkins et cryptographe, a indiqué sur Twitter : « Ce genre d'outil peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens... Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire ».
En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.
Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.
Apple scanne déjà iCloud Mail à la recherche de contenu pédopornographique, et ce depuis 2019
Apple a confirmé qu'il scanne déjà iCloud Mail à la recherche de contenu pédopornographique, et ce depuis 2019. Cependant, l'entreprise affirme ne pas avoir parcouru les photos iCloud ou les sauvegardes iCloud.
Une précision qui est venue lorsque les médias ont interrogé Apple suite à une déclaration plutôt étrange du chef de la lutte contre la fraude de l'entreprise dans un échange sur iMessage : il a déclaré qu'Apple était « la meilleure plateforme pour la distribution de pornographie juvénile ». Cela a immédiatement soulevé la question : si l'entreprise ne parcourait pas les photos iCloud, comment pourrait-elle le savoir ?
Le fil iMessage a été repéré par les médias tandis qu'ils parcouraient les e-mails, messages et autres documents internes remis par Apple dans le cadre de l'affaire l'opposant à Epic Games.
Ironiquement, Friedman suggère en fait que Facebook effectue une meilleure détection qu'Apple :
- Les projecteurs sur Facebook etc. sont tous sur la confiance et la sécurité (faux comptes, etc.). Pour ce qui concerne la vie privée, ils sont nuls.
- Nos priorités sont l'inverse. C'est pourquoi nous sommes la plus grande plateforme de distribution de pornographie juvénile, etc.
Un collègue remet cela en doute, demandant si cela est vrai :
- Vraiment ? Je veux dire, y en a-t-il beaucoup dans notre écosystème ? Je pensais qu'il y avait encore plus d'opportunités pour les mauvais acteurs sur d'autres systèmes de partage de fichiers.
Ce à quoi Friedman à répondu par « Oui ».
Le document est sans surprise étiqueté « Haute confidentialité – peut uniquement être lu par des avocats ».
Il existe également quelques autres indices indiquant qu'Apple devait effectuer une sorte d'analyse à la recherche de contenu pédopornographique. Une version archivée de la page sur la sécurité des enfants d'Apple disait ceci :
« Apple s'engage à protéger les enfants dans tout notre écosystème, où que nos produits soient utilisés, et nous continuons à soutenir l'innovation dans cet espace. Nous avons développé des protections robustes à tous les niveaux de notre plateforme logicielle et tout au long de notre chaîne d'approvisionnement. Dans le cadre de cet engagement, Apple utilise la technologie de correspondance d'images pour aider à trouver et à signaler l'exploitation d'enfants. Tout comme les filtres antispam dans les e-mails, nos systèmes utilisent des signatures électroniques pour détecter les soupçons d'exploitation d'enfants. Nous validons chaque correspondance par un examen individuel. Les comptes avec du contenu d'exploitation d'enfants enfreignent nos conditions générales de service, et tous les comptes que nous trouvons avec ce matériel seront désactivés ».
De plus, le responsable de la protection de la vie privée de l'entreprise a déclaré la même chose en janvier 2020. En fait, Jane Horvath, responsable de la protection de la vie privée d'Apple, a déclaré lors d'une conférence technique que la société utilisait une technologie de filtrage pour rechercher les images illégales. La société a expliqué qu'elle désactive les comptes si Apple trouve des preuves de matériel d'exploitation d'enfants, bien qu'elle n'a pas précisé comment elle le découvre.
Apple n'a pas voulu commenter la citation de Friedman, mais a déclaré a la presse que la société n'avait jamais scanné les photos iCloud.
Apple scanne iCloud Mail
Cependant, Apple a confirmé qu'il analysait chaque pièce jointe des iCloud Mail à la recherche du contenu pédopornographique depuis 2019. Le courrier électronique n'est pas chiffré, donc l'analyse des pièces jointes lorsque le courrier passe par les serveurs Apple serait une tâche triviale.
Apple a également indiqué qu'il effectuait une analyse limitée d'autres données, mais ne voulait pas expliquer à la presse de quoi il s'agissait, sauf pour suggérer que c'était à petite échelle. L'entreprise a précisé que les « autres données » n'incluent pas les sauvegardes iCloud.
Bien que la déclaration de Friedman dans l'échange iMessage pourrait sembler factuelle (comme si elle était basée sur des données concrètes), la sortie médiatique d'Apple suggère que ce n'est probablement pas le cas. Le nombre total de rapports qu'Apple catégorise dans cette catégorie chaque année se compte par centaines, ce qui signifie que l'analyse des e-mails ne fournirait aucune preuve d'un problème à grande échelle sur les serveurs Apple.
L'explication réside probablement dans le fait que d'autres services cloud analysaient des photos à la recherche de ce type de contenu, contrairement à Apple. Si d'autres services désactivaient les comptes pour faire suite au téléchargement de contenu pédopornographique et que iCloud Photos ne l'était pas (parce que la société n'y faisait pas d'analyse), alors la déduction logique serait qu'il existe plus de contenu pédopornographique sur la plateforme d'Apple que partout ailleurs. Friedman a probablement fait des conjectures pour arriver à cette conclusion.
Sources : déclaration Apple, Web Archive