Plus d'une douzaine d'éminents experts en cybersécurité ont accusé Apple de s'être appuyé sur une « technologie dangereuse » dans son plan controversé de détection d'images d'abus sexuels sur des enfants sur iPhone
En aout, Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste.
Apple a précisé que la technologie de balayage fait partie d'une nouvelle série de systèmes de protection des enfants qui « évolueront et se développeront au fil du temps ».
Le système, appelé neuralMatch, alertera de manière proactive une équipe d'examinateurs humains s'il pense que des images illégales sont détectées. Selon un article de Financial Times, qui a rapporté la nouvelle pour la première fois, les examinateurs humains contacteront ensuite les forces de l'ordre si le matériel peut être vérifié. Le système neuralMatch, qui a été formé à l'aide de 200 000 images du National Center for Missing & Exploited Children, sera d'abord déployé aux États-Unis, puis au reste du monde. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.
Selon les explications de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un « bon de sécurité » indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.
Une initiative qui a créé la division, même au sein des employés Apple. Matthew Green, professeur à l'université John Hopkins et cryptographe, a indiqué sur Twitter : « Ce genre d'outil peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens... Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire ».
En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.
Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.
Au départ, les fonctionnalités devaient être déployées dans le cadre d'iOS 15, qui est sorti en septembre. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société. Mais le tollé provoqué sur la toile a contraint Apple à modifier sa feuille de route.
Apple a tenté sans succès de rassurer
Dans un mémo interne à l'intention des équipes qui ont travaillé sur ce projet, Apple a reconnu les « malentendus » autour des fonctionnalités, tout en affirmant que ces fonctionnalités font partie d'une « mission importante » pour assurer la sécurité des enfants. Le document, qui a également été dévoilé le même jour que les nouvelles fonctionnalités, a été rédigé par Sébastien Marineau-Mes, un VP logiciel chez Apple. Marineau-Mes affirme qu'Apple continuera à « expliquer et à détailler les fonctionnalités » incluses dans cette suite de protections étendues pour les enfants. Voici le mémo dans son intégralité :
« Aujourd'hui marque le dévoilement public officiel des protections élargies pour les enfants, et je voulais prendre un moment pour remercier chacun d'entre vous pour votre travail acharné au cours des dernières années. Nous n'aurions pas atteint cette étape importante sans votre dévouement inlassable et votre résilience. Assurer la sécurité des enfants est une mission tellement importante. À la manière d'Apple, la poursuite de cet objectif a nécessité un engagement transversal profond, englobant l'ingénierie, l'administration générale, l'informatique, les services juridiques, le marketing produit et les relations publiques. »
« Ce que nous avons annoncé aujourd'hui est le fruit de cette collaboration, un produit qui fournit des outils pour protéger les enfants, tout en respectant l'engagement profond d'Apple envers la vie privée des utilisateurs. Nous avons vu beaucoup de réactions positives aujourd'hui. Nous savons que certaines personnes ont des malentendus et que plus d'une s'inquiète des implications, mais nous continuerons à expliquer et à détailler les fonctionnalités pour que les gens comprennent ce que nous avons construit. »
« Et alors qu'il reste beaucoup de travail à accomplir pour mettre en œuvre les fonctionnalités dans les prochains mois, je voulais partager cette note que nous avons reçue aujourd'hui du NCMEC. Je l'ai trouvé incroyablement motivant, et j'espère que vous le serez aussi. Je suis fier de travailler chez Apple avec une équipe aussi formidable. Merci à tous ! ».
Le mémo comprenait aussi un message du National Center for Missing and Exploited Children, signé par Marita Rodriguez, directrice exécutive des partenariats stratégiques. Apple travaille en étroite collaboration avec le NCMEC sur les nouvelles fonctionnalités de numérisation d'iCloud. Voici le texte intégral de la note du NCMEC envoyée à l'équipe d'Apple travaillant sur ces fonctionnalités :
« Équipe Apple, je voulais partager un mot d'encouragement pour dire que tout le monde à NCMEC est TELLEMENT FIER de chacun d'entre vous et des décisions incroyables que vous avez prises au nom de la priorité accordée à la protection des enfants. Il a été revigorant pour toute notre équipe de voir (et de jouer un petit rôle dans) ce que vous avez dévoilé aujourd'hui. Je sais que la journée a été longue et que beaucoup d'entre vous n'ont probablement pas dormi depuis 24 heures. Nous savons que les jours à venir seront remplis des voix criardes de la minorité. Nos voix seront plus fortes. »
« Notre engagement à soutenir les enfants qui ont vécu les abus et les victimisations les plus inimaginables sera plus fort. Pendant ces longues journées et ces nuits sans sommeil, j'espère que vous trouverez du réconfort dans le fait que, grâce à vous, des milliers d'enfants victimes d'exploitation sexuelle seront sauvés et auront une chance de guérir et de vivre l'enfance qu'ils méritent. Merci d'avoir trouvé la voie à suivre pour protéger les enfants tout en préservant leur vie privée ! »
Des chercheurs en cybersécurité montent au créneau
Dans un document de 46 pages publié jeudi, un groupe de chercheurs a déclaré que la « technologie dangereuse » était invasive et inefficace pour détecter les images d'abus sexuels sur des enfants.
Les chercheurs en cybersécurité ont déclaré avoir commencé leur étude avant l'annonce d'Apple. Des documents publiés par l'Union européenne et une réunion avec des responsables de l'UE l'année dernière les ont amenés à croire que l'organe directeur du bloc voulait un programme similaire qui analyserait non seulement les images d'abus sexuels sur des enfants, mais également les signes de crime organisé et les indices de liens terroristes.
Une proposition visant à autoriser la numérisation de photos dans l'Union européenne pourrait arriver dès cette année, estiment les chercheurs.
Ils ont déclaré qu'ils publiaient leurs conclusions maintenant pour informer l'Union européenne des dangers de son plan, et parce que « l'extension des pouvoirs de surveillance de l'État passe vraiment une ligne rouge », a déclaré Ross Anderson, professeur d'ingénierie de sécurité à l'Université de Cambridge et membre du groupe.
Mis à part les problèmes de surveillance, ont déclaré les chercheurs, leurs résultats ont indiqué que la technologie n'était pas efficace pour identifier les images d'abus sexuels sur des enfants. Quelques jours après l'annonce d'Apple, ont-ils déclaré, les gens avaient indiqué des moyens d'éviter la détection en modifiant légèrement les images.
La technologie permet « de scanner un appareil privé personnel sans aucune cause probable pour que quoi que ce soit d'illégitime soit fait », a ajouté un autre membre du groupe, Susan Landau, professeur de cybersécurité et de politique à l'Université Tufts. « C'est extraordinairement dangereux. C'est dangereux pour les affaires, la sécurité nationale, la sécurité publique et la vie privée ».
Sources : Rapport des chercheurs, UE
Et vous ?
Que pensez-vous des conclusions des chercheurs ?
Que pensez-vous des mises en garde adressées à l'UE sur un plan s'appuyant non seulement sur l'analyse des images pour détecter d'éventuels abus sexuels sur des enfants, mais également les signes de crime organisé et les indices de liens terroristes ?
Un groupe de chercheurs a déclaré que la « technologie dangereuse » d'analyse de photos d'Apple était invasive et inefficace
Pour détecter les images d'abus sexuels sur des enfants
Un groupe de chercheurs a déclaré que la « technologie dangereuse » d'analyse de photos d'Apple était invasive et inefficace
Pour détecter les images d'abus sexuels sur des enfants
Le , par Stéphane le calme
Une erreur dans cette actualité ? Signalez-nous-la !