Les groupes de défense des droits de l'homme, de la liberté d'expression et de la vie privée en ligne continuent de mettre la pression à Apple pour qu'il abandonne ses plans de détection de CSAM [child sexual abuse material] sur les appareils des utilisateurs. Un nouveau groupe s'est joint à la cause ce jeudi, notamment la Freedom of the Press Association (FPA), qui allègue que le projet de surveillance des appareils d'Apple est une menace pour la vie privée des utilisateurs, mais également pour la liberté de la presse. Apple insiste toujours sur le bien-fondé de ce projet et assure que le système ne peut pas être détourné.La Freedom of the Press Association rejoint le combat contre Apple
Au début du mois, Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS et iPadOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste. Apple a précisé que cette nouvelle technologie fait partie d'une nouvelle série de systèmes de protection des enfants qui « évolueront et se développeront au fil du temps ».
Les fonctionnalités seront déployées dans le cadre d'iOS 15, qui devrait sortir le mois prochain. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société. Mais les choses ne sont pas passées comme prévu. En effet, lorsqu'Apple a annoncé ses plans il y a deux semaines, la société s'attendait peut-être à une faible controverse. Après tout, les abus sexuels sur les enfants sont un problème que tout le monde veut résoudre.
Cela dit, la réaction des défenseurs de la vie privée et des droits de l'homme a été rapide, forte et presque unanime. Les plaintes ne portaient pas principalement sur la mise en œuvre précise annoncée par Apple, mais plutôt sur le dangereux précédent qu'elle crée. Les façons dont la technologie pourrait être utilisée à mauvais escient à l'avenir lorsqu'Apple et ses partenaires seront soumis à la pression extérieure des gouvernements ou d'autres acteurs puissants sont presque trop nombreuses pour être comptées. Selon la FPA, de manière très générale, les atteintes à la vie privée proviennent de situations où de "faux positifs" sont générés.
C'est-à-dire qu'une image, un appareil ou un utilisateur est signalé alors qu'il n'y a aucune image d'abus sexuel. « Ce type de faux positifs peut se produire si la base de données de comparaison a été modifiée ou élargie pour inclure des images qui ne représentent pas d'abus sexuels, ou si un adversaire peut tromper l'algorithme d'Apple en faisant correspondre par erreur une image existante. (Apple, pour sa part, a déclaré qu'un faux positif accidentel - où une image innocente est signalée comme du matériel pédopornographique sans raison - est extrêmement improbable, ce qui est probablement vrai) », a déclaré l'association aujourd'hui.
Selon elle, le problème des faux positifs touche plus directement les questions de liberté de la presse lorsqu'on considère la première catégorie, avec des adversaires qui peuvent modifier le contenu de la base de données à laquelle les appareils Apple comparent les fichiers. Elle estime qu'une organisation qui pourrait ajouter des copies de ses dossiers internes ayant fait l'objet de fuites pourrait trouver les appareils qui détiennent ces données - y compris, potentiellement, les dénonciateurs et les journalistes qui ont travaillé sur une histoire donnée. Cela pourrait également révéler l'ampleur d'une fuite si elle n'est pas encore connue.
Les gouvernements qui pourraient inclure des images critiques de leurs politiques ou de leurs responsables pourraient également trouver les dissidents qui échangent ces fichiers. Dans un billet de blogue publié ce jeudi, l'organisation affirme que ces préoccupations ne sont pas purement hypothétiques. Elle note, par exemple, que la Chine obligerait déjà certains de ses citoyens à installer directement sur leurs appareils des applications qui recherchent les images qu'elle juge pro- Ouïghour. Cela dit, il faut noter qu'Apple a déclaré dans un document FAQ qu'il s'opposera à l'insertion d'images non-CSAM dans la base de données de hachage.
« Apple refuserait de telles demandes et notre système a été conçu pour empêcher que cela ne se produise », a déclaré l'entreprise. Cependant, la FPA estime que ce n'est pas aussi simple. « Si seulement c'était aussi simple ! Même avec les meilleures intentions, Apple et les organisations qui maintiennent les bases de données en question sont susceptibles de faire face à une pression extrême des gouvernements du monde entier pour étendre leurs efforts à toutes sortes d'autres types de contenus illégaux. Et les ordres juridiques ne sont pas exactement quelque chose que les entreprises peuvent simplement refuser », a-t-elle déclaré.
Electronic Frontier Foundation : si vous construisez, ils viendront
Après de nombreuses critiques, Apple a publié la semaine dernière de nouvelles clarifications sur les efforts visant à atténuer ces préoccupations. Il ne correspondrait qu'aux images qui ont été signalées par des groupes dans plusieurs pays, et les utilisateurs avertis seraient en mesure de vérifier que la liste des images que leur propre téléphone vérifie est la même que sur tous les autres téléphones. Si ces garanties permettent d'atténuer le risque d'un point de défaillance unique, elles ne répondent pas entièrement aux risques posés par un acteur étatique. De...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Interdire le scannage automatique des communications privées ou le maintenir : de quel bord êtes-vous ?

