
Apple rassure qu'il n'affecte pas la vie privée des utilisateurs
Quelques heures après l'annonce d'Apple, les critiques sont venues de partout. Apple est accusé de construire une "infrastructure de surveillance de masse". Malgré les assurances d'Apple, les experts en sécurité et les défenseurs de la vie privée ont critiqué le plan. Les critiques sont venues de nombreuses personnes et organisations, notamment de sources sources notables telles qu'Edward Snowden et l'Electronic Frontier Foundation, et portent principalement sur la technologie de scannage des photos iCloud pour les comparer à une base de données de matériel pédopornographique (CSAM) et sur les implications potentielles d'une telle fonctionnalité.
Dans un mémo interne distribué aux équipes qui ont travaillé sur ce projet et obtenu par 9to5Mac, Apple reconnaît les "malentendus" autour des fonctionnalités, mais redouble d'efforts pour affirmer que ces fonctionnalités font partie d'une "mission importante" pour assurer la sécurité des enfants. Le document, qui a également été dévoilé le même jour que les nouvelles fonctionnalités, a été rédigé par Sébastien Marineau-Mes, un VP logiciel chez Apple. Marineau-Mes affirme qu'Apple continuera à "expliquer et à détailler les fonctionnalités" incluses dans cette suite de protections étendues pour les enfants. Voici le mémo dans son intégralité :
« Aujourd'hui marque le dévoilement public officiel des protections élargies pour les enfants, et je voulais prendre un moment pour remercier chacun d'entre vous pour votre travail acharné au cours des dernières années. Nous n'aurions pas atteint cette étape importante sans votre dévouement inlassable et votre résilience. Assurer la sécurité des enfants est une mission tellement importante. À la manière d'Apple, la poursuite de cet objectif a nécessité un engagement transversal profond, englobant l'ingénierie, l'administration générale, l'informatique, les services juridiques, le marketing produit et les relations publiques.
Ce que nous avons annoncé aujourd'hui est le fruit de cette collaboration, un produit qui fournit des outils pour protéger les enfants, tout en respectant l'engagement profond d'Apple envers la vie privée des utilisateurs. Nous avons vu beaucoup de réactions positives aujourd'hui. Nous savons que certaines personnes ont des malentendus et que plus d'une s'inquiète des implications, mais nous continuerons à expliquer et à détailler les fonctionnalités pour que les gens comprennent ce que nous avons construit.
Et alors qu'il reste beaucoup de travail à accomplir pour mettre en œuvre les fonctionnalités dans les prochains mois, je voulais partager cette note que nous avons reçue aujourd'hui du NCMEC. Je l'ai trouvé incroyablement motivant, et j'espère que vous le serez aussi. Je suis fier de travailler chez Apple avec une équipe aussi formidable. Merci à tous ! ».
Le mémo comprend aussi un message du National Center for Missing and Exploited Children, signé par Marita Rodriguez, directrice exécutive des partenariats stratégiques. Apple travaille en étroite collaboration avec le NCMEC sur les nouvelles fonctionnalités de numérisation d'iCloud. Voici le texte intégral de la note du NCMEC envoyée à l'équipe d'Apple travaillant sur ces fonctionnalités :
« Équipe Apple, je voulais partager un mot d'encouragement pour dire que tout le monde à NCMEC est TELLEMENT FIER de chacun d'entre vous et des décisions incroyables que vous avez prises au nom de la priorité accordée à la protection des enfants. Il a été revigorant pour toute notre équipe de voir (et de jouer un petit rôle dans) ce que vous avez dévoilé aujourd'hui. Je sais que la journée a été longue et que beaucoup d'entre vous n'ont probablement pas dormi depuis 24 heures. Nous savons que les jours à venir seront remplis des voix criardes de la minorité. Nos voix seront plus fortes.
Notre engagement à soutenir les enfants qui ont vécu les abus et les victimisations les plus inimaginables sera plus fort. Pendant ces longues journées et ces nuits sans sommeil, j'espère que vous trouverez du réconfort dans le fait que, grâce à vous, des milliers d'enfants victimes d'exploitation sexuelle seront sauvés et auront une chance de guérir et de vivre l'enfance qu'ils méritent. Merci d'avoir trouvé la voie à suivre pour protéger les enfants tout en préservant leur vie privée ! ».
La technologie d'Apple pour l'analyse des images
Le résumé technique d'Apple sur la détection de CSAM comprend quelques promesses de confidentialité dans l'introduction. « Apple n'apprend rien sur les images qui ne correspondent pas à la base de données de CSAM connus. Apple ne peut pas accéder aux métadonnées ou aux dérivés visuels des images de CSAM correspondantes jusqu'à ce qu'un seuil de correspondances soit dépassé pour un compte iCloud Photos », est-il indiqué. La technologie de hachage d'Apple est appelée NeuralHash, et elle analyse une image et la convertit en un numéro unique spécifique à cette image.
Selon Apple, seule une autre image qui semble presque identique peut produire le même nombre. La société explique, par exemple, que des images qui diffèrent en taille ou en qualité de transcodage auront toujours la même valeur NeuralHash. En outre, avant qu'un iPhone ou un autre appareil Apple ne télécharge une image sur iCloud, l'appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance. Il chiffre également le NeuralHash de l'image et un dérivé visuel. Ce justificatif est téléchargé sur iCloud Photos avec l'image.
Selon le document d'Apple, en utilisant le "partage de secret à seuil", le système garantit que le contenu des bons de sécurité ne peut pas être interprété par Apple à moins que le compte iCloud Photos ne franchisse un seuil de contenu de CSAM connus. Apple estime que ce n'est que lorsque le seuil est dépassé que la technologie cryptographique permet à Apple d'interpréter le contenu des bons de sécurité associés aux images CSAM correspondantes. Tout en notant la probabilité d'un faux positif sur un milliard, Apple a déclaré qu'il examine manuellement tous les rapports faits au NCMEC pour garantir l'exactitude des rapports.
En outre, contrairement à ce que certains pensent, Apple ne peut pas vérifier les images lorsque les utilisateurs ont désactivé iCloud Photos. En d'autres termes, les contrôles de CSAM ne seront effectués que sur les appareils sur lesquels cette fonction est activée. Les images de tout appareil dont cette fonction est désactivée ne seront pas vérifiées. Autre chose qu'il faut noter : Apple ne peut pas non plus fouiller dans les sauvegardes iCloud et vérifier les images qui y sont stockées. Cela signifie que la seule fois où Apple effectuera des contrôles sur les photos, c'est pendant leur téléchargement sur iCloud Photos.
Lors d'une conférence de presse vendredi, Apple a déclaré qu'elle prévoyait d'étendre ce service en fonction des lois de chaque pays où elle opère, en commençant par les États-Unis. Apple a déclaré que les nuances de son système, telles que les "bons de sécurité" transmis de l'iPhone aux serveurs d'Apple sans données utiles, le protégeront des pressions gouvernementales visant à identifier des contenus autres que des images d'abus d'enfants. En effet, ces dernières années, les autorités de réglementation, les forces de l'ordre et les politiciens exigent de plus en plus des entreprises IT qu'elles fassent davantage pour supprimer les contenus illicites.
Ils ont brandi le fléau des contenus pédopornographiques pour décrier le chiffrement fort, de la même manière qu'ils avaient auparavant invoqué la nécessité de lutter contre le terrorisme. WhatsApp, le plus grand service de messagerie entièrement chiffré au monde, est également sous la pression des gouvernements qui veulent voir ce que les gens disent, et il craint que cela n'augmente maintenant. Quelques lois en résultant, notamment en Grande-Bretagne, pourraient être utilisées pour forcer les entreprises technologiques à agir contre leurs utilisateurs en secret. La stratégie d'Apple pourrait détourner l'attention des gouvernements en montrant son initiative ou en se conformant aux directives prévues en Europe.
D'autres pensent toutefois que cela reste dangereux. "L'entreprise a peut-être détourné l'attention des régulateurs américains sur ce sujet, mais elle va inciter les régulateurs internationaux à faire la même chose avec les contenus terroristes et extrémistes", a déclaré Riana Pfefferkorn, chercheuse au Stanford Internet Observatory. Les détenteurs de droits d'auteur politiquement influents à Hollywood et ailleurs pourraient même faire valoir que leurs droits numériques devraient être appliqués de cette manière, a-t-elle ajouté. Le chef de WhatsApp, Will Cathcart, a écrit vendredi un flot de critiques contre Apple en ce qui concerne ses nouvelles fonctionnalités.
« Nous avons des ordinateurs personnels depuis des décennies, et il n'y a jamais eu un mandat pour scanner le contenu privé de tous les ordinateurs de bureau, ordinateurs portables ou téléphones à l'échelle mondiale à la recherche de contenu illégal; Ce n'est pas ainsi que fonctionne la technologie construite dans les pays libres », a-t-il écrit.
Sécurité de la communication dans Messages
En plus de scanner les appareils à la recherche d'images correspondant à la base de données de CSAM, Apple a déclaré qu'il mettrait à jour l'application Messages pour ajouter de nouveaux outils pour avertir les enfants et leurs parents lorsqu'ils reçoivent ou envoient des photos sexuellement explicites. « L'application Messages utilise l'apprentissage automatique sur l'appareil pour analyser les pièces jointes des images et déterminer si une photo est sexuellement explicite. La fonction est conçue de...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.