IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Apple met fin à son projet controversé visant à analyser les sauvegardes sur iCloud Photos à la recherche d'images d'abus sexuels sur enfant,
Après les critiques virulentes des experts en sécurité

Le , par Bill Fassinou

135PARTAGES

8  0 
Apple a mis fin à son projet visant à développer un outil de détection des contenus pédopornographiques connus stockés sur iCloud Photos. Les critiques avaient mis en garde Apple contre la boîte de pandore qu'elle s'apprêtait à ouvrir, expliquant que certains États pouvaient exiger que la fonction soit détournée à d'autres fins, notamment de surveillance de masse. Après une analyse approfondie, Apple a annoncé mercredi qu'il mettait fin au projet et que l'entreprise se concentrera à l'avenir sur le chiffrement de bout en bout des sauvegardes iCloud. Apple estime que les abus sexuels sur les enfants peuvent être évités avant qu'ils ne se produisent.

En août 2021, Apple a annoncé un plan visant à analyser les photos que les utilisateurs stockent sur iCloud Photos pour détecter des images d'abus sexuels sur enfant (CSAM). L'outil était censé préserver la vie privée et permettre à Apple de détecter et signaler les contenus potentiellement problématiques et abusifs sans rien révéler d'autre. Mais l'initiative a été controversée, et elle a rapidement suscité de nombreuses critiques de la part des chercheurs en matière de confidentialité et de sécurité et des groupes de défense des droits numériques, qui craignaient que la capacité de surveillance elle-même ne soit utilisée de manière abusive.

Cela pourrait porter atteinte à la vie privée et à la sécurité des utilisateurs d'iCloud dans le monde entier. Au début du mois de septembre 2021, Apple a déclaré qu'elle mettrait en pause le déploiement de la fonctionnalité afin de "recueillir des commentaires et d'apporter des améliorations avant de publier ces nouvelles fonctionnalités de sécurité pour enfants d'une importance cruciale". Autrement dit, un lancement était toujours prévu. Mais mercredi, Apple a déclaré qu'en réponse aux commentaires et aux conseils qu'elle a reçus sur les impacts de cette initiative, l'outil de détection des CSAM pour les photos stockées sur iCloud est mort.



« Après une consultation approfondie avec des experts pour recueillir des commentaires sur les initiatives de protection de l'enfance que nous avons proposées l'année dernière, nous renforçons notre investissement dans la fonction de sécurité des communications que nous avons mise à disposition pour la première fois en décembre 2021. Nous avons en outre décidé de ne pas aller de l'avant avec notre outil de détection des CSAM proposé précédemment pour iCloud Photos. Les enfants peuvent être protégés sans que les entreprises passent au peigne fin les données personnelles », a déclaré Apple dans une déclaration envoyée aux médias.

« Nous continuerons à travailler avec les gouvernements, les défenseurs des enfants et d'autres entreprises pour aider à protéger les jeunes, à préserver leur droit à la vie privée et à faire d'Internet un endroit plus sûr pour les enfants et pour nous tous », a ajouté la société. Elle a prévu de signaler les comptes iCloud comportant des hachages d'images CSAM au National Center for Missing and Exploited Children (NCMEC) des États-Unis, une association à but non lucratif qui travaille en collaboration avec les services de police américains. Apple avait également assuré qu'il avait une chance sur un milliard pour que l'outil renvoie un faux positif.

Les plans d'Apple ont été critiqués par un large éventail de personnes et d'organisations, notamment des chercheurs en sécurité, l'Electronic Frontier Foundation (EFF), des politiciens, des groupes politiques, des chercheurs universitaires, des rivaux (comme Epic Games) et même certains employés d'Apple. Certains ont fait valoir que cet outil aurait créé une "porte dérobée" dans les appareils Apple, que les gouvernements ou les organismes d'application de la loi pourraient utiliser pour surveiller les utilisateurs. Il y avait également la crainte qu'une personne piège une tierce personne en ajoutant intentionnellement des images CSAM à son compte iCloud.

Une telle situation pourrait porter un grand préjudice à la victime. Rappelons qu'en août 2021, Apple prévoyait de déployer trois nouvelles fonctionnalités de sécurité pour les enfants, notamment un système de détection des images connues de CSAM stockées sur iCloud Photos, une option Communication Safety qui estompe les photos sexuellement explicites dans l'application iMessages, et des ressources sur l'exploitation des enfants pour Siri. Communication Safety a été lancé aux États-Unis avec iOS 15.2 en décembre 2021 et s'est depuis étendu au Royaume-Uni, au Canada, à l'Australie et à la Nouvelle-Zélande.

Les parents et le personnel soignant peuvent opter pour ces protections par le biais des comptes iCloud familiaux. Elles fonctionnent avec Siri, la recherche Spotlight d'Apple et la recherche Safari. Elles avertissent si quelqu'un est en train de regarder ou de rechercher des documents relatifs au CSAM et fournir des ressources sur place pour signaler le contenu et demander de l'aide. En outre, le cœur de la protection est la sécurité de la communication pour les messages, que les soignants peuvent configurer pour fournir un avertissement et des ressources aux enfants s'ils reçoivent ou tentent d'envoyer des photos contenant de la nudité.

L'objectif est de mettre fin à l'exploitation des enfants avant qu'elle ne se produise ou ne s'installe et de réduire la création de nouvelles CSAM. En marge de l'annonce concernant l'abandon du projet, Apple a également annoncé une vaste expansion de ses offres de chiffrement de bout en bout pour iCloud, y compris l'ajout de la protection des sauvegardes et des photos stockées sur le service de cloud computing. Bien que cette deuxième annonce ait été bien accueillie par les utilisateurs de l'iPhone, elle a également fait l'objet de quelques critiques de la part des organismes de lutte contre les abus sur les enfants.

Les groupes qui luttent contre le CSAM se sont souvent opposés à un déploiement plus large du chiffrement de bout en bout, car il rend les données des utilisateurs inaccessibles aux entreprises technologiques, ce qui rend plus difficiles pour l'analyse et la signalisation du CSAM. Les organismes d'application de la loi du monde entier ont également invoqué le grave problème des abus sexuels sur les enfants pour s'opposer à l'utilisation et à l'expansion du chiffrement de bout en bout, bien que nombre de ces organismes aient toujours été hostiles au chiffrement de bout en bout en général parce qu'il peut rendre certaines enquêtes plus difficiles.

La recherche a cependant montré de manière constante que le chiffrement de bout en bout est un outil de sécurité vital pour la protection des droits de l'homme et que les inconvénients de sa mise en œuvre ne l'emportent pas sur les avantages. Craig Federighi, vice-président chargé des logiciels chez Apple, a déclaré : « les abus sexuels sur les enfants peuvent être évités avant qu'ils ne se produisent. C'est là que nous mettons notre énergie à l'avenir ». Il a été interrogé directement sur les répercussions de l'extension du chiffrement sur le travail des agents chargés de l'application de la loi qui enquêtent sur les crimes.

Federighi a répondu : « en fin de compte, la sécurisation des données des clients a de grandes répercussions sur notre sécurité au sens large ». Bien qu'il n'y ait pas un calendrier spécifique pour l'extension des fonctions de Communication Safety, Apple travaille à l'ajout de la capacité de détecter la nudité dans les vidéos envoyées par iMessages lorsque la protection est activée. L'entreprise prévoit également d'étendre l'offre au-delà de iMessages à ses autres applications de communication. En définitive, l'objectif est de permettre aux développeurs tiers d'intégrer les outils de Communication Safety dans leurs propres applications.

Selon Apple, plus ces fonctionnalités se multiplieront, plus les enfants auront de chances d'obtenir les informations et le soutien dont ils ont besoin avant d'être exploités. Comme d'autres entreprises qui se sont débattues publiquement sur la façon de traiter le CSAM, Apple a déclaré qu'il prévoit également de continuer à travailler avec des experts de la sécurité des enfants pour qu'il soit aussi facile que possible pour ses utilisateurs de signaler les contenus et les situations d'exploitation aux organisations de défense et aux forces de l'ordre.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous du revirement d'Apple sur son outil de détection du CSAM ?
Que pensez-vous de l'extension des offres de chiffrement de bout en bout pour iCloud ?

Voir aussi

Apple annonce le chiffrement de bout en bout des sauvegardes iCloud et introduit la prise en charge des clés de sécurité pour l'authentification à deux facteurs

Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos, alors que les experts dénoncent un recul dans les progrès en matière de vie privée

Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone

Une erreur dans cette actualité ? Signalez-nous-la !