IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Apple met fin à son projet controversé visant à analyser les sauvegardes sur iCloud Photos à la recherche d'images d'abus sexuels sur enfant,
Après les critiques virulentes des experts en sécurité

Le , par Bill Fassinou

135PARTAGES

8  0 
Apple a mis fin à son projet visant à développer un outil de détection des contenus pédopornographiques connus stockés sur iCloud Photos. Les critiques avaient mis en garde Apple contre la boîte de pandore qu'elle s'apprêtait à ouvrir, expliquant que certains États pouvaient exiger que la fonction soit détournée à d'autres fins, notamment de surveillance de masse. Après une analyse approfondie, Apple a annoncé mercredi qu'il mettait fin au projet et que l'entreprise se concentrera à l'avenir sur le chiffrement de bout en bout des sauvegardes iCloud. Apple estime que les abus sexuels sur les enfants peuvent être évités avant qu'ils ne se produisent.

En août 2021, Apple a annoncé un plan visant à analyser les photos que les utilisateurs stockent sur iCloud Photos pour détecter des images d'abus sexuels sur enfant (CSAM). L'outil était censé préserver la vie privée et permettre à Apple de détecter et signaler les contenus potentiellement problématiques et abusifs sans rien révéler d'autre. Mais l'initiative a été controversée, et elle a rapidement suscité de nombreuses critiques de la part des chercheurs en matière de confidentialité et de sécurité et des groupes de défense des droits numériques, qui craignaient que la capacité de surveillance elle-même ne soit utilisée de manière abusive.

Cela pourrait porter atteinte à la vie privée et à la sécurité des utilisateurs d'iCloud dans le monde entier. Au début du mois de septembre 2021, Apple a déclaré qu'elle mettrait en pause le déploiement de la fonctionnalité afin de "recueillir des commentaires et d'apporter des améliorations avant de publier ces nouvelles fonctionnalités de sécurité pour enfants d'une importance cruciale". Autrement dit, un lancement était toujours prévu. Mais mercredi, Apple a déclaré qu'en réponse aux commentaires et aux conseils qu'elle a reçus sur les impacts de cette initiative, l'outil de détection des CSAM pour les photos stockées sur iCloud est mort.



« Après une consultation approfondie avec des experts pour recueillir des commentaires sur les initiatives de protection de l'enfance que nous avons proposées l'année dernière, nous renforçons notre investissement dans la fonction de sécurité des communications que nous avons mise à disposition pour la première fois en décembre 2021. Nous avons en outre décidé de ne pas aller de l'avant avec notre outil de détection des CSAM proposé précédemment pour iCloud Photos. Les enfants peuvent être protégés sans que les entreprises passent au peigne fin les données personnelles », a déclaré Apple dans une déclaration envoyée aux médias.

« Nous continuerons à travailler avec les gouvernements, les défenseurs des enfants et d'autres entreprises pour aider à protéger les jeunes, à préserver leur droit à la vie privée et à faire d'Internet un endroit plus sûr pour les enfants et pour nous tous », a ajouté la société. Elle a prévu de signaler les comptes iCloud comportant des hachages d'images CSAM au National Center for Missing and Exploited Children (NCMEC) des États-Unis, une association à but non lucratif qui travaille en collaboration avec les services de police américains. Apple avait également assuré qu'il avait une chance sur un milliard pour que l'outil renvoie un faux positif.

Les plans d'Apple ont été critiqués par un large éventail de personnes et d'organisations, notamment des chercheurs en sécurité, l'Electronic Frontier Foundation (EFF), des politiciens, des groupes politiques, des chercheurs universitaires, des rivaux (comme Epic Games) et même certains employés d'Apple. Certains ont fait valoir que cet outil aurait créé une "porte dérobée" dans les appareils Apple, que les gouvernements ou les organismes d'application de la loi pourraient utiliser pour surveiller les utilisateurs. Il y avait également la crainte qu'une personne piège une tierce personne en ajoutant intentionnellement des images CSAM à son compte iCloud.

Une telle situation pourrait porter un grand préjudice à la victime. Rappelons qu'en août 2021, Apple prévoyait de déployer trois nouvelles fonctionnalités de sécurité pour les enfants, notamment un système de détection des images connues de CSAM stockées sur iCloud Photos, une option Communication Safety qui estompe les photos sexuellement explicites dans l'application iMessages, et des ressources sur l'exploitation des enfants pour Siri. Communication Safety a été lancé aux États-Unis avec iOS 15.2 en décembre 2021 et s'est depuis étendu au Royaume-Uni, au Canada, à l'Australie et à la Nouvelle-Zélande.

Les parents et le personnel soignant peuvent opter pour ces protections par le biais des comptes iCloud familiaux. Elles fonctionnent avec Siri, la recherche Spotlight d'Apple et la recherche Safari. Elles avertissent si quelqu'un est en train de regarder ou de rechercher des documents relatifs au CSAM et fournir des ressources sur place pour signaler le contenu et demander de l'aide. En outre, le cœur de la protection est la sécurité de la communication pour les messages, que les soignants peuvent configurer pour fournir un avertissement et des ressources aux enfants s'ils reçoivent ou tentent d'envoyer des photos contenant de la nudité.

L'objectif est de mettre fin à l'exploitation des enfants avant qu'elle ne se produise ou ne s'installe et de réduire la création de nouvelles CSAM. En marge de l'annonce concernant l'abandon du projet, Apple a également annoncé une vaste expansion de ses offres de chiffrement de bout en bout pour iCloud, y compris l'ajout de la protection des sauvegardes et des photos stockées sur le service de cloud computing. Bien que cette deuxième annonce ait été bien accueillie par les utilisateurs de l'iPhone, elle a également fait l'objet de quelques critiques de la part des organismes de lutte contre les abus sur les enfants.

Les groupes qui luttent contre le CSAM se sont souvent opposés à un déploiement plus large du chiffrement de bout en bout, car il rend les données des utilisateurs inaccessibles aux entreprises technologiques, ce qui rend plus difficiles pour l'analyse et la signalisation du CSAM. Les organismes d'application de la loi du monde entier ont également invoqué le grave problème des abus sexuels sur les enfants pour s'opposer à l'utilisation et à l'expansion du chiffrement de bout en bout, bien que nombre de ces organismes aient toujours été hostiles au chiffrement de bout en bout en général parce qu'il peut rendre certaines enquêtes plus difficiles.

La recherche a cependant montré de manière constante que le chiffrement de bout en bout est un outil de sécurité vital pour la protection des droits de l'homme et que les inconvénients de sa mise en œuvre ne l'emportent pas sur les avantages. Craig Federighi, vice-président chargé des logiciels chez Apple, a déclaré : « les abus sexuels sur les enfants peuvent être évités avant qu'ils ne se produisent. C'est là que nous mettons notre énergie à l'avenir ». Il a été interrogé directement sur les répercussions de l'extension du chiffrement sur le travail des agents chargés de l'application de la loi qui enquêtent sur les crimes.

Federighi a répondu : « en fin de compte, la sécurisation des données des clients a de grandes répercussions sur notre sécurité au sens large ». Bien qu'il n'y ait pas un calendrier spécifique pour l'extension des fonctions de Communication Safety, Apple travaille à l'ajout de la capacité de détecter la nudité dans les vidéos envoyées par iMessages lorsque la protection est activée. L'entreprise prévoit également d'étendre l'offre au-delà de iMessages à ses autres applications de communication. En définitive, l'objectif est de permettre aux développeurs tiers d'intégrer les outils de Communication Safety dans leurs propres applications.

Selon Apple, plus ces fonctionnalités se multiplieront, plus les enfants auront de chances d'obtenir les informations et le soutien dont ils ont besoin avant d'être exploités. Comme d'autres entreprises qui se sont débattues publiquement sur la façon de traiter le CSAM, Apple a déclaré qu'il prévoit également de continuer à travailler avec des experts de la sécurité des enfants pour qu'il soit aussi facile que possible pour ses utilisateurs de signaler les contenus et les situations d'exploitation aux organisations de défense et aux forces de l'ordre.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous du revirement d'Apple sur son outil de détection du CSAM ?
Que pensez-vous de l'extension des offres de chiffrement de bout en bout pour iCloud ?

Voir aussi

Apple annonce le chiffrement de bout en bout des sauvegardes iCloud et introduit la prise en charge des clés de sécurité pour l'authentification à deux facteurs

Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos, alors que les experts dénoncent un recul dans les progrès en matière de vie privée

Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de pcdwarf
Membre éprouvé https://www.developpez.com
Le 06/09/2024 à 1:36
Haha "du lobbying contre la sécurité des enfants" !
ça va ? la manipe linguistique n'est pas trop voyante ?
Et oui! ça fait plus de 20 ans que cette fausse excuse pour la surveillance généralisée marche ! Sous prétexte de lutte contre les pédonazis, il faut fliquer tout le monde.

Mais c'est quand même pas compliqué à comprendre !
La seule raison pour laquelle on peut accepter de mettre des données personnelles (et pourtant parfaitement innocentes) sur un cloud, c'est parce qu'il est sensé être absolument privé.
On se doute bien que ça n'est pas réellement le cas, mais à partir du moment où il est de notoriété publique que le cloud Apple n'est pas du tout un espace confidentiel mais un espace qui est automatiquement scanné pour repérer ce type de données, il est évident que les criminels concernés feront absolument tout pour éviter de s'en servir (En toute logique, ils évitent déjà). Alors certes, ça permettra d’attraper un neuneu ou deux, mais à quel prix ? Parce que si on ouvre la boite de pandore pour scanner le pédoporn il ne faudra pas longtemps avant qu'on scanne d'autres trucs permettant de faire du profilage, politique, religieux etc... ou même simplement pour de la pub ciblée. Et à coté de ça, combien de faux positifs ? Parce que ça peut rapidement causer des emmerdes qui vont loin...
6  0 
Avatar de PsychoH13
Membre averti https://www.developpez.com
Le 05/09/2024 à 18:39
Les mesures de sécurité qui sont demandés pour soi-disant protéger les enfants sont en fait des mesures réduisent la sécurité de tout le monde et permet aux gouvernements et aux criminels d'espionner tout le monde. Apple a bien raison de se battre contre ces mesures et ces projets de lois!

Les gouvernements utilisent les enfants comme des boucliers pour cacher leur vrais désires qui est de pouvoir espionner de tout le monde, les gouvernement veulent une backdoor dans le système d'encryption de tous vos appareils ce qui les ouvriraient à toutes les attaques.

Il n'y a que deux types d'encryption: celle qui empêche le gouvernement d'entrer ou celle qui empêche votre petite soeur de rentrer, il n'y a pas de juste milieu qui permettrait aux pouvoirs publics d'espionner tout le monde sans compromettre la sécurité de tous.

Si vous entendez protection des enfants comme justification de tout projet de loi, vous pouvez savoir sans même le lire que c'est une arnaque.
5  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 04/09/2024 à 8:52
Citation Envoyé par OrthodoxWindows Voir le message
Pour une fois que je suis d'accord avec Apple, ce n'est pas fréquent
Oui mais ne nous félicitons pas trop, nous sommes peut être d'accord sur le résultat mais nos objectifs sont bien différents et on risque fort de finir avec un couteau dans le dos et un "je comprends pas nous étions pourtant d'accord".
1  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 04/09/2024 à 0:17
Pour une fois que je suis d'accord avec Apple, ce n'est pas fréquent

Ce projet de loi est très dangereux, car il risque de mener à terme à une vérification systématique d’identités juste pour télécharger des applications, et à une pertes de liberté encore plus importante pour les développeurs, à cause de l'obligation d'utiliser l'App Store (par contre là c'est la faute d'Apple).
3  3 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 04/09/2024 à 13:42
Citation Envoyé par totozor Voir le message
on risque fort de finir avec un couteau dans le dos et un "je comprends pas nous étions pourtant d'accord".
À la page 18 des conditions d'utilisation ?
0  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/09/2024 à 8:11
Citation Envoyé par Gluups Voir le message
À la page 18 des conditions d'utilisation ?
Par exemple mais pas que.
Je vois aussi le "Nous étions d'accord sur la réaction à cette loi donc vous êtes d'accord avec moi sur TOUT ce que je fais" (Toute ressemblance avec notre président de la république ou un patron de réseau social est bien sûr fortuite )
0  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 05/09/2024 à 21:49
Citation Envoyé par PsychoH13 Voir le message
Les mesures de sécurité qui sont demandés pour soi-disant protéger les enfants sont en fait des mesures réduisent la sécurité de tout le monde et permet aux gouvernements et aux criminels d'espionner tout le monde. Apple a bien raison de se battre contre ces mesures et ces projets de lois!
Pas sûr que j'aurais osé le dire, mais c'est quand même un angle de vue à ne pas négliger.

Il n'y a que deux types d'encryption: celle qui empêche le gouvernement d'entrer ou celle qui empêche votre petite soeur de rentrer,
Laquelle ? Celle qui est douce et adorable comme un cœur, ou celle qui est trop curieuse, rapporteuse et avec une forte tendance à taper sur les nerfs ?

il n'y a pas de juste milieu qui permettrait aux pouvoirs publics d'espionner tout le monde sans compromettre la sécurité de tous.

Si vous entendez protection des enfants comme justification de tout projet de loi, vous pouvez savoir sans même le lire que c'est une arnaque.
Boh allez, si on a le temps on le lit ...
0  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 06/09/2024 à 1:48
Citation Envoyé par pcdwarf Voir le message
Et à coté de ça, combien de faux positifs ? Parce que ça peut rapidement causer des emmerdes qui vont loin...
Sans même Internet, il suffit de dire bonjour à une passante pour voir la semaine d'après des parents d'enfants de deux ans avoir peur.

Et il y a des structures de médiation, mais pas à l'abri de fonctionner à l'envers. Surtout que pendant deux ans la réponse préférée des pros était "Je ne prends pas de nouveau patient."

J't'explique pas le gaspillage d'énergie.
0  0 
Avatar de tontonCD
Membre actif https://www.developpez.com
Le 09/09/2024 à 18:27
Un peu choqué par le titre de l'info. L'argument d'Apple est que son écosystème est déjà protégé, et comme dit par d'autres internautes le gouvernement essaie par tous les moyens de mettre son nez partout sous couvert de protection. Après, la protection par Apple est-elle suffisante ? Si vous avez déjà publié sur AppStore vous savez que ce n'est pas une mince affaire.
0  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 04/09/2024 à 8:40
avec ce genre de projets de lois je ne peux me questionner sur comment on en est arrivé la...., depuis quand les enfants peuvent utiliser un iphone/ipad ? et depuis quand sans la supervision des adultes ?
on prends le problème a l'envers, je n'ai pas eu de téléphone avant mon bac, et mes enfants n'ont pas de smartphones/tablettes non plus, ils n'en ont pas besoin et toutes les études prouve que c'est néfaste pour leurs santé.
Donc a partir de la, je vois pas l’intérêt de ce genre de projet de lois.

J'ai un feature phone et un bracelet pour enfant que je leurs donne quand on voyage pour que je puisse les appeler/les localiser si jamais on se perd (ce qui n'ai jamais arrivé mais on est jamais trop prudent). Perdre son gamin en vacances dans le métro d'une ville comme Hong Kong par exemple ce serait un peu dramatique
mais en dehors de ce cas bien spécifique et en plus il existe des outils adaptés aux enfants et pas cher (moins cher qu'un smarpthone), a l'école pour les enfants aillant la nécessité d’appeler les adultes, un feature phone fait très bien l'affaire.
0  1