IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Après les critiques, Apple ne recherchera que les images d'abus signalées dans plusieurs pays
Et insiste qu'il s'agit d'une avancée en matière de confidentialité

Le , par Bill Fassinou

364PARTAGES

5  0 
Environ deux semaines après l'annonce des nouvelles fonctionnalités de protection étendue des enfants, Apple essuie toujours des critiques négatives de la part d'une grande partie de la communauté. Vendredi, Apple s'est excusée pour la confusion que l'annonce a suscitée et a donné plus de détails sur les nouvelles fonctionnalités. La société a publié un document expliquant comment elle a étudié les attaques potentielles sur le système et a préparé une défense contre elles. Elle a également indiqué que son système de numérisation d'iCloud s'appuiera sur les données de plusieurs groupes de protection de l'enfance pour répondre aux craintes relatives à la vie privée.

Apple estime que les critiques négatives sont le résultat d'une confusion

Apple a annoncé l'arrivée de nouvelles fonctionnalités de protection de l'enfance le 5 août dernier, mais ces dernières ont été très mal accueillies par la communauté. L'entreprise a dévoilé deux nouveaux outils, dont un nouveau système de détection d'images qui peut alerter Apple lorsque des images connues d'abus sur les enfants sont en passe d'être téléchargées sur le stockage iCloud. Les groupes de défense de la vie privée ont critiqué cette nouvelle, certains affirmant qu'Apple avait créé une porte dérobée pour permettre la surveillance de ces clients. Cependant, la société affirme que son annonce a été largement "mal comprise".



En effet, d'autres entreprises technologiques effectuent des contrôles similaires une fois que les photos sont téléchargées sur leurs serveurs. La décision d'Apple de placer les principaux aspects du système sur le téléphone lui-même a suscité des inquiétudes quant au fait que les gouvernements pourraient obliger l'entreprise à étendre le système à d'autres usages, comme la recherche d'images politiques interdites. La controverse s'est même déplacée dans les rangs d'Apple, plusieurs employés ayant critiqué la décision et craignant que la société ne compromette sa réputation en matière de protection de la vie privée des consommateurs.

Dans une récente interview accordée au Wall Street Journal (WSJ), Apple a reconnu avoir mal géré la communication autour du programme. Craig Federighi, responsable des logiciels chez Apple, a déclaré qu'en prenant du recul, la société s'est rendu compte que l'introduction de deux fonctionnalités en même temps était "une recette pour ce genre de confusion". « Nous aurions aimé que l'annonce soit un peu plus claire pour tout le monde », a déclaré Federighi. L'ingénieur a apporté plus de détails sur le choix d'Apple et a également annoncé que le projet était toujours en cours de développement et que des changements étaient à prévoir.

Il a refusé de dire si les critiques étaient à l'origine de ces changements. L'un de changements annoncés concerne la base de données de CSAM (child sex abuse material) qu'Apple va exploiter. La société a déclaré qu'elle ne rechercherait que les images qui ont été signalées par des organismes de renseignements et de protection de l'enfance dans plusieurs pays. Autrement dit, le système ne signalera que les images trouvées dans plusieurs bases de données sur la sécurité des enfants ayant des affiliations gouvernementales différentes, ce qui empêcherait théoriquement un pays d'ajouter au système du contenu ne relevant pas du CSAM.

En présentant les fonctionnalités pour la première fois, Apple n'avait choisi que le National Center for Missing and Exploited Children (NCMEC), basé aux États-Unis, comme fournisseur d'images d'abus connus sur les enfants. À la question de savoir pourquoi cela a été le cas, un responsable d'Apple a répondu que l'entreprise venait seulement de finaliser son accord avec le NCMEC. La société a également dévoilé le nombre de correspondances d'images à partir duquel le système alertera Apple pour un examen plus approfondi effectué par un être humain. Elle avait précédemment refusé de divulguer ce nombre.

Vendredi, les dirigeants ont déclaré qu'ils commenceraient avec 30 images, bien que le nombre puisse diminuer au fil du temps à mesure que le système s'améliore. Selon Apple, ce seuil a été choisi pour fournir une "marge de sécurité drastique" afin d'éviter les faux positifs, indique le document - et au fur et à mesure de l'évaluation des performances du système dans le monde réel, "nous pourrons modifier le seuil".

Apple a également déclaré qu'il serait facile pour les chercheurs de s'assurer que la liste des identifiants d'images recherchés sur un iPhone était la même que celle de tous les autres téléphones, cherchant ainsi à apaiser les craintes que le nouveau mécanisme puisse être utilisé pour cibler des individus.

Apple dit qu'il est le meilleur en matière de protection de la vie privée

Les efforts d'Apple ont suscité des critiques d'autres sociétés de sa tranche. Un dirigeant du service de messagerie WhatsApp de Facebook a qualifié l'approche d'Apple de mauvaise pour la vie privée. La principale préoccupation est de savoir si Apple peut utiliser un logiciel qui identifie le matériel illégal sans que le système soit exploité par d'autres, comme les gouvernements, qui font pression pour obtenir davantage d'informations privées - une suggestion qu'Apple dément fermement. En outre, Federighi a déclaré que les nouvelles fonctionnalités seront protégées par "de multiples niveaux d'auditabilité".

Federighi a défendu le nouveau système lors de l'interview avec le WSJ, en disant qu'Apple vise à détecter les photos d'abus sexuels d'enfants d'une manière qui protège la vie privée des utilisateurs plus que d'autres systèmes de scan plus invasifs. « Ce que nous faisons, c'est que nous trouvons des images illégales stockées de pédopornographie dans iCloud. Si vous regardez n'importe quel autre service de cloud, ils scannent actuellement les photos en regardant chaque photo dans le cloud et en l'analysant », a déclaré Federighi, tout en refusant l'idée selon laquelle le système de l'entreprise est une porte dérobée.

« Nous voulions être en mesure de repérer de telles photos dans le nuage sans regarder les photos des gens et nous avons imaginé une architecture pour le faire. Le système d'Apple n'est pas une porte dérobée qui brise le chiffrement et il est beaucoup plus privé que tout ce qui a été fait dans ce domaine auparavant. Nous avons développé l'architecture pour identifier les photos de la manière la plus protectrice de la vie privée que nous puissions imaginer et de la manière la plus auditable et vérifiable possible », a poursuivi Federighi. Il a ajouté qu'Apple est la meilleure entreprise en matière de protection de la vie privée.

« Nous, qui nous considérons comme des leaders absolus en matière de protection de la vie privée, voyons ce que nous faisons ici comme une avancée de l'état de l'art en matière de protection de la vie privée, comme la possibilité d'un monde plus privé », a déclaré Federighi.

Quels sont les deux systèmes sur lesquels Apple travaille ?

Apple a donné plus de détails sur son projet d'analyse des photos de CSAM sur les iPhone et iPads des utilisateurs. La société a publié un nouveau document détaillant les mesures de protection qui, espère-t-elle, renforceront la confiance des utilisateurs dans cette initiative. Le document, intitulé "Security Threat Model Review of Apple's Child Safety Features" (examen du modèle de menace de sécurité des dispositifs de sécurité pour enfants d'Apple), a pour objectif de dissiper les inquiétudes en matière de confidentialité et de sécurité liées à ce déploiement. Il s'appuie sur l'entretien accordé par Craig Federighi au WSJ.

Lors de l'interview, mais aussi dans le document, Apple est revenu en détail sur ce en quoi consistent les deux nouvelles fonctionnalités qui seront déployées sur ses appareils plus tard cette année. Elles seront d'abord déployées aux États-Unis, dès la sortie de l'iOS 15.

L'outil de détection d'images de CSAM

Le premier outil permet d'identifier les images de CSAM lorsqu'un utilisateur lance le téléchargement de ses photos vers le stockage iCloud Photos. Pour ce faire, Apple s'appuiera sur les bases de données d'images de CSAM du NCMEC et celles d'autres fournisseurs. Apple a expliqué que le NCMEC gère une base de données d'images illégales connues d'abus d'enfants. Il les stocke sous forme de hashs, une "empreinte digitale" numérique du matériel illégal. Les fournisseurs de services en nuage, tels que Facebook, Google et Microsoft, comparent déjà les images à ces hashs pour s'assurer que les gens ne partagent pas des images de CSAM.

Apple veut mettre en œuvre un processus similaire, mais a déclaré qu'il effectuerait la comparaison des images sur l'iPhone ou l'iPad de l'utilisateur, avant qu'elles ne soient téléchargées sur iCloud. Federighi a précisé que l'iPhone ne vérifierait pas des éléments tels que des photos de vos enfants dans le bain ou la recherche de matériel pornographique. Le système ne pourrait que faire correspondre les "empreintes digitales exactes" d'images spécifiques d'abus pédosexuels connus. Si un utilisateur tente de télécharger plusieurs images qui correspondent à des empreintes digitales d'abus pédosexuels, son compte sera signalé à Apple.

Des humains se chargeront ensuite de faire une analyse plus poussée des images signalées. Federighi a déclaré qu'un utilisateur devrait télécharger environ 30 images correspondantes avant que cette fonction ne soit déclenchée.

L'outil de filtrage des messages

En plus de l'outil de détection de CSAM dans les images en transit vers iCloud Photos, Apple a également annoncé un contrôle parental que les utilisateurs peuvent activer sur les comptes de leurs enfants. S'il est activé, le système vérifie les photos envoyées par - ou à - l'enfant via l'application iMessage d'Apple. Si le système juge qu'une photo contient de la nudité, il la masque et avertit l'enfant. Les parents peuvent également choisir de recevoir une alerte si l'enfant choisit de regarder la photo.

Source : Interview de Craig Federighi, Document technique d'Apple

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des déclarations d'Apple ?
Pensez-vous que le système est aussi sécurisé que l'entreprise le prétend ?

Voir aussi

Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone

Les fonctions de protection de l'enfance d'Apple suscitent l'inquiétude dans ses propres rangs, des employés craignent qu'elles deviennent une arme au service des gouvernements répressifs

Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos, alors que les experts dénoncent un recul dans les progrès en matière de vie privée

Le PDG d'Epic Games met en garde contre la "surveillance d'État" d'Apple, alors qu'Epic Games est détenu en partie par Tencent en Chine

Le lanceur d'alerte Edward Snowden et l'EFF critiquent le projet d'Apple de scanner les messages et les images iCloud, des milliers de personnes demandent à l'entreprise de suspendre ses plans

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 06/09/2021 à 7:22
La seule donnée privée, c'est celle qui n'est pas collectée.

Quand Apple prétend protéger la vie privée de ses utilisateurs au prétexte que les (nombreuses) informations collectées ne sont pas transmises à des tiers, c'est juste du bidon.
7  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 22/08/2022 à 10:54
j'espere que cet incident ouvrira les yeux aux gens.

google a de nombreux service gratuits qui sont tres bien fait et pour une bonne raisons.
une fois que vous ne pouvez plus vous en passer, il ya une sorte de chantage qui s'installe.

mais au dela de ca, il peut tout vous couper comme ca lui prends. c'est couvert dans les dispositions generales que
vous n'avez pas le choix de signer regulierement pour continuer a utiliser les services en question. (le fameux chantage dont je parlais)

Et comme pour les jeux et apps qui sont supprimés avec un messages abscons sans possibiltié de faire appel par le dev, ni contact de quoi que ce soit,
vous perdez d'un coup l'acces a tous les services google dont vous etes dependant d'une maniere ou d'une autre, donc tout vos mails, votre telephone android, et toute les autres services, comme google ads (que vous ayez des sous ou pas dedssus bien evidemment).

si vous etendez ca aux autres GAFAM, ca peut limite vous couper de la plupart des grand services mainstream d'internet.

Pour eviter ca, il ne faut pas mettre tout ces oeufs dans le meme panier, soit, commencer, a ce passer d'eux quand c'est possible.

Et c'est pas evident, mais necessaire. ce qui lui est arrivé peut vous arriver pour un motif encore plus light..
6  0 
Avatar de pcdwarf
Membre éprouvé https://www.developpez.com
Le 06/09/2024 à 1:36
Haha "du lobbying contre la sécurité des enfants" !
ça va ? la manipe linguistique n'est pas trop voyante ?
Et oui! ça fait plus de 20 ans que cette fausse excuse pour la surveillance généralisée marche ! Sous prétexte de lutte contre les pédonazis, il faut fliquer tout le monde.

Mais c'est quand même pas compliqué à comprendre !
La seule raison pour laquelle on peut accepter de mettre des données personnelles (et pourtant parfaitement innocentes) sur un cloud, c'est parce qu'il est sensé être absolument privé.
On se doute bien que ça n'est pas réellement le cas, mais à partir du moment où il est de notoriété publique que le cloud Apple n'est pas du tout un espace confidentiel mais un espace qui est automatiquement scanné pour repérer ce type de données, il est évident que les criminels concernés feront absolument tout pour éviter de s'en servir (En toute logique, ils évitent déjà). Alors certes, ça permettra d’attraper un neuneu ou deux, mais à quel prix ? Parce que si on ouvre la boite de pandore pour scanner le pédoporn il ne faudra pas longtemps avant qu'on scanne d'autres trucs permettant de faire du profilage, politique, religieux etc... ou même simplement pour de la pub ciblée. Et à coté de ça, combien de faux positifs ? Parce que ça peut rapidement causer des emmerdes qui vont loin...
6  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 24/08/2022 à 16:42
Citation Envoyé par Patrick Ruiz Voir le message

Interdire le scannage automatique des communications privées ou le maintenir : de quel bord êtes-vous ?
Que rien ne peut justifier le scan de communications privées qui par définition relèvent de la vie privée.
Sur le fond c'est un scandale que Google les scanne et sur ce cas particulier c'est l'équivalent d'un mauvais fonctionnement que de les bloquer.

Citation Envoyé par Patrick Ruiz Voir le message

Quelles solutions techniques préconisez-vous dans le cas d’un maintien du scannage automatique des communications privées pour garantir un équilibre entre vie privée et sécurité ?
Aucune, on ne va pas voir ce qui relève du privé, point. La question ne peut se poser que pour les communications publiques ou là il y a par contre beaucoup à faire contre les manipulations, les harcèlements et bien d'autres choses
6  1 
Avatar de OldGhost
Membre à l'essai https://www.developpez.com
Le 25/08/2022 à 12:28
La situation interpelle d’autant plus que l’UE travaille ce que les tous les fournisseurs de services de courrier électronique, de chat et de messagerie fouillent dans les communications privées à la recherche de messages suspects de manière entièrement automatisée et à les transmettre à la police dans le cadre de la lutte contre la pédopornographie. La présentation d’un projet de loi y relatif s’est en principe faite au cours du mois de mai de l’année en cours.
En résumé, Bruxelles veut officialiser la capacité des fournisseurs américains à faire de l'espionnage industriel pour le compte des US et au détriment des pays européens, sous couvert de lutte contre la pédocriminalité.

Les réseaux organisés de pornographie infantile n'utilisent pas le courrier électronique ou les services de messagerie, mais les forums du darknet
Pas de chance ! Encore une mesure inutile par rapport à l'objectif annoncé, à croire que tout est fait pour aller vers une société de cyber-contrôle et d'espionnage de masse.
5  0 
Avatar de LeBreton56
Membre régulier https://www.developpez.com
Le 25/08/2022 à 16:32
je me demande comment des européens peuvent voter ce genre de surveillance et en même temps défendre la RGPD et la protection des identités
Il est inadmissible que des sociétés privées aient le pouvoir(et devoir apparemment) de fouiller dans notre vie privée alors qu' en générale la police ou la gendarmerie a besoins d'un mandat pour le faire.

je pense que nos politique sont tombés sur la tête et ne comprennent rien à l'informatique et au réseaux. a moins que des soit disant expert leur aient vendue la lune.

j'en pleure sur la patrie de la liberté égalité fraternité.
5  0 
Avatar de PsychoH13
Membre averti https://www.developpez.com
Le 05/09/2024 à 18:39
Les mesures de sécurité qui sont demandés pour soi-disant protéger les enfants sont en fait des mesures réduisent la sécurité de tout le monde et permet aux gouvernements et aux criminels d'espionner tout le monde. Apple a bien raison de se battre contre ces mesures et ces projets de lois!

Les gouvernements utilisent les enfants comme des boucliers pour cacher leur vrais désires qui est de pouvoir espionner de tout le monde, les gouvernement veulent une backdoor dans le système d'encryption de tous vos appareils ce qui les ouvriraient à toutes les attaques.

Il n'y a que deux types d'encryption: celle qui empêche le gouvernement d'entrer ou celle qui empêche votre petite soeur de rentrer, il n'y a pas de juste milieu qui permettrait aux pouvoirs publics d'espionner tout le monde sans compromettre la sécurité de tous.

Si vous entendez protection des enfants comme justification de tout projet de loi, vous pouvez savoir sans même le lire que c'est une arnaque.
5  0 
Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 24/08/2021 à 11:51
Google via Gmail scanne votre boîte à lettre soit disant pour mieux vous cibler publicitairement parlant, Apple vis iCloud scanne la votre soit disant pour y trouver des fichiers compromettant...

En résumé fuyez les services US, vous y êtes super-hyper fichés ;-(

Les Eats Unis se moquent ouvertement du respect de la vie privée, il serait temps pour la vieille Europe de remettre l'église au centre du village et d'entreprendre des actions en justice à l'encontre de ce genre de pratiques, qui sont Dieu merci illégales chez nous.
4  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 24/08/2022 à 18:06
Quelles solutions techniques préconisez-vous dans le cas d’un maintien du scannage automatique des communications privées pour garantir un équilibre entre vie privée et sécurité ?
une solution : https://fr.wikipedia.org/wiki/Proton_Mail, mais limité ne version gratuite
autre solution ; Utilisation de client de messagerie prenant en charge OpenPGP, mais galère, il faut créer un jeu de clé publique/cl privée et le destinataire doit l'utiliser.

Quelle que soit la situation, ayez une sauvegarde offline de vos mails , et dans la mesure du possible, utilisez une adresse sur votre propre nom de domaine, vous pourrez ainsi changer d'hébergeur de mail à tout moment
4  0 
Avatar de tyrtamos
Expert éminent https://www.developpez.com
Le 25/08/2022 à 5:26
Bonjour. Il y a plusieurs choses choquantes dans cette information. C'est bien pour la société que Google (et Facebook, etc...) dispose d'une surveillance pour éviter les messages illégaux et dangereux, mais encore faut-il ne pas le faire n'importe comment. Dans le problème cité:
- comment une conversation et une photo communiquées dans le cadre d'une consultation médicale ont-elles pu être scannées? Il n'y a plus de secret médical?
- la police ayant vérifié et constaté qu'il n'y a rien de répréhensible, comment Google ose-t-il refuser de restaurer le compte annulé?

Un problème du même genre mais heureusement moins grave, vient de m'arriver avec Facebook. J'ai été interpelé méchamment par Facebook pour un message innocent concernant... le code de la route, comme quoi il "contrevenait aux règles de Facebook"! J'avais seulement émis des doutes sur le fait que certaines règles du code de la route allemand soit compatible avec la mentalité des français. J'ai bien sûr refusé le verdict, mais Facebook a maintenu sa position. J'ai encore protesté en m'expliquant , et Facebook ne me supprime pas en disant que "une erreur est toujours possible". Ils ont donc pris acte de ma 2ème protestation mais il ne l'ont pas lue puisqu'ils ne répondent pas sur le fond. Cette dernière décision était donc elle aussi automatique.

Il y a manifestement un algorithme qui repère les "mots interdits" sans tenir aucun compte du sens des phrases ni du contexte, et génère des sanctions automatiques.

Ce qui me choque, c'est que dans un cas aussi simple et aussi facile à défendre que le mien, je n'ai eu manifestement aucune personne physique intelligente pour répondre à mes protestations. Cela augure mal des suites: nous qui critiquions facilement le caractère aveugle de notre administration française, nous allons vers une époque où nous serons condamnés par un ordinateur pour de fausses raisons sans aucune possibilité de se défendre. Je fini par être content d'être vieux: je ne verrai pas la suite, mais nos enfants, eux, la verront et la subiront. Triste époque...
5  1