IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Apple scanne les images stockées sur iCloud afin de lutter contre la maltraitance infantile
Les comptes suspects seront ainsi désactivés puis signalés aux autorités

Le , par Axel Lecomte

620PARTAGES

3  0 
Le cloud est une alternative pour stocker des images, des vidéos ou d'autres fichiers. Même si les entreprises du secteur informatique garantissent la confidentialité de ces données, elles peuvent prendre des mesures si les contenus en question sont illégaux.


En termes de lutte contre la maltraitance faite aux enfants, Jane Horvath, directrice de la vie privée d'Apple, a indiqué lors du CES 2020 que l'entreprise scanne toutes les photos uploadées sur iCloud afin de détecter des formes d'abus. « Le terrorisme et l'abus sexuel sur enfant sont odieux, aucun d'entre nous ne veut de ce genre de contenu sur ses plateformes, mais ne pas avoir de cryptage ne va pas résoudre ces problèmes », a-t-elle expliqué, en réponse à une question sur la valeur du cryptage de données.


De plus, la firme a déclaré dans un communiqué : « Apple se consacre à la protection des enfants dans l'ensemble de notre écosystème, quel que soit l'endroit où nos produits sont utilisés, et nous continuons à soutenir l'innovation dans ce domaine. Nous avons mis au point des protections solides à tous les niveaux de notre plateforme logicielle et tout au long de notre chaîne d'approvisionnement. Dans le cadre de cet engagement, Apple utilise la technologie de correspondance d'images pour aider à trouver et à signaler les cas d'exploitation d'enfants. Tout comme les filtres anti-pourriel dans les courriels, nos systèmes utilisent des signatures électroniques pour trouver les cas suspects d'exploitation d'enfants. Nous validons chaque correspondance par un examen individuel. Les comptes contenant du contenu d'exploitation d'enfants violent nos conditions générales de service, et tout compte que nous trouvons avec ce matériel sera désactivé ».

Ces dispositions ont été prises il y a presque un an, à en croire une mise à jour de la politique de confidentialité d'Apple du 9 mai 2019. « Nous pouvons également utiliser vos informations personnelles à des fins de sécurité de compte et de réseau, notamment pour protéger nos services au profit de tous nos utilisateurs, et pour présélectionner ou analyser le contenu téléchargé pour le contenu potentiellement illégal, y compris le matériel d'exploitation sexuelle des enfants. Lorsque nous utilisons vos informations à des fins anti-fraudes, elles découlent de la conduite d'une transaction en ligne avec nous. Nous limitons nos utilisations des données à des fins anti-fraudes à celles qui sont strictement nécessaires et dans le cadre de nos intérêts légitimes évalués pour protéger nos clients et nos services », indique en effet Apple.

Si la technologie utilisée par Apple n'a pas été précisée, il existe un moyen de détecter des photos illégales, comme l'utilisation de PhotoDNA, que son créateur, Microsoft, a fait don au National Center for Missing & Exploited Children (NCMEC). Depuis 2008, ce dernier a mis à disposition des entreprises une liste de valeurs de hachage pour les images montrant des abus sexuels sur enfants. Les entreprises peuvent ainsi identifier les images illégales en établissant des correspondances entre les images uploadées sur leurs plateformes et les données fournies par le NCMEC. D'autres sociétés utilisent également des techniques similaires. Par exemple, Facebook peut supprimer automatiquement des photos qu'il juge compromettantes avant d'envoyer une notification à l'utilisateur qui l'a publié.

Sources : Apple (1 et 2), vidéo

Et vous ?

Selon vous, que devraient faire les entreprises pour signaler l'existence de contenus illégaux sans fouiller dans les données personnelles des utilisateurs ?

Voir aussi :

Microsoft donne PhotoDNA à la police pour lutter contre la pédophilie sur le Net, un fléau en progression constante d'après l'éditeur
Google s'explique sur l'analyse des photos dans Gmail, qui aurait permis l'arrestation d'un pédophile
Google et Microsoft main dans la main pour combattre la pédopornographie, les américains veulent bannir ce type de recherches de leurs moteurs
Microsoft lance Project Artemis, un système automatisé, pour identifier les prédateurs sexuels, qui tentent d'attirer les enfants à des fins sexuelles dans les chats en ligne

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de onilink_
Membre émérite https://www.developpez.com
Le 10/03/2020 à 19:43
Ils s'y prennent comment si les utilisateurs chiffrent les photos avant de les upload? Maintenant qu'ils sont au courant c'est probablement ce qu'ils vont faire.
Je suppose qu'ils font surtout ça pour se dédouaner du contenu de leurs serveurs.
Un peu comme megaupload qui est devenu mega, et ne stocke sur ses serveurs que des fichiers chiffrés sans garder la clé (la clé étant contenu dans le lien que possède l'utilisateur, enfin si j'ai bien compris le principe).
2  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 11/03/2020 à 11:32
Il ne viendrait l'idée à personne de nier la justesse de faire la chasse aux tarés qui maltraitent le enfants ou toute autre victime d'ailleurs!

Donc Apple fait la chasse aux images de pédophiles mais que fait Apple pour les images ou vidéo qui montreraient des actes de maltraitance sur des animaux ou sur des être humains (Exemple: les gros crétins qui se mettent à 10 pour tabasser un copain de classe, souffre douleur, sur le pré-haut de l'école toute en filmant la scène et en divulguant ensuite la vidéo sur les réseaux sociaux... On ne parle bien évidemment pas des cas plus sérieux où la victime a fini handicapée à vie suite à des coups portés à la tête à l'aide de barres de fer... Eh oui! On parle bien de cas réels arrivés en France!)?

Au final, cette annonce ne peut que susciter le malaise parce que:

1. En réalité, il ne s'agit que d'une annonce "marketing" de Apple (Ils sont dans l'incapacité de faire une détection efficace)

2. Apple s'arroge le droit de faire le travail de la justice sans qu'aucune autorité l'ait mandaté, ni donné un quelconque droit de le faire. Apple décide de son propre chef de ce qui est acceptable ou non.

3. Apple viole la protection des données de ses utilisateurs.

Officiellement, Apple scannera tous ces clients pour détecter un pourcentage "minimalesque" de crapules. Mais combien de temps faudra-t-il attendre avant que l'on apprenne d'un ancien employé d'Apple que Apple profite de ses scannages pour établir un "fichage" de l'ensemble de ses clients en établissant par exemple une base de donnée de reconnaissance faciale de toutes les familles qui ont eu la mauvaise idée d'utiliser le iCloud pour stocker leur images de vacances?

Et que penser de ceux qui ne gardant aucune facture ou dossier papier, scannent leur documents pour en garder qu'une copie électronique? Est-ce que Apple ou autres GAFAM ne seront pas intéressés à récupérer sur leur serveurs les données indiquant l'état de santé de leur clients? Sachant que les GAFAM déploient leur activités dans tous les domaines y compris dans la santé, quand Mme Michu voudra conclure une assurance santé chez une future "Apple Assurance Santé", est-ce que Apple ne sera pas intéressé par la multitude de factures stockées sur iCloud que Mme Michu a reçu de son cancérologue?

Une seule conclusion s'impose:

Si Apple veut sauver les enfants de la maltraitance, Apple donne accès au iCloud aux autorités dont c'est la tâche de faire respecter la loi et rien d'autre!
3  1 
Avatar de Sodium
Membre extrêmement actif https://www.developpez.com
Le 11/03/2020 à 14:20
Faut tout de même être sacrément con pour stocker ses photos pédophiles sur un service de Cloud
1  0