
En termes de lutte contre la maltraitance faite aux enfants, Jane Horvath, directrice de la vie privée d'Apple, a indiqué lors du CES 2020 que l'entreprise scanne toutes les photos uploadées sur iCloud afin de détecter des formes d'abus. « Le terrorisme et l'abus sexuel sur enfant sont odieux, aucun d'entre nous ne veut de ce genre de contenu sur ses plateformes, mais ne pas avoir de cryptage ne va pas résoudre ces problèmes », a-t-elle expliqué, en réponse à une question sur la valeur du cryptage de données.
De plus, la firme a déclaré dans un communiqué : « Apple se consacre à la protection des enfants dans l'ensemble de notre écosystème, quel que soit l'endroit où nos produits sont utilisés, et nous continuons à soutenir l'innovation dans ce domaine. Nous avons mis au point des protections solides à tous les niveaux de notre plateforme logicielle et tout au long de notre chaîne d'approvisionnement. Dans le cadre de cet engagement, Apple utilise la technologie de correspondance d'images pour aider à trouver et à signaler les cas d'exploitation d'enfants. Tout comme les filtres anti-pourriel dans les courriels, nos systèmes utilisent des signatures électroniques pour trouver les cas suspects d'exploitation d'enfants. Nous validons chaque correspondance par un examen individuel. Les comptes contenant du contenu d'exploitation d'enfants violent nos conditions générales de service, et tout compte que nous trouvons avec ce matériel sera désactivé ».
Ces dispositions ont été prises il y a presque un an, à en croire une mise à jour de la politique de confidentialité d'Apple du 9 mai 2019. « Nous pouvons également utiliser vos informations personnelles à des fins de sécurité de compte et de réseau, notamment pour protéger nos services au profit de tous nos utilisateurs, et pour présélectionner ou analyser le contenu téléchargé pour le contenu potentiellement illégal, y compris le matériel d'exploitation sexuelle des enfants. Lorsque nous utilisons vos informations à des fins anti-fraudes, elles découlent de la conduite d'une transaction en ligne avec nous. Nous limitons nos utilisations des données à des fins anti-fraudes à celles qui sont strictement nécessaires et dans le cadre de nos intérêts légitimes évalués pour protéger nos clients et nos services », indique en effet Apple.
Si la technologie utilisée par Apple n'a pas été précisée, il existe un moyen de détecter des photos illégales, comme l'utilisation de PhotoDNA, que son créateur, Microsoft, a fait don au National Center for Missing & Exploited Children (NCMEC). Depuis 2008, ce dernier a mis à disposition des entreprises une liste de valeurs de hachage pour les images montrant des abus sexuels sur enfants. Les entreprises peuvent ainsi identifier les images illégales en établissant des correspondances entre les images uploadées sur leurs plateformes et les données fournies par le NCMEC. D'autres sociétés utilisent également des techniques similaires. Par exemple, Facebook peut supprimer automatiquement des photos qu'il juge compromettantes avant d'envoyer une notification à l'utilisateur qui l'a publié.
Sources : Apple (1 et 2), vidéo
Et vous ?

Voir aussi :



