Le service de messagerie WhatsApp, propriété de Facebook, fait de la confidentialité sa caractéristique principale et Facebook a déclaré à plusieurs reprises qu'il ne lisait pas les messages envoyés entre utilisateurs. Or ProPublica, un organisme spécialisé en journalisme d'enquête d'intérêt public, a récemment publié un article détaillé examinant les revendications de confidentialité de la populaire plateforme de messagerie WhatsApp. Le service est réputé pour son "chiffrement de bout en bout", que la plupart des utilisateurs interprètent comme signifiant que Facebook, propriétaire de WhatsApp depuis 2014, ne peut ni lire les messages lui-même ni les transmettre aux forces de l'ordre. Cette affirmation est contredite par le simple fait que Facebook emploie environ 1 000 modérateurs WhatsApp dont le seul travail consiste à examiner les messages WhatsApp qui ont été signalés comme "inappropriés".
Une faille dans le chiffrement de bout en bout de WhatsApp
L’enquête de ProPublica souligne que Facebook emploie « plus de 1 000 contractuels qui remplissent les étages d'immeubles de bureaux à Austin, au Texas, à Dublin et à Singapour, où ils examinent des millions de contenus d'utilisateurs ». Ces contractuels, que Facebook nomme des « réviseurs », passent leurs journées à passer au crible le contenu que les utilisateurs de WhatsApp et les algorithmes du service signalent. WhatsApp est fondé sur le chiffrement dit "de bout en bout", ce qui signifie que les messages sont codés avant d'être envoyés et seulement décodés lorsqu'ils sont reçus par l'utilisateur prévu. Mais lorsqu'un utilisateur signale un abus, des versions non chiffrées du message sont envoyées aux entrepreneurs de modération de WhatsApp, rapporte ProPublica.
La faille dans le chiffrement de bout en bout de WhatsApp est donc simple : le destinataire d'un message WhatsApp peut le signaler. Une fois signalé, le message est copié sur l'appareil du destinataire et envoyé comme un message séparé à Facebook pour examen.
Les messages sont généralement signalés et examinés pour les mêmes raisons qu'ils le seraient sur Facebook, notamment pour des allégations de fraude, de spam, de pédopornographie et d'autres activités illégales. Lorsqu'un destinataire signale un message WhatsApp pour examen, ce message est regroupé avec les quatre messages antérieurs les plus récents dans ce fil de discussion, puis envoyé au système d'examen de WhatsApp en tant que pièces jointes à un formulaire.
La modération de contenu sous un autre nom
Lorsqu'un formulaire de révision arrive dans le système de WhatsApp, il est automatiquement placé dans une file d'attente "réactive" pour être évalué par des travailleurs contractuels humains. Les algorithmes d'IA alimentent également le formulaire dans des files d'attente "proactives" qui traitent les métadonnées non chiffrées, notamment les noms et les images de profil des groupes de l'utilisateur, le numéro de téléphone, les empreintes digitales de l'appareil, les comptes Facebook et Instagram associés, etc.
Les réviseurs humains de WhatsApp traitent les deux types de files d'attente - réactive et proactive - pour les violations de politique signalées et/ou suspectées. Les réviseurs n'ont que trois options pour un formulaire : l'ignorer, placer le compte de l'utilisateur en "surveillance" ou bannir entièrement le compte de l'utilisateur. Selon ProPublica, Facebook utilise cet ensemble limité d'actions pour justifier le fait que les réviseurs ne « modèrent pas le contenu » sur la plateforme.
Bien que les réviseurs de WhatsApp aient moins d'options que leurs homologues de Facebook ou d'Instagram, ils sont confrontés à des défis et à des obstacles similaires. Accenture, la société avec laquelle Facebook passe un contrat pour la modération et la révision, embauche des travailleurs qui parlent une variété de langues, mais pas toutes les langues. Lorsque des messages arrivent dans une langue que les modérateurs ne maîtrisent pas, ils doivent se fier aux outils de traduction automatique de Facebook. « Depuis trois ans que je suis là, ça a toujours été horrible. L'outil de traduction de Facebook offre peu ou pas d'indications sur l'argot ou le contexte local, ce qui n'est pas surprenant étant donné que l'outil a souvent du mal à identifier la langue source. Une entreprise de rasage qui vend des rasoirs droits peut être étiquetée à tort comme "vendant des armes", tandis qu'un fabricant de soutiens-gorge peut être catalogué comme "entreprise à caractère sexuel" », a déclaré un modérateur à ProPublica.
Les normes de modération de WhatsApp peuvent être aussi déroutantes que ses outils de traduction automatique, par exemple, les décisions concernant la pédopornographie peuvent nécessiter de comparer les os des hanches et les poils pubiens d'une personne nue à un tableau d'index médical, ou les décisions concernant la violence politique peuvent nécessiter de deviner si une tête apparemment coupée dans une vidéo est réelle ou fausse.
Sans surprise, certains utilisateurs de WhatsApp utilisent également le système de signalement lui-même pour attaquer d'autres utilisateurs. Un modérateur a déclaré à ProPublica que « nous avons eu quelques mois où l'IA bannissait des groupes à gauche et à droite » parce que des utilisateurs au Brésil et au Mexique changeaient le nom d'un groupe de messagerie en quelque chose de problématique, puis signalaient le message. « Au pire, se souvient le modérateur, nous en recevions probablement des dizaines de milliers. Ils ont compris certains mots que l'algorithme n'aimait pas », ajoute-t-il.
Métadonnées non chiffrées
Bien que le chiffrement "de bout en bout" du contenu des messages par WhatsApp ne puisse être contourné que par les appareils de l'expéditeur ou du destinataire eux-mêmes, une multitude de métadonnées associées à ces messages sont visibles par Facebook et par les autorités chargées de l'application de la loi ou d'autres personnes avec lesquelles Facebook décide de les partager, sans aucune réserve de ce type.
ProPublica a trouvé plus d'une douzaine de cas où le ministère de la Justice a demandé les métadonnées de WhatsApp depuis 2017. Ces demandes sont connues sous le nom de "pen register orders", une terminologie datant des demandes de métadonnées de connexion sur les comptes de téléphone fixe. ProPublica souligne à juste titre qu'il s'agit d'une fraction inconnue du total des demandes au cours de cette période, car beaucoup de ces ordonnances, et leurs résultats, sont scellés par les tribunaux. Étant donné que ces ordonnances et leurs résultats sont souvent scellés, il est également difficile de dire exactement quelles métadonnées l'entreprise a communiquées. Facebook désigne ces données sous le nom de "Prospective Message Pairs" (PMP).
Bien que rien n'indique que Facebook collecte actuellement les messages des utilisateurs sans intervention directe du destinataire, il convient de souligner qu'il n'y a aucune raison technique pour laquelle il ne pourrait pas le faire. La sécurité du chiffrement "de bout en bout" dépend des points d'extrémité eux-mêmes - et dans le cas d'une application de messagerie mobile, cela inclut l'application et ses utilisateurs. Une plateforme de messagerie chiffrée "de bout en bout" pourrait choisir, par exemple, d'effectuer une analyse automatisée du contenu de tous les messages d'un appareil, basée sur l'intelligence artificielle, puis de transmettre les messages marqués automatiquement au cloud de la plateforme pour une action ultérieure.
Source : ProPublica
Et vous ?
Quel commentaire faites-vous de la situation ?
Partagez-vous la position de Facebook qui soutient ne pas faire de la modération des contenus WatsApp ?
Voir aussi :
Google, Facebook et Twitter privilégient l'utilisation de l'IA pour les activités de modération et préviennent que des erreurs peuvent survenir, leurs employés étant priés de rester chez eux
CJUE : la modération des contenus diffamatoires ou injurieux sur Facebook ne s'arrête pas aux frontières de l'UE, mais s'applique au niveau mondial
Mark Zuckerberg aurait discrètement approuvé une modification de l'algorithme de modération de Facebook, qui a réduit le trafic vers les sites d'information progressistes
Facebook affirme qu'il ne lit pas les messages WhatsApp, mais une enquête révèle qu'il le fait en réalité,
Des millions de messages sont examinés à la fois par des modérateurs humains et par l'IA
Facebook affirme qu'il ne lit pas les messages WhatsApp, mais une enquête révèle qu'il le fait en réalité,
Des millions de messages sont examinés à la fois par des modérateurs humains et par l'IA
Le , par Nancy Rey
Une erreur dans cette actualité ? Signalez-nous-la !