Des contenus identifiés comme trompeurs ou problématiques ont été mis en avant par erreur sur les fils d'utilisateurs de Facebook ces derniers mois, à cause d'un problème informatique qui a mis six mois à être réparé, selon un rapport.
Les ingénieurs de Facebook ont remarqué le problème pour la première fois en octobre dernier, lorsqu'une vague soudaine de désinformation a commencé à circuler dans les fils d'actualités, note le rapport, qui a été partagé au sein de l'entreprise la semaine dernière. Au lieu de supprimer les messages de récidivistes de la désinformation qui ont été examinés par le réseau de vérificateurs de faits externes de l'entreprise, le fil d'actualité a plutôt distribué les messages, augmentant le nombre de vues jusqu'à 30 % dans le monde. Incapables de trouver la cause profonde, les ingénieurs ont vu la poussée s'atténuer quelques semaines plus tard, puis s'embraser à plusieurs reprises jusqu'à ce que le problème de classement soit résolu le 11 mars.
En plus des publications signalées par les vérificateurs des faits, l'enquête interne a révélé que, pendant la période de bogue, les systèmes de Facebook n'avaient pas correctement rétrogradé la nudité probable, la violence et même les médias d'État russes que le réseau social s'est récemment engagé à cesser de recommander en réponse à l'invasion de l'Ukraine. Le problème a été désigné en interne comme un SEV (Site Event) de niveau un – une étiquette réservée aux crises techniques hautement prioritaires, comme le blocage continu de Facebook et Instagram par la Russie.
Le porte-parole de Meta, Joe Osborne, a confirmé l'incident dans une déclaration, affirmant que la société « avait détecté des incohérences dans le déclassement à cinq reprises, ce qui était corrélé à de petites augmentations temporaires des mesures internes ». Tentant de minimiser l'impact Joe Osborne de Facebook a affirmé que l'incident n'a concerné qu'un « très petit nombre de vues » : « L'écrasante majorité des contenus du fil d'actualité ne peuvent pas être déclassés », a-t-il expliqué.
Les documents internes indiquent que le problème technique a été introduit pour la première fois en 2019 mais n'a pas créé d'impact notable avant octobre 2021. « Nous avons retracé la cause première d'un bogue logiciel et appliqué les correctifs nécessaires », a déclaré Osborne, ajoutant que les autres mécanismes conçus pour éviter d'exposer les utilisateurs aux contenus dits « nuisibles » étaient bien restés en place - comme « les autres rétrogradations, les avertissements de fact-checking et les retraits ».
« Dans un grand système complexe comme celui-ci, les bogues sont inévitables et compréhensibles », a déclaré Massachi, qui est maintenant cofondateur de l'Institut à but non lucratif Integrity. « Mais que se passe-t-il lorsqu'une plateforme sociale puissante présente l'un de ces défauts accidentels ? Comment saurions-nous même ? Nous avons besoin d'une réelle transparence pour construire un système durable de responsabilité, afin que nous puissions les aider à détecter ces problèmes rapidement ».
Une multiplication de ses outils pour combattre des contenus contraires à sa politique d'utilisation
Pendant des années, Facebook a présenté le déclassement comme un moyen d'améliorer la qualité du fil d'actualité et a régulièrement élargi les types de contenu sur lesquels agit son système automatisé. Le déclassement a été utilisé en réponse à des guerres et à des histoires politiques controversées, suscitant des inquiétudes quant au shadow banning et des appels à la législation.
Pour mémoire, le shadow banning (ou bannissement furtif) le blocage total ou en partie d'une communauté en ligne d'un utilisateur, ou du contenu qu'il produit, de telle sorte que celui-ci n'en ait pas conscience. Cela se fait en rendant les contributions de l'utilisateur invisibles ou moins visibles auprès des autres membres du service concerné, tout en les gardant généralement visibles par lui même, espérant ainsi que l'absence de réactions va finir par lasser l'utilisateur et amener ce dernier à adapter ses publications, réduire ces dernières, voire carrément quitter la communauté concernée.
Malgré son importance croissante, Facebook n'a pas encore dévoilé son impact sur ce que les gens voient et, comme le montre cet incident, ce qui se passe lorsque le système tourne mal.
En décembre 2016, Facebook a lancé son programme Third party fact-checking, auquel participent plus de 80 médias à travers le monde, généralistes ou spécialisés, pour l'utilisation de leurs "fact-checks" sur sa plateforme, sur WhatsApp et sur Instagram. Précisons que ces médias sont rémunérés pour leur travail. Si une information est diagnostiquée comme fausse ou trompeuse par l'un de ces médias, les utilisateurs sont moins susceptibles de la voir apparaître dans leur fil d'actualité. Et si ceux-ci la voient ou tentent de la partager, la plateforme leur suggère la lecture de l'article de vérification. Ceux qui avaient déjà partagé l’information reçoivent une notification redirigeant vers l’article. Il n'y aucune suppression de publications. Les médias participants sont totalement libres dans le choix et le traitement de leurs sujets.
En 2018, le PDG Mark Zuckerberg a expliqué que le déclassement combat l'impulsion que les gens ont à s'engager intrinsèquement avec un contenu « plus sensationnaliste et provocateur ». « Nos recherches suggèrent que peu importe où nous traçons les limites de ce qui est autorisé, à mesure qu'un élément de contenu se rapproche de cette ligne, les gens s'y engageront davantage en moyenne - même s'ils nous disent après coup qu'ils n'aiment pas le contenu », indiquait-il dans une publication Facebook à l'époque.
Le déclassement supprime non seulement ce que Facebook appelle le contenu « à la limite des infractions », mais également le contenu que ses systèmes d'IA soupçonnent de les violer, mais qui nécessite un examen humain plus approfondi. La société a publié une liste de ce qu'elle rétrograde en septembre dernier, mais n'a pas précisé comment la rétrogradation affecte exactement la distribution du contenu concerné.
Voici les catégories développées spécifiquement pour tenir compte des types de contenu qui ne sont pas interdits par les Standards de la communauté de Facebook, mais qui se rapprochent fortement des limites définies par ces règles, y compris, mais sans s’y limiter :
- la nudité et les actes sexuels limites : le contenu, y compris les liens vers des pages de destination, qui est à la limite d’enfreindre nos règles relatives à la nudité et aux actes sexuels. Par exemple, une photo d’une personne posant de façon sexuellement suggestive, axée sur ses fesses ou son décolleté, et dans laquelle la personne porte très peu de vêtements, ce qui n’enfreint pas notre règle sur la nudité et les actes sexuels ;
- le contenu violent et explicite à la limite de l’infraction : le contenu qui est à la limite d’enfreindre nos règles relatives au contenu violent et explicite. Par exemple, le contenu qui montre des images gore ou explicites de quelque nature que ce soit, comme des images sanglantes d’humains ou d’animaux, de la violence fictive ou des blessures non cicatrisées, ce qui n’enfreint pas notre règle sur le contenu violent et explicite ;
- Harcèlement et intimidation, discours haineux et violence et incitation à la limite de l’infraction : le contenu qui est à la limite d’enfreindre nos règles en matière de harcèlement et d’intimidation, de discours haineux et de violence et incitation. Par exemple, du contenu qui déshumanise des individus ou groupes qui ne sont pas définis par leurs caractéristiques protégées, fait l’éloge ou se moque de violences passées ou adresse des propos grossiers à un groupe ;
- le contenu qui n’enfreint pas nos règles relatives au COVID-19 ou à la vaccination, mais qui diffuse des informations trompeuses ou exagérées sur les vaccins afin de dissuader le public d’aller se faire vacciner ;
- le contenu publié dans des Groupes où nous prévoyons que le contenu a de grandes chances de vendre ou offrir des services interdits par nos Standards de la communauté en matière de marchandises réglementées.
Les responsables ont indiqué qu'ils espéraient faire la lumière sur le fonctionnement des rétrogradations, mais craignent que cela n'aide les adversaires à déjouer le système.
En attendant, les dirigeants de Facebook se vantent régulièrement de la façon dont leurs systèmes d'IA s'améliorent chaque année pour détecter de manière proactive des contenus tels que les discours de haine, accordant une plus grande importance à la technologie comme moyen de modération à grande échelle. L'année dernière, Facebook a annoncé qu'il commencerait à déclasser tout le contenu politique dans le fil d'actualité - dans le cadre des efforts du PDG Mark Zuckerberg pour ramener l'application Facebook à ses racines plus légères.
Sources : rapport de Facebook, Mark Zuckerberg, Meta
Et vous ?
Disposez-vous d'un compte Facebook ?
Estimez-vous que vous avez été plus exposé à du contenu de ces natures (contenant de la nudité, de la violence, mais aussi les fausses informations et des discours haineux) entre octobre et mars ?
Que pensez-vous de la proposition de Massachi qui réclame de Facebook plus de transparence sur son système afin de pouvoir être aidé à détecter les problèmes plus rapidement ?
Comprenez-vous le fait que les responsables Facebook craignent de faire la lumière sur le système de rétrogradation, de peur de voir des personnes le déjouer ?
Voir aussi :
Fake news : Facebook va priver de publicités les pages qui partagent des articles marqués comme faux par les organisations de fact-checking
Facebook et Google s'associent aux médias français et lancent leurs propres outils, pour lutter contre les "fake news" en France
Facebook dévoile ses plans pour lutter contre les fausses actualités, l'entreprise assure de prendre le problème au sérieux