
Des contenus identifiés comme trompeurs ou problématiques ont été mis en avant par erreur sur les fils d'utilisateurs de Facebook ces derniers mois, à cause d'un problème informatique qui a mis six mois à être réparé, selon un rapport.
Les ingénieurs de Facebook ont remarqué le problème pour la première fois en octobre dernier, lorsqu'une vague soudaine de désinformation a commencé à circuler dans les fils d'actualités, note le rapport, qui a été partagé au sein de l'entreprise la semaine dernière. Au lieu de supprimer les messages de récidivistes de la désinformation qui ont été examinés par le réseau de vérificateurs de faits externes de l'entreprise, le fil d'actualité a plutôt distribué les messages, augmentant le nombre de vues jusqu'à 30 % dans le monde. Incapables de trouver la cause profonde, les ingénieurs ont vu la poussée s'atténuer quelques semaines plus tard, puis s'embraser à plusieurs reprises jusqu'à ce que le problème de classement soit résolu le 11 mars.
En plus des publications signalées par les vérificateurs des faits, l'enquête interne a révélé que, pendant la période de bogue, les systèmes de Facebook n'avaient pas correctement rétrogradé la nudité probable, la violence et même les médias d'État russes que le réseau social s'est récemment engagé à cesser de recommander en réponse à l'invasion de l'Ukraine. Le problème a été désigné en interne comme un SEV (Site Event) de niveau un – une étiquette réservée aux crises techniques hautement prioritaires, comme le blocage continu de Facebook et Instagram par la Russie.
Le porte-parole de Meta, Joe Osborne, a confirmé l'incident dans une déclaration, affirmant que la société « avait détecté des incohérences dans le déclassement à cinq reprises, ce qui était corrélé à de petites augmentations temporaires des mesures internes ». Tentant de minimiser l'impact Joe Osborne de Facebook a affirmé que l'incident n'a concerné qu'un « très petit nombre de vues » : « L'écrasante majorité des contenus du fil d'actualité ne peuvent pas être déclassés », a-t-il expliqué.
Les documents internes indiquent que le problème technique a été introduit pour la première fois en 2019 mais n'a pas créé d'impact notable avant octobre 2021. « Nous avons retracé la cause première d'un bogue logiciel et appliqué les correctifs nécessaires », a déclaré Osborne, ajoutant que les autres mécanismes conçus pour éviter d'exposer les utilisateurs aux contenus dits « nuisibles » étaient bien restés en place - comme « les autres rétrogradations, les avertissements de fact-checking et les retraits ».
« Dans un grand système complexe comme celui-ci, les bogues sont inévitables et compréhensibles », a déclaré Massachi, qui est maintenant cofondateur de l'Institut à but non lucratif Integrity. « Mais que se passe-t-il lorsqu'une plateforme sociale puissante présente l'un de ces défauts accidentels ? Comment saurions-nous même ? Nous avons besoin d'une réelle transparence pour construire un système durable de responsabilité, afin que nous puissions les aider à détecter ces problèmes rapidement ».
Une multiplication de ses outils pour combattre des contenus contraires à sa politique d'utilisation
Pendant des années, Facebook a présenté le déclassement comme un moyen d'améliorer la qualité du fil d'actualité et a régulièrement élargi les types de contenu sur lesquels agit son système automatisé. Le déclassement a été utilisé en réponse à des guerres et à des histoires politiques controversées, suscitant des inquiétudes quant au shadow banning et des appels à la législation.
Pour mémoire, le shadow banning (ou bannissement furtif) le blocage total ou en partie d'une communauté en ligne d'un utilisateur, ou du contenu qu'il produit, de telle sorte que celui-ci n'en ait pas conscience. Cela se fait en rendant les contributions de l'utilisateur invisibles ou moins visibles auprès des autres membres du service concerné, tout en les gardant généralement visibles par lui même, espérant ainsi que l'absence de réactions va finir par lasser l'utilisateur et amener ce dernier à adapter ses publications, réduire ces dernières, voire carrément quitter la communauté concernée.
Malgré son importance croissante, Facebook n'a pas encore dévoilé son impact sur ce que les gens voient et, comme le montre cet incident, ce qui se passe lorsque le système tourne mal.
En décembre 2016, Facebook a lancé son programme Third party fact-checking, auquel participent plus de 80 médias à travers le monde, généralistes ou spécialisés, pour l'utilisation de leurs "fact-checks" sur sa plateforme, sur WhatsApp et sur Instagram. Précisons que ces médias sont rémunérés pour leur travail. Si une information est diagnostiquée comme fausse ou trompeuse par l'un de ces médias, les utilisateurs sont moins susceptibles de la voir apparaître dans leur fil d'actualité. Et si ceux-ci la voient ou tentent de la partager, la plateforme leur suggère la lecture de l'article de vérification. Ceux qui avaient déjà partagé l’information reçoivent une notification redirigeant vers l’article. Il n'y aucune suppression de publications. Les médias participants sont totalement libres dans le choix et le traitement de leurs sujets.
En 2018, le PDG Mark Zuckerberg a expliqué que le déclassement combat l'impulsion que les gens ont à s'engager intrinsèquement avec un contenu « plus sensationnaliste et provocateur ». « Nos recherches suggèrent que peu importe où nous traçons les limites de ce qui est autorisé, à mesure qu'un élément de contenu se rapproche de cette ligne, les gens s'y engageront davantage en moyenne - même s'ils nous disent après coup qu'ils n'aiment pas le contenu », indiquait-il dans une publication Facebook à l'époque.
Le déclassement supprime non seulement ce que Facebook appelle le contenu « à la limite des infractions », mais également le contenu que ses systèmes d'IA soupçonnent de les violer, mais qui nécessite un examen humain plus approfondi. La société a publié une liste de ce qu'elle rétrograde en septembre dernier, mais n'a pas précisé comment la rétrogradation affecte exactement la distribution du contenu concerné.
Voici les catégories développées spécifiquement pour tenir compte des types de contenu qui ne sont pas interdits par les Standards de la communauté de Facebook, mais qui se rapprochent fortement des limites définies par ces règles, y compris, mais sans s’y limiter :
[LIST][*]la nudité et les actes sexuels limites : le contenu, y compris les liens vers des pages de destination, qui est à la limite d’enfreindre nos règles relatives à la nudité et aux actes sexuels. Par exemple, une photo d’une personne posant de façon sexuellement suggestive, axée sur ses fesses ou son décolleté, et dans laquelle la personne porte très peu de vêtements, ce qui n’enfreint pas notre règle sur la nudité et les actes sexuels ;[*]le contenu violent et explicite à la limite de l’infraction : le contenu qui est à la limite d’enfreindre nos règles relatives au contenu violent et explicite. Par exemple, le contenu qui montre des images gore ou explicites de quelque nature que ce soit, comme des images sanglantes d’humains ou d’animaux, de la violence fictive ou des...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.