Les ingénieurs de Facebook ont découvert un « échec massif de classement » sur son fil d'actualité qui distribuait de manière disproportionnée des publications contenant de la nudité, de la violence et des informations trompeuses, telles que déterminées par des vérificateurs de faits tiers indépendants, selon un rapport. Le problème identifié par les ingénieurs concerne l’algorithme chargé de faire remonter, ou au contraire, de rétrograder, des contenus en fonction d’une classification (les contenus contenant de la nudité, de la violence, mais aussi les fausses informations et les contenus haineux) : plutôt que de censurer les messages de récidivistes de la désinformation qui ont été évalués par le réseau de vérificateurs de faits extérieurs de l'entreprise, le fil d'actualité les a distribués entre octobre et mars, augmentant le nombre de vues jusqu'à 30 % à l'échelle internationale. D'après les notes internes, le bogue date de 2019, mais n'a provoqué ses premiers effets qu’en octobre 2021.Des contenus identifiés comme trompeurs ou problématiques ont été mis en avant par erreur sur les fils d'utilisateurs de Facebook ces derniers mois, à cause d'un problème informatique qui a mis six mois à être réparé, selon un rapport.
Les ingénieurs de Facebook ont remarqué le problème pour la première fois en octobre dernier, lorsqu'une vague soudaine de désinformation a commencé à circuler dans les fils d'actualités, note le rapport, qui a été partagé au sein de l'entreprise la semaine dernière. Au lieu de supprimer les messages de récidivistes de la désinformation qui ont été examinés par le réseau de vérificateurs de faits externes de l'entreprise, le fil d'actualité a plutôt distribué les messages, augmentant le nombre de vues jusqu'à 30 % dans le monde. Incapables de trouver la cause profonde, les ingénieurs ont vu la poussée s'atténuer quelques semaines plus tard, puis s'embraser à plusieurs reprises jusqu'à ce que le problème de classement soit résolu le 11 mars.
En plus des publications signalées par les vérificateurs des faits, l'enquête interne a révélé que, pendant la période de bogue, les systèmes de Facebook n'avaient pas correctement rétrogradé la nudité probable, la violence et même les médias d'État russes que le réseau social s'est récemment engagé à cesser de recommander en réponse à l'invasion de l'Ukraine. Le problème a été désigné en interne comme un SEV (Site Event) de niveau un – une étiquette réservée aux crises techniques hautement prioritaires, comme le blocage continu de Facebook et Instagram par la Russie.
Le porte-parole de Meta, Joe Osborne, a confirmé l'incident dans une déclaration, affirmant que la société « avait détecté des incohérences dans le déclassement à cinq reprises, ce qui était corrélé à de petites augmentations temporaires des mesures internes ». Tentant de minimiser l'impact Joe Osborne de Facebook a affirmé que l'incident n'a concerné qu'un « très petit nombre de vues » : « L'écrasante majorité des contenus du fil d'actualité ne peuvent pas être déclassés », a-t-il expliqué.
Les documents internes indiquent que le problème technique a été introduit pour la première fois en 2019 mais n'a pas créé d'impact notable avant octobre 2021. « Nous avons retracé la cause première d'un bogue logiciel et appliqué les correctifs nécessaires », a déclaré Osborne, ajoutant que les autres mécanismes conçus pour éviter d'exposer les utilisateurs aux contenus dits « nuisibles » étaient bien restés en place - comme « les autres rétrogradations, les avertissements de fact-checking et les retraits ».
« Dans un grand système complexe comme celui-ci, les bogues sont inévitables et compréhensibles », a déclaré Massachi, qui est maintenant cofondateur de l'Institut à but non lucratif Integrity. « Mais que se passe-t-il lorsqu'une plateforme sociale puissante présente l'un de ces défauts accidentels ? Comment saurions-nous même ? Nous avons besoin d'une réelle transparence pour construire un système durable de responsabilité, afin que nous puissions les aider à détecter ces problèmes rapidement ».
Une multiplication de ses outils pour combattre des contenus contraires à sa politique d'utilisation
Pendant des années, Facebook a présenté le déclassement comme un moyen d'améliorer la qualité du fil d'actualité et a régulièrement élargi les types de contenu sur lesquels agit son système automatisé. Le déclassement a été utilisé en réponse à des guerres et à des histoires politiques controversées, suscitant des inquiétudes quant au shadow banning et des appels à la législation.
Pour mémoire, le shadow...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Disposez-vous d'un compte Facebook ?