IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un « bogue » dans l'algorithme de Facebook a engendré une mise en avant de la désinformation sur des fils d'actualités
Il n'a été corrigé que six mois plus tard

Le , par Stéphane le calme

648PARTAGES

12  0 
Les ingénieurs de Facebook ont ​​découvert un « échec massif de classement » sur son fil d'actualité qui distribuait de manière disproportionnée des publications contenant de la nudité, de la violence et des informations trompeuses, telles que déterminées par des vérificateurs de faits tiers indépendants, selon un rapport. Le problème identifié par les ingénieurs concerne l’algorithme chargé de faire remonter, ou au contraire, de rétrograder, des contenus en fonction d’une classification (les contenus contenant de la nudité, de la violence, mais aussi les fausses informations et les contenus haineux) : plutôt que de censurer les messages de récidivistes de la désinformation qui ont été évalués par le réseau de vérificateurs de faits extérieurs de l'entreprise, le fil d'actualité les a distribués entre octobre et mars, augmentant le nombre de vues jusqu'à 30 % à l'échelle internationale. D'après les notes internes, le bogue date de 2019, mais n'a provoqué ses premiers effets qu’en octobre 2021.

Des contenus identifiés comme trompeurs ou problématiques ont été mis en avant par erreur sur les fils d'utilisateurs de Facebook ces derniers mois, à cause d'un problème informatique qui a mis six mois à être réparé, selon un rapport.

Les ingénieurs de Facebook ont remarqué le problème pour la première fois en octobre dernier, lorsqu'une vague soudaine de désinformation a commencé à circuler dans les fils d'actualités, note le rapport, qui a été partagé au sein de l'entreprise la semaine dernière. Au lieu de supprimer les messages de récidivistes de la désinformation qui ont été examinés par le réseau de vérificateurs de faits externes de l'entreprise, le fil d'actualité a plutôt distribué les messages, augmentant le nombre de vues jusqu'à 30 % dans le monde. Incapables de trouver la cause profonde, les ingénieurs ont vu la poussée s'atténuer quelques semaines plus tard, puis s'embraser à plusieurs reprises jusqu'à ce que le problème de classement soit résolu le 11 mars.

En plus des publications signalées par les vérificateurs des faits, l'enquête interne a révélé que, pendant la période de bogue, les systèmes de Facebook n'avaient pas correctement rétrogradé la nudité probable, la violence et même les médias d'État russes que le réseau social s'est récemment engagé à cesser de recommander en réponse à l'invasion de l'Ukraine. Le problème a été désigné en interne comme un SEV (Site Event) de niveau un – une étiquette réservée aux crises techniques hautement prioritaires, comme le blocage continu de Facebook et Instagram par la Russie.

Le porte-parole de Meta, Joe Osborne, a confirmé l'incident dans une déclaration, affirmant que la société « avait détecté des incohérences dans le déclassement à cinq reprises, ce qui était corrélé à de petites augmentations temporaires des mesures internes ». Tentant de minimiser l'impact Joe Osborne de Facebook a affirmé que l'incident n'a concerné qu'un « très petit nombre de vues » : « L'écrasante majorité des contenus du fil d'actualité ne peuvent pas être déclassés », a-t-il expliqué.

Les documents internes indiquent que le problème technique a été introduit pour la première fois en 2019 mais n'a pas créé d'impact notable avant octobre 2021. « Nous avons retracé la cause première d'un bogue logiciel et appliqué les correctifs nécessaires », a déclaré Osborne, ajoutant que les autres mécanismes conçus pour éviter d'exposer les utilisateurs aux contenus dits « nuisibles » étaient bien restés en place - comme « les autres rétrogradations, les avertissements de fact-checking et les retraits ».

« Dans un grand système complexe comme celui-ci, les bogues sont inévitables et compréhensibles », a déclaré Massachi, qui est maintenant cofondateur de l'Institut à but non lucratif Integrity. « Mais que se passe-t-il lorsqu'une plateforme sociale puissante présente l'un de ces défauts accidentels ? Comment saurions-nous même ? Nous avons besoin d'une réelle transparence pour construire un système durable de responsabilité, afin que nous puissions les aider à détecter ces problèmes rapidement ».


Une multiplication de ses outils pour combattre des contenus contraires à sa politique d'utilisation

Pendant des années, Facebook a présenté le déclassement comme un moyen d'améliorer la qualité du fil d'actualité et a régulièrement élargi les types de contenu sur lesquels agit son système automatisé. Le déclassement a été utilisé en réponse à des guerres et à des histoires politiques controversées, suscitant des inquiétudes quant au shadow banning et des appels à la législation.

Pour mémoire, le shadow banning (ou bannissement furtif) le blocage total ou en partie d'une communauté en ligne d'un utilisateur, ou du contenu qu'il produit, de telle sorte que celui-ci n'en ait pas conscience. Cela se fait en rendant les contributions de l'utilisateur invisibles ou moins visibles auprès des autres membres du service concerné, tout en les gardant généralement visibles par lui même, espérant ainsi que l'absence de réactions va finir par lasser l'utilisateur et amener ce dernier à adapter ses publications, réduire ces dernières, voire carrément quitter la communauté concernée.

Malgré son importance croissante, Facebook n'a pas encore dévoilé son impact sur ce que les gens voient et, comme le montre cet incident, ce qui se passe lorsque le système tourne mal.

En décembre 2016, Facebook a lancé son programme Third party fact-checking, auquel participent plus de 80 médias à travers le monde, généralistes ou spécialisés, pour l'utilisation de leurs "fact-checks" sur sa plateforme, sur WhatsApp et sur Instagram. Précisons que ces médias sont rémunérés pour leur travail. Si une information est diagnostiquée comme fausse ou trompeuse par l'un de ces médias, les utilisateurs sont moins susceptibles de la voir apparaître dans leur fil d'actualité. Et si ceux-ci la voient ou tentent de la partager, la plateforme leur suggère la lecture de l'article de vérification. Ceux qui avaient déjà partagé l’information reçoivent une notification redirigeant vers l’article. Il n'y aucune suppression de publications. Les médias participants sont totalement libres dans le choix et le traitement de leurs sujets.

En 2018, le PDG Mark Zuckerberg a expliqué que le déclassement combat l'impulsion que les gens ont à s'engager intrinsèquement avec un contenu « plus sensationnaliste et provocateur ». « Nos recherches suggèrent que peu importe où nous traçons les limites de ce qui est autorisé, à mesure qu'un élément de contenu se rapproche de cette ligne, les gens s'y engageront davantage en moyenne - même s'ils nous disent après coup qu'ils n'aiment pas le contenu », indiquait-il dans une publication Facebook à l'époque.

Le déclassement supprime non seulement ce que Facebook appelle le contenu « à la limite des infractions », mais également le contenu que ses systèmes d'IA soupçonnent de les violer, mais qui nécessite un examen humain plus approfondi. La société a publié une liste de ce qu'elle rétrograde en septembre dernier, mais n'a pas précisé comment la rétrogradation affecte exactement la distribution du contenu concerné.

Voici les catégories développées spécifiquement pour tenir compte des types de contenu qui ne sont pas interdits par les Standards de la communauté de Facebook, mais qui se rapprochent fortement des limites définies par ces règles, y compris, mais sans s’y limiter :
  • la nudité et les actes sexuels limites : le contenu, y compris les liens vers des pages de destination, qui est à la limite d’enfreindre nos règles relatives à la nudité et aux actes sexuels. Par exemple, une photo d’une personne posant de façon sexuellement suggestive, axée sur ses fesses ou son décolleté, et dans laquelle la personne porte très peu de vêtements, ce qui n’enfreint pas notre règle sur la nudité et les actes sexuels ;
  • le contenu violent et explicite à la limite de l’infraction : le contenu qui est à la limite d’enfreindre nos règles relatives au contenu violent et explicite. Par exemple, le contenu qui montre des images gore ou explicites de quelque nature que ce soit, comme des images sanglantes d’humains ou d’animaux, de la violence fictive ou des blessures non cicatrisées, ce qui n’enfreint pas notre règle sur le contenu violent et explicite ;
  • Harcèlement et intimidation, discours haineux et violence et incitation à la limite de l’infraction : le contenu qui est à la limite d’enfreindre nos règles en matière de harcèlement et d’intimidation, de discours haineux et de violence et incitation. Par exemple, du contenu qui déshumanise des individus ou groupes qui ne sont pas définis par leurs caractéristiques protégées, fait l’éloge ou se moque de violences passées ou adresse des propos grossiers à un groupe ;
  • le contenu qui n’enfreint pas nos règles relatives au COVID-19 ou à la vaccination, mais qui diffuse des informations trompeuses ou exagérées sur les vaccins afin de dissuader le public d’aller se faire vacciner ;
  • le contenu publié dans des Groupes où nous prévoyons que le contenu a de grandes chances de vendre ou offrir des services interdits par nos Standards de la communauté en matière de marchandises réglementées.

Les responsables ont indiqué qu'ils espéraient faire la lumière sur le fonctionnement des rétrogradations, mais craignent que cela n'aide les adversaires à déjouer le système.

En attendant, les dirigeants de Facebook se vantent régulièrement de la façon dont leurs systèmes d'IA s'améliorent chaque année pour détecter de manière proactive des contenus tels que les discours de haine, accordant une plus grande importance à la technologie comme moyen de modération à grande échelle. L'année dernière, Facebook a annoncé qu'il commencerait à déclasser tout le contenu politique dans le fil d'actualité - dans le cadre des efforts du PDG Mark Zuckerberg pour ramener l'application Facebook à ses racines plus légères.

Sources : rapport de Facebook, Mark Zuckerberg, Meta

Et vous ?

Disposez-vous d'un compte Facebook ?
Estimez-vous que vous avez été plus exposé à du contenu de ces natures (contenant de la nudité, de la violence, mais aussi les fausses informations et des discours haineux) entre octobre et mars ?
Que pensez-vous de la proposition de Massachi qui réclame de Facebook plus de transparence sur son système afin de pouvoir être aidé à détecter les problèmes plus rapidement ?
Comprenez-vous le fait que les responsables Facebook craignent de faire la lumière sur le système de rétrogradation, de peur de voir des personnes le déjouer ?

Voir aussi :

Fake news : Facebook va priver de publicités les pages qui partagent des articles marqués comme faux par les organisations de fact-checking
Facebook et Google s'associent aux médias français et lancent leurs propres outils, pour lutter contre les "fake news" en France
Facebook dévoile ses plans pour lutter contre les fausses actualités, l'entreprise assure de prendre le problème au sérieux

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de droggo
Expert confirmé https://www.developpez.com
Le 03/04/2022 à 12:13
Bonjour,

Ouais, comme d'habitude, on accuse un bug pour faire passer les salo....ies de cette plateforme dont le seul but est le pognon
8  1 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 03/04/2022 à 19:21
un bug ? connaissant facebook, c'est plutot surement une fonctionnalité !
5  1 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 03/04/2022 à 21:01
Citation Envoyé par cobalt3d Voir le message
Autrement dit, au moins pour le covid, retour de la censure de la libre expression et avantage à la désinformation gouvernementale qui sera de nouveau privilégiée par rapport aux doutes raisonnables du public.
Surtout quand on voit la censure déclenchée par des mots-clefs sur le covid dans YouTube. Les personnes qui disent que YT censure uniquement des conneries du genre "le vaccin donne la 5G" ou "le vaccin est un génocide mondial" mentent. YT censure la moindre information dissidente sur le covid. https://support.google.com/youtube/a.../9891785?hl=fr

À ce niveau GRAVISIME de censure, je conseille le boycott de YouTube, avec l'aide d'Invidious ou de n'importe quel autre front-end alternatif.
3  0 
Avatar de cobalt3d
Membre du Club https://www.developpez.com
Le 03/04/2022 à 12:27
Autrement dit, au moins pour le covid, retour de la censure de la libre expression et avantage à la désinformation gouvernementale qui sera de nouveau privilégiée par rapport aux doutes raisonnables du public.
3  1 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 03/04/2022 à 20:40
Citation Envoyé par droggo Voir le message
Bonjour,

Ouais, comme d'habitude, on accuse un bug pour faire passer les salo....ies de cette plateforme dont le seul but est le pognon
Parce que les images sexuellement suggestives et les images de blessures sont des salo....ies ??!
1  0 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 03/04/2022 à 20:33
Citation Envoyé par Stéphane le calme Voir le message
« Dans un grand système complexe comme celui-ci, les bogues sont inévitables et compréhensibles », a déclaré Massachi, qui est maintenant cofondateur de l'Institut à but non lucratif Integrity. « Mais que se passe-t-il lorsqu'une plateforme sociale puissante présente l'un de ces défauts accidentels ? Comment saurions-nous même ? Nous avons besoin d'une réelle transparence pour construire un système durable de responsabilité, afin que nous puissions les aider à détecter ces problèmes rapidement ».
Donc même détecter les problèmes qui n'en sont pas...

En décembre 2016, Facebook a lancé son programme Third party fact-checking, auquel participent plus de 80 médias à travers le monde, généralistes ou spécialisés, pour l'utilisation de leurs "fact-checks" sur sa plateforme, sur WhatsApp et sur Instagram. Précisons que ces médias sont rémunérés pour leur travail. Si une information est diagnostiquée comme fausse ou trompeuse par l'un de ces médias, les utilisateurs sont moins susceptibles de la voir apparaître dans leur fil d'actualité. Et si ceux-ci la voient ou tentent de la partager, la plateforme leur suggère la lecture de l'article de vérification. Ceux qui avaient déjà partagé l’information reçoivent une notification redirigeant vers l’article. Il n'y aucune suppression de publications. Les médias participants sont totalement libres dans le choix et le traitement de leurs sujets.
Complètement injustifié est abusif (un média peu tout tout à fait "fact-checker" en fonction de son opinion). Je conseille plutôt l'utilisation d'outils participatifs, comme Captainfact : https://captainfact.io/

En 2018, le PDG Mark Zuckerberg a expliqué que le déclassement combat l'impulsion que les gens ont à s'engager intrinsèquement avec un contenu « plus sensationnaliste et provocateur ». « Nos recherches suggèrent que peu importe où nous traçons les limites de ce qui est autorisé, à mesure qu'un élément de contenu se rapproche de cette ligne, les gens s'y engageront davantage en moyenne - même s'ils nous disent après coup qu'ils n'aiment pas le contenu », indiquait-il dans une publication Facebook à l'époque.
Zuckerberg à raison, mais c'est le principe même des recommandations qui conduit à cette situation. Le déclassement ne peut rien faire contre ça.

[*]la nudité et les actes sexuels limites : le contenu, y compris les liens vers des pages de destination, qui est à la limite d’enfreindre nos règles relatives à la nudité et aux actes sexuels. Par exemple, une photo d’une personne posant de façon sexuellement suggestive, axée sur ses fesses ou son décolleté, et dans laquelle la personne porte très peu de vêtements, ce qui n’enfreint pas notre règle sur la nudité et les actes sexuels ;
Complètement puritain, abusif et illégitime.

[*]le contenu violent et explicite à la limite de l’infraction : le contenu qui est à la limite d’enfreindre nos règles relatives au contenu violent et explicite. Par exemple, le contenu qui montre des images gore ou explicites de quelque nature que ce soit, comme des images sanglantes d’humains ou d’animaux, de la violence fictive ou des blessures non cicatrisées, ce qui n’enfreint pas notre règle sur le contenu violent et explicite ;
Abusif et illégitime aussi.

[*]Harcèlement et intimidation, discours haineux et violence et incitation à la limite de l’infraction : le contenu qui est à la limite d’enfreindre nos règles en matière de harcèlement et d’intimidation, de discours haineux et de violence et incitation. Par exemple, du contenu qui déshumanise des individus ou groupes qui ne sont pas définis par leurs caractéristiques protégées, fait l’éloge ou se moque de violences passées ou adresse des propos grossiers à un groupe ;
Légitime, même si la définition de "contenu haineux" est malheureusement instrumentalisée politiquement.

[*]le contenu qui n’enfreint pas nos règles relatives au COVID-19 ou à la vaccination, mais qui diffuse des informations trompeuses ou exagérées sur les vaccins afin de dissuader le public d’aller se faire vacciner ;
Du grand n'importe quoi.

[*]le contenu publié dans des Groupes où nous prévoyons que le contenu a de grandes chances de vendre ou offrir des services interdits par nos Standards de la communauté en matière de marchandises réglementées.
Je n'ai pas trop d'avis, mais cela concerne peut être des substances illicites.

Je pense que les catégories 1, 2 et 4 sont victimes de censures abusives. Seul le déclassement de la 3 est légitime, et peut être la 5.

En attendant, les dirigeants de Facebook se vantent régulièrement de la façon dont leurs systèmes d'IA s'améliorent chaque année pour détecter de manière proactive des contenus tels que les discours de haine, accordant une plus grande importance à la technologie comme moyen de modération à grande échelle. L'année dernière, Facebook a annoncé qu'il commencerait à déclasser tout le contenu politique dans le fil d'actualité - dans le cadre des efforts du PDG Mark Zuckerberg pour ramener l'application Facebook à ses racines plus légères.
L'IA n'est pas est ne sera jamais une solution face à une modération à une échelle démesurée. Une plate-forme centralisée est impossible à modérer, mais vulnérable à une censure massive.

Disposez-vous d'un compte Facebook ?
Non . Je n'ai pas pas envie de me faire voler mes informations personnelles.

Estimez-vous que vous avez été plus exposé à du contenu de ces natures (contenant de la nudité, de la violence, mais aussi les fausses informations et des discours haineux) entre octobre et mars ?
Je ne consulte pas suffisamment de compte Facebook pour me rendre compte.

Que pensez-vous de la proposition de Massachi qui réclame de Facebook plus de transparence sur son système afin de pouvoir être aidé à détecter les problèmes plus rapidement ?
Le problème est que j'estime que ce bug n'est pas un problème. Le problème c'est sa correction.

Comprenez-vous le fait que les responsables Facebook craignent de faire la lumière sur le système de rétrogradation, de peur de voir des personnes le déjouer ?
Comme je suis contre le système de rétrogradation, je m'en f*** pas mal.

Enfin, je rappel ça : https://winaero.com/follow-winaero-o...ember-19-2019/ Un exemple parmi d'autres de censure inexplicable (sans aucune justification).

More recently, we faced some unacceptable behavior from Facebook. For some unspecified reason they directly suspended our page. Starting in October 2019, they were giving warnings without being specific about anything but vaguely stating community rules violation. I am aware of their rules, and have also checked them once again for any revised policies. Winaero has done nothing to violate them. What's worse is that Facebook's support is refusing to reveal what exactly is being violated.
0  0