IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des documents faisant l'objet d'une fuite révèlent les règles spéciales que Facebook applique à 5,8 millions de VIP,
Ces personnes peuvent violer les normes sans aucune conséquence

Le , par Nancy Rey

375PARTAGES

17  0 
Selon le Wall Street Journal, Facebook dispose d'un système interne secret qui exempte 5,8 millions d'utilisateurs de l'obligation de respecter les règles sur sa plateforme. Le journal a publié lundi une enquête détaillant comment des utilisateurs très en vue sur ses services, qui sont "dignes d'intérêt", "influents ou populaires, ou "risqués sur le plan des relations publiques", ne font pas l'objet des mêmes mesures d'application que les utilisateurs ordinaires, citant des documents internes de Facebook qu'il a consultés. Facebook a donc mis au point un programme appelé "XCheck" ou "cross check", qui est devenu dans de nombreux cas une liste blanche de facto. Au fil des ans, XCheck a permis à des célébrités, des politiciens, des athlètes, des militants et des journalistes de publier ce qu'ils voulaient, avec peu ou pas de conséquences en cas de violation des règles de l'entreprise. « Pour quelques membres choisis de notre communauté, nous n'appliquons pas nos politiques et nos normes… Contrairement au reste de notre communauté, ces personnes peuvent violer nos normes sans aucune conséquence », peut-on lire dans un rapport interne de Facebook qui a fuité. Au moins 5,8 millions de personnes étaient inscrites au programme XCheck l'année dernière. Cela signifie qu'un grand nombre de personnes influentes sont autorisées à publier de manière largement incontrôlée sur Facebook et Instagram.


Le géant des médias sociaux a reconnu que le programme existait pour les politiciens en 2019, mais les détails de l'étendue et de la mauvaise gestion de XCheck sont nouveaux. Facebook est apparemment conscient des problèmes de XCheck, d'après des extraits du rapport, mais l'entreprise a eu du mal à régler les problèmes. Le programme XCheck a été créé pour éviter les "PR fires", c'est-à-dire les réactions négatives du public qui se produisent lorsque Facebook commet une erreur sur le compte d'un utilisateur très connu.

Lorsque des utilisateurs typiques publient quelque chose qui est signalé par les algorithmes de modération ou retiré par des modérateurs humains, ils peuvent déposer un rapport auprès de Facebook. S'ils n'obtiennent pas gain de cause, ils ne peuvent pas faire grand-chose d'autre.
Mais lorsque des utilisateurs éminents sont modérés, ils peuvent faire part de leurs doléances à leurs abonnés, ce qui crée un problème potentiel de relations publiques. Si les utilisateurs sont des politiciens, ils peuvent demander une réglementation accrue de la plateforme. Ainsi, plutôt que de traiter ces utilisateurs d'élite de la même manière que tout le monde, Facebook les autorise à publier ce qu'ils veulent. Si un message est signalé par un algorithme, il est envoyé à un autre groupe de modérateurs, qui sont des employés à temps plein mieux formés, pour examen.

Pourtant, alors que la liste des utilisateurs s'est allongée, les équipes de modération de XCheck n'ont apparemment pas été en mesure de suivre le rythme. « Nous examinons actuellement moins de 10 % du contenu Xcheck », indique un document. La situation est telle que des utilisateurs d'élite auraient été en mesure de publier toutes sortes de contenus, de la désinformation aux menaces de violence, en passant par la pornographie de vengeance, et bien d'autres choses encore, permettant ainsi à des messages qui violent les politiques de Facebook d'apparaître néanmoins sur les fils d'actualité de milliers ou de millions de personnes.

Des traitements de faveur pour les utilisateurs VIP

Même dans les cas où le contenu est finalement supprimé, Facebook a traité les utilisateurs VIP différemment des autres. Dans les documents qui ont fait l’objet de fuites, le cas de Neymar, le joueur de football brésilien, se distingue. En 2019, il a publié sur ses comptes Facebook et Instagram une vidéo contenant des photos dénudées d'une femme qui l'avait accusé de viol. Il a affirmé qu'elle lui faisait de l'extorsion.

Pour les utilisateurs normaux, la publication d'images intimes non consensuelles déclenche une réaction directe : elle est immédiatement supprimée et le compte de la personne concernée est désactivé. Au lieu de cela, la vidéo de Neymar est restée en ligne pendant plus d'une journée. Les modérateurs habituels n'ont pas pu y toucher, et lorsqu'elle a été retirée par l'équipe XCheck, 56 millions de personnes l'avaient vue. La vidéo a été repostée 6 000 fois, et de nombreux commentateurs ont intimidé et harcelé la femme. Neymar a nié les allégations de viol et aucune plainte n'a été déposée. Mais malgré la publication de ce que Facebook a qualifié de "porno vengeur", le compte de Neymar n'a pas été supprimé.

Rien que l'année dernière, le système de vérification croisée a permis à des contenus enfreignant les règles d'être visionnés plus de 16 milliards de fois avant d'être supprimés, selon des documents internes de Facebook cités par le Wall Street Journal. Le rapport indique également que Facebook a "induit en erreur" son conseil de surveillance, qui a insisté sur son système de vérification croisée en juin lorsqu'il s'est demandé comment l'entreprise devait gérer la suspension indéfinie de Donald Trump. La société avait alors déclaré au conseil que le système n'affectait qu'un "petit nombre" de ses décisions et qu'il n'était "pas faisable" de partager davantage de données. « Le Conseil de surveillance a exprimé à de multiples occasions son inquiétude quant au manque de transparence des processus de modération de contenu de Facebook, notamment en ce qui concerne la gestion incohérente par l'entreprise des comptes très médiatisés. Le Conseil a recommandé à plusieurs reprises que Facebook soit beaucoup plus transparent en général, notamment en ce qui concerne sa gestion des comptes très médiatisés, tout en veillant à ce que ses politiques traitent tous les utilisateurs de manière équitable » a déclaré le Conseil de surveillance dans une déclaration partagée sur Twitter.

Dans une série de tweets, le directeur de la communication de Facebook, Andy Stone, a souligné comment l'entreprise a déjà rendu public son système "Cross-check" en 2018. « En fin de compte, au centre de cette histoire se trouve la propre analyse de Facebook selon laquelle nous devons améliorer le programme. Nous savons que notre application n'est pas parfaite et qu'il y a des compromis entre la vitesse et la précision . Nous avons de nouvelles équipes, de nouvelles ressources, et une refonte du processus qui est un flux de travail existant chez Facebook », a tweeté Stone.

Mark Zuckerberg a longtemps vanté l'un de ses slogans fétiches : les dirigeants de Facebook ne veulent pas que la plateforme soit "l'arbitre de la vérité" ou qu'elle décide de ce qui est vrai ou faux, puis qu'elle laisse en place ou supprime le contenu en conséquence. Mais cette approche non interventionniste a placé Facebook dans une position épineuse, surtout ces dernières années, alors que les critiques affirment que la désinformation est omniprésente sur le site et que certains républicains font croisade contre l'entreprise pour avoir servi un programme libéral et discriminé les conservateurs en ligne. Facebook a pris plusieurs mesures à la lumière de cet examen minutieux : des rapports ont fait surface en juin selon lesquels Facebook cesserait d'accorder aux politiciens un traitement spécial pour l'application de ses règles de contenu.

Sources : Twitter (1, 2) Facebook

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

Facebook empêche ses employés de lire un rapport interne qui examine le rôle et les manquements du réseau social ayant conduit à l'émeute du Capitole. Vous pouvez le lire ici

Mark Zuckerberg aurait discrètement approuvé une modification de l'algorithme de modération de Facebook, qui a réduit le trafic vers les sites d'information progressistes

Modération des contenus : Facebook nomme les premiers membres du Conseil de surveillance indépendant, qui pourront annuler des décisions prises par la société ou le PDG, Mark Zuckerberg

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de emilie77
Membre éprouvé https://www.developpez.com
Le 14/09/2021 à 10:14
Quelqu'un avait des doutes?
11  0 
Avatar de sergio_is_back
Expert éminent https://www.developpez.com
Le 14/09/2021 à 10:45
Citation Envoyé par emilie77 Voir le message
Quelqu'un avait des doutes?
Non, pas moi !
Ça confirme ce je pense des réseaux sociaux et des GAFAMs en général
8  1 
Avatar de Andy Oka
Membre habitué https://www.developpez.com
Le 14/09/2021 à 12:28
Hmmm. Une liste blanche pour les personnes "célèbres".

Évidemment, FaceBook est libre de le faire, puisque c'est son service. Cependant, leurs termes et conditions ne veulent rien dire (les deux sont complètement hors de question).
Sérieusement, si vous n'avez pas déjà supprimé FaceBook.
refusez-leur des actifs supplémentaires (vous et vos informations) à vendre. Vous ne perdez rien en supprimant FaceBook.
6  0 
Avatar de Arya Nawel
Membre extrêmement actif https://www.developpez.com
Le 14/09/2021 à 12:20
Citation Envoyé par emilie77 Voir le message
Quelqu'un avait des doutes?
Pas moi en tout cas

D'abord, j'étais comme : On ne le savait pas déjà ?

Ensuite : WTF 5,8 millions de personnes.
2  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 15/09/2021 à 7:44
Citation Envoyé par Cpt Anderson Voir le message
Ca montre que demander aux GAFA de supprimer des messages et des comptes, ca ne sert à rien, la solution ne se pas à ce niveau. Si on veut lutter contre les extrêmes, il faut soigner le mal à la source. Ça sert à rien de casser le thermomètre. Au contraire, il sert à mesurer le degré de colère des gens.
Je suis partiellement d'accord avec ça,
- les réseaux sociaux sont en effet un moyen de mesurer la colère mais ces outils de mesures ont un gros défaut : ils sont plus sensibles à la colère qu'à la satisfaction ou la neutralité.
- les réseaux sociaux ne sont pas qu'un thermomètre c'est aussi un conducteur, la colère est (peut être) transmise aux contacts. Et le conducteur a pu être bien plus efficace à l'époque où nous étions bloqués chez nous, et pour certains devant les réseaux sociaux. Je l'ai vu à la fin du confinement certaines connaissances étaient devenue bien agressive à propos de dont on ne parlait pas avant, et cette colère commence à revenir à un niveau acceptable en ce moment.
2  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 14/09/2021 à 14:11
D'un côté on l'a bien vu avec Trump sur Twitter, n'importe quel utilisateur aurait été banni 10 fois et personne ne s'en serait plain, mais #TouchePasAMonTrump.
2  3 
Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 14/09/2021 à 14:38
Ca montre que demander aux GAFA de supprimer des messages et des comptes, ca ne sert à rien, la solution ne se pas à ce niveau. Si on veut lutter contre les extrêmes, il faut soigner le mal à la source. Ça sert à rien de casser le thermomètre. Au contraire, il sert à mesurer le degré de colère des gens.
0  1