IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Mark Zuckerberg déclare qu'il n'y a pas de « shadow banning » sur Facebook, mais admet qu'il y a « des millions d'erreurs »
De suppression de contenus sur sa plateforme

Le , par Olivier Famien

146PARTAGES

4  0 
Mark Zuckerberg, le PDG de Meta, l’entreprise mère de Facebook, Instagram et WhatsApp, a eu un échange avec Joe Rogan, le comédien controversé et animateur de podcast, pendant environ 3 h sur divers sujets. Dans cet entretien qui fut sans filtres, Joe Rogan n’a pas hésité à aborder la question de censure du Facebook. Sans faux-fuyants, Rogan a demandé à Zuckerberg s’il n’y avait pas une politique de shadow banning sur la plateforme d’échanges. Bien évidemment, Mark Zuckerberg a répondu par la négative, mais chacun peut se faire son propre jugement au regard des faits et de la politique gestion des sujets controversés sur Facebook.

Le shadow banning se produit lorsqu'une plateforme de médias sociaux interdit au contenu d'un utilisateur de s'afficher sans en avertir l'utilisateur. Dans la plupart des cas, l'utilisateur peut toujours publier et répondre, mais lui seul voit son contenu. Ils ne reçoivent pas d'interdiction ou de notification officielle, d'où le nom shadow ban. Ce point a été abordé lors du podcast de Joe Rogan lorsque l’animateur a souhaité avoir l’avis du PDG de Facebook sur la gestion des informations liées à la publication du contenu de l’ordinateur portable de Hunter Biden qui avait fuité vers la fin de l’année 2020. En 2019, il a été rapporté que Hunter Biden, le fils du président Joe Biden, avocat de profession, a oublié son ordinateur portable dans un magasin informatique du Delaware. Une copie du disque dur a ensuite été remise à l'ancien avocat de Trump Rudy Giuliani en septembre 2020 par le propriétaire du magasin, qui a également partagé le contenu avec le ministère de la Justice. Finalement, une copie du disque dur s'est retrouvée entre les mains du New York Post qui a écrit un article sur ce sujet en octobre 2020.

Selon les récentes déclarations de Zuckerberg, avant la publication de l’article du New York Post, le FBI a interpellé Facebook sur le fait que le contenu de l’ordinateur pourrait être partagé dans le but de polariser l'électorat américain à l'approche des élections. Nous rappelons que lors des élections de 2016, la Russie a été ouvertement accusée par l’administration Obama d’avoir été à l’origine du piratage du parti démocrate le DNC. Lorsque l’article du New York Post a été publié, Facebook a pris les devants pour modérer la propagation sur sa plateforme. « Je pense que cela devait prendre cinq ou sept jours pour déterminer essentiellement si c'était faux », a déclaré Zuckerberg. Et d’ajouter sur le podcast que « la distribution sur Facebook a été réduite, mais les gens étaient toujours autorisés à le partager. Vous pouvez donc toujours le partager. Vous pouvez toujours le consommer ». Lors de la modération de cet article en octobre 2020, Facebook s’est voulu transparent et a fait une publication à travers son représentant Andy Stone en déclarant que « bien que je ne fasse pas intentionnellement de lien avec le New York Post, je veux qu'il soit clair que cette histoire peut être vérifiée par les partenaires tiers de vérification des faits de Facebook. En attendant, nous réduisons sa diffusion sur notre plateforme ».

Ainsi, bien que les utilisateurs de Facebook aient été autorisés à partager l'histoire, elle est apparue dans les fils d'actualité de moins de personnes, ce qui signifie qu'elle a reçu moins de trafic global. Dans ce sens, ne pourrait-on pas parler de shadow banning ;?

Pour se défendre, le PDG de Meta a déclaré ceci à Rogan : « Nous avons juste pensé, hé écoutez, si le FBI - que je considère toujours comme une institution légitime dans ce pays vient nous voir et nous dit que nous devons être sur nos gardes à propos de quelque chose, alors il faut que je prenne cela au sérieux ». Lorsqu'il a été acculé par Rogan afin d’avoir plus d’informations sur la proportion des gens qui n’avaient pas accès à l’article du New York Post, Zuckerberg a répondu qu'il ne savait par cœur le pourcentage, mais il était « significatif ». « Il y a 3 milliards de personnes sur Facebook - si nous nous trompons même 0,1 % du temps, ce sont des millions d'erreurs », souligne le PDG de Facebook. Et de nuancer qu’au fond, « beaucoup de gens ont quand même pu le partager. Nous avons reçu beaucoup de plaintes selon lesquelles c'était le cas ».

Lors de la publication de l’article du New York Post, Facebook n’a pas été la seule plateforme qui a pris des mesures pour limiter sa diffusion. Twitter également en a fait de même en interdisant purement et simplement le partage de cette information. Toutefois, après vérification, Jack Dorsey, le cofondateur et ancien PDG de Twitter a déclaré plus tard que son entreprise avait pris la « mauvaise » décision à ce sujet. Zuckerberg, de son côté, a déclaré pendant le podcast que personne n'était en mesure de dire finalement que l'histoire était fausse. La situation « craint », a-t-il dit, « de la même manière que devoir probablement passer par un procès pénal, mais être innocenté à la fin craint ». Au sujet de la politique de modération appliquée dans cette affaire, il ajouta ceci : « Je ne sais pas si la réponse aurait été de ne rien faire ou de n'avoir aucun processus. Je pense que le processus était assez raisonnable. Nous laissons toujours les gens le partager, mais évidemment, vous ne voulez pas de situations comme ça ». « Notre protocole est différent de celui de Twitter. Ce que Twitter a fait, c'est qu'ils ont dit : “Vous ne pouvez pas du tout partager ça”, nous n'avons pas fait ça. “Si quelque chose nous est signalé comme potentiellement de la désinformation, de la désinformation importante, nous utilisons également ce programme tiers de vérification des faits, car nous ne voulons pas décider ce qui est vrai et faux”.


Bien évidemment, l’action de censurer certaines informations pourrait être perçue comme un pouvoir de décider ce que l’on doit croire ou pas. Pour rassurer les internautes, Zuckerberg déclara ceci au sujet de son travail avec Facebook : “Je ne suis pas entré là-dedans pour juger ces choses. Je me suis lancé dans la conception d'une technologie qui aide les gens à se connecter”. Mais “quand nous supprimons quelque chose que nous ne sommes pas censés faire, c'est le pire”. À la question de savoir comment faire pour savoir si des comptes réels ne sont pas désactivés en croyant qu’il s’agit de bots, Zuckerberg a expliqué qu'il existe de nombreux signaux indiquant si une personne est légitime, comme l'adresse IP et voir d'où elle vient. Mais en fin de compte, le compromis semble être la solution préférable pour régler ce problème à en juger par l’analyse de Zuckerberg : “Vous pouvez soit construire un système et soit être trop agressif et capturer un pourcentage plus élevé de méchants, mais aussi par accident éliminer un certain nombre de bons. Ou vous pouvez être un peu plus indulgent et dire : ‘OK, le coût de l'élimination d'un certain nombre de gentils est trop élevé, nous allons donc tolérer d'avoir un peu plus de méchants dans le système’. Ce sont des questions de valeurs”.

À la suite des déclarations faites par Zuckerberg lors du podcast, le représentant américain de Géorgie, Andrew Clyde, a tweeté : “Ce n'est pas seulement insensé, c'est de l'ingérence électorale. Le Comité de surveillance doit immédiatement inviter Mark Zuckerberg à témoigner — sous serment — ​​sur les tentatives du FBI de contourner le premier amendement. Le peuple américain mérite des réponses et des comptes à rendre”.


Le maire républicain du comté de Knox, dans le Tennessee, l'ancien lutteur Glenn Jacobs, a écrit pour sa part : “Ainsi, une agence du gouvernement fédéral a convaincu une entreprise privée d'interdire une histoire qui s'est avérée vraie et a eu des implications massives sur une élection présidentielle. C'est à la limite du fascisme et cela devrait inquiéter tout le monde”.


Corruption complète, pure et simple. Le FBI et le DOJ doivent fournir des réponses sur les raisons pour lesquelles ils sont intervenus au nom de Joe Biden”, a déclaré le sénateur texan Ted Cruz.

Source :Podcast, Twitter Andrew Clyde, Twitter Glenn Jacobs

Et vous ?

Quels commentaires faites-vous de la politique de modération du contenu sur Facebook ;?

Selon vous, comment Facebook devrait-il gérer les contenus problématiques sur sa plateforme pour éviter les abus ;?

Voir aussi

L'intelligence artificielle de Facebook censure une publicité pour des graines d'oignon au motif de ce qu'elle l'a jugée “ouvertement sexuelle”
L'UE en passe de sous-traiter la censure de l'Internet à Google et Facebook, estime la Quadrature du Net, après le rapport d'un eurodéputé
Facebook aurait mis en place un outil de censure pour revenir en Chine, malgré les craintes d'un abus des droits de l'Homme
Des documents internes secrets révèlent comment Facebook censure les contenus traitant de sujets sensibles comme la violence et la nudité

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 29/08/2022 à 7:28
Bonjour

Mark Zuckerberg déclare qu'il n'y a pas de « shadow banning » sur Facebook, mais admet qu'il y a « des millions d'erreurs » de suppression de contenus sur sa plateforme

Quels commentaires faites-vous de la politique de modération du contenu sur Facebook ;?
1) Utilisation à outrance de robots / boots / IA / algos automatiques.
2) Les programmes automatiques ne tiennent pas compte des contextes.
3) Les programmes n'ont pas de notion de non dits, d'humour, d'esprit critique , de prise de recul ...

Donc il y a des faux positifs.

En farfouillant dans les archives, il y a 5 à 7 millions de faux positifs par trimestre (de mémoire, ou par an ?) .

Selon vous, comment Facebook devrait-il gérer les contenus problématiques sur sa plateforme pour éviter les abus ;?
Cela supposerait une armada de modérateurs, avec qui ont peut envoyer des MP / messages pour contester une décision de censure.

Facebook, reste une entreprise qui doit faire profit. Donc autant supprimer de manière automatique quelque chose qui est bon, même par erreur . On bascule dans la "sur suppression" . Si c'est détecté , c'est que c'est "par défaut" non respectueux de la charte Facebook ^^ .

Comme dit plus haut, un programme informatique, reste une machine qui n'est pas dotée de sensibilité .
1  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 29/08/2022 à 8:21
Citation Envoyé par sanderbe Voir le message
1) Utilisation à outrance de robots / boots / IA / algos automatiques.
2) Les programmes automatiques ne tiennent pas compte des contextes.
3) Les programmes n'ont pas de notion de non dits, d'humour, d'esprit critique , de prise de recul ...

Donc il y a des faux positifs.

En farfouillant dans les archives, il y a 5 à 7 millions de faux positifs par trimestre (de mémoire, ou par an ?) .
Et de faux négatifs, ceux qui sortent consciemment des clous ont aussi appris à contourner efficacement ces systèmes.

Pourquoi n'existe t il pas de vrai moyen de contester la modération?
1. Ca couterais un bras
2. Une personne se trouverais devant une situation difficile à évaluer, donc risque de se tromper. Facebook devrait alors justifier des tonnes de cas que l'utilisateur estime mal géré.
3. Si deux personnes traitent le même sujet, elles risquent de faire deux analyses différentes. Facebook se retrouverait attaquer pour ne pas être clair (Youtube vit ça)

Attention : ceci n'excuse rien. Facebook gère la modération n'importe comment. mais ça explique leur lâcheté.
0  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 30/08/2022 à 14:24
Citation Envoyé par totozor  Voir le message
Facebook gère la modération n'importe comment. mais ça explique leur lâcheté.[/B]

C'est pire que ça: ils refilent le plus gros de la modération humaine à des sociétés de service. Il y avait un Cash Investigation qui en parlait et qui montrait comment la modération FB était faite par des gens en Espagne payés au lance-pierre (Cap Gemini ou Accenture, je ne sais plus), qui avaient des traumatismes importants du fait de toutes les cochonneries qu'ils voyaient dans la journée...
0  0 
Avatar de
https://www.developpez.com
Le 30/08/2022 à 16:15
Bonjour,

Citation Envoyé par kain_tn Voir le message
Il y avait un Cash Investigation qui en parlait et qui montrait comment la modération FB était faite par des gens en [...] payés au lance-pierre
Au Portugal pour être précis et le reportage date de 2018 ou 2019
0  0