IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Facebook bloque l'accès aux données sur la quantité de fausses informations qu'il diffuse et sur les personnes concernées,
Selon l'universitaire Ethan Zuckerman

Le , par Bill Fassinou

144PARTAGES

5  0 
Ces dernières années, l'expression "désinformation en ligne" fait directement penser aux réseaux sociaux, en particulier Facebook. Ce dernier doit faire face à des dizaines d'accusations sur le sujet, et les choses ne vont pas en s'améliorant. Dans un récent billet de blogue, Ethan Zuckerman - professeur associé de politique publique, de communication et d'information à l'université du Massachusetts à Amherst - a déclaré que Facebook a un problème de désinformation. Il allègue que la société est non seulement consciente de ce fait, mais blogue également l'accès aux données sur l'ampleur de la désinformation et les personnes concernées.

Une vue globale de la désinformation médicale sur Facebook

Facebook est réputé pour être la principale chambre d'écho pour la désinformation politique, le changement climatique et plus récemment, la pandémie de la Covid-19 et les vaccins contre la maladie. Plusieurs documents internes ayant fait l'objet d'une fuite suggèrent que Facebook fait bien pire que ce qu'il prétend pour minimiser la désinformation sur le vaccin Covid-19 sur le réseau social. À titre d'exemple, une étude a montré que les personnes s'informant sur la pandémie avec Facebook étaient beaucoup plus susceptibles de résister au vaccin Covid-19 que celles qui recevaient leurs informations de sources médiatiques traditionnelles.



« En tant que chercheur qui étudie les médias sociaux et civiques, je pense qu'il est essentiel de comprendre comment la désinformation se propage en ligne. Mais c'est plus facile à dire qu'à faire. Le simple fait de compter les cas de désinformation trouvés sur une plateforme de médias sociaux laisse deux questions essentielles sans réponse : quelle est la probabilité que les utilisateurs soient confrontés à la désinformation, et certains utilisateurs sont-ils particulièrement susceptibles d'être affectés par la désinformation ? Ces questions constituent le problème du dénominateur et le problème de la distribution », a déclaré Zuckerman.

Une autre étude sur la désinformation liée à la Covid-19, intitulée "L'algorithme de Facebook : une menace majeure pour la santé publique", publiée par le groupe de défense de l'intérêt public Avaaz en août 2020, a révélé que les sources qui diffusaient fréquemment des informations erronées sur la santé - 82 sites Web et 42 pages Facebook - avaient une portée totale estimée à 3,8 milliards de vues en un an. À première vue, c'est un chiffre stupéfiant. Mais Zuckerman estime qu'il s'agit du numérateur. Pour comprendre ce que signifient 3,8 milliards de vues en un an, il faut aussi trouver le dénominateur de la fraction.

Selon Zuckerman, un dénominateur possible est les 2,9 milliards d'utilisateurs actifs mensuels de Facebook, auquel cas, en moyenne, chaque utilisateur de Facebook a été exposé à au moins une information provenant de ces sources de désinformation sur la santé. Mais il s'agit de 3,8 milliards de vues de contenu, et non d'utilisateurs discrets. Eh bien, combien d'informations l'utilisateur moyen de Facebook rencontre-t-il en un an ? Il rapporte que le réseau social ne divulgue pas cette information. Les études de marché estiment que les utilisateurs de Facebook passent entre 19 et 38 minutes par jour sur la plateforme.

Toutefois, si les 1,93 milliard d'utilisateurs actifs quotidiens de Facebook voient en moyenne 10 publications au cours de leurs sessions quotidiennes - une estimation très prudente - le dénominateur de ces 3,8 milliards d'informations par an pourrait être de 7,044 milliards (1,93 milliard d'utilisateurs quotidiens fois 10 publications quotidiennes fois 365 jours par an). Cela signifie qu'environ 0,05 % du contenu de Facebook est constitué de publications de ces pages Facebook suspectes. Selon le professeur, le chiffre de 3,8 milliards de vues englobe tout le contenu publié sur ces pages, y compris le contenu inoffensif pour la santé.

Alors, est-il inquiétant qu'il y ait suffisamment de fausses informations sur Facebook pour que tout le monde en ait probablement rencontré au moins un cas ? Ou est-ce rassurant de savoir que 99,95 % de ce qui est partagé sur Facebook ne provient pas des sites mis en garde par Avaaz ? « Ni l'un ni l'autre », a répondu Zuckerman.

Comment la désinformation se propage-t-elle en ligne ?

Pour Zuckerman, outre l'estimation d'un dénominateur, il est également important de prendre en compte la distribution de ces informations. Est-ce que tout le monde sur Facebook a la même probabilité de rencontrer des informations erronées sur la santé ? Où les personnes qui s'identifient comme anti-vaccins ou qui recherchent des informations sur la "santé alternative" sont-elles plus susceptibles de rencontrer ce type de désinformation ? Une autre étude sur les médias sociaux portant sur le contenu extrémiste de YouTube offre une méthode pour comprendre la diffusion de la désinformation.

À partir des données de navigation de 915 internautes, une équipe de l'Anti-Defamation League a recruté un vaste échantillon d'internautes américains, diversifié sur le plan démographique, et a procédé à un suréchantillonnage de deux groupes : les gros utilisateurs de YouTube et les personnes qui ont fait preuve de préjugés raciaux ou sexistes très négatifs dans une série de questions posées par les enquêteurs. Le suréchantillonnage consiste à sonder un petit sous-ensemble d'une population plus que sa proportion dans la population afin de mieux enregistrer les données concernant ce sous-ensemble.

L'équipe de recherche a constaté que 9,2 % des participants ont regardé au moins une vidéo d'une chaîne extrémiste, et 22,1 % au moins une vidéo d'une chaîne alternative, au cours des mois couverts par l'étude. Un élément de contexte important à noter : un petit groupe de personnes était responsable de la plupart des visionnages de ces vidéos. Et plus de 90 % des visionnages de vidéos extrémistes ou "alternatives" ont été effectués par des personnes ayant déclaré un niveau élevé de ressentiment racial ou sexiste dans l'enquête préalable à l'étude.

Alors qu'environ une personne sur dix a trouvé du contenu extrémiste sur YouTube et que deux sur dix ont trouvé du contenu provenant de provocateurs de droite, la plupart des personnes qui ont rencontré ce type de contenu ont "rebondi" dessus et sont allées ailleurs. Le groupe qui a trouvé du contenu extrémiste et en a cherché davantage était constitué de personnes vraisemblablement intéressées : des personnes ayant des attitudes racistes et sexistes fortes.

Les auteurs ont conclu que "la consommation de ce contenu potentiellement dangereux est plutôt concentrée chez les Américains qui ont déjà un fort ressentiment racial" et que les algorithmes de YouTube peuvent renforcer cette tendance. En d'autres termes, il ne suffit pas de connaître la fraction d'utilisateurs qui rencontrent des contenus extrêmes pour savoir combien de personnes les consomment. Pour cela, il faut également connaître la distribution.

Facebook peut-il en finir avec la désinformation sur sa plateforme ?

Une étude très médiatisée du "Center for Countering Digital Hate", un groupe de défense contre les discours haineux, intitulée Pandemic Profiteers, a montré que sur 30 groupes Facebook anti-vaccins examinés, 12 célébrités anti-vaccins étaient responsables de 70 % du contenu diffusé dans ces groupes, et les trois plus éminents étaient responsables de près de la moitié. Mais là encore, Zuckerman estime qu'il est essentiel de s'interroger sur les dénominateurs : combien de groupes anti-vaccins sont hébergés sur Facebook ? Et quel pourcentage des utilisateurs de Facebook rencontre le type d'informations partagées dans ces groupes ?



Zuckerman indique que sans informations sur les dénominateurs et la distribution, l'étude révèle quelque chose d'intéressant sur ces 30 groupes Facebook anti-vaccins, mais rien sur la désinformation médicale sur Facebook dans son ensemble. « Ce type d'études soulève la question suivante : "Si les chercheurs peuvent trouver ce contenu, pourquoi les plateformes de médias sociaux ne peuvent-elles pas l'identifier et le supprimer ?" », a déclaré l'universitaire. L'étude suggère en effet que Facebook pourrait résoudre 70 % du problème de la désinformation médicale en supprimant seulement une douzaine de comptes.

Elle plaide également explicitement pour le déplafonnement (la suppression des comptes) de ces marchands de désinformation. Toutefois, Zuckerman dit avoir constaté que 10 des 12 influenceurs anti-vaccins présentés dans l'étude ont déjà été supprimés par Facebook. « Prenons l'exemple de Del Bigtree, l'un des trois plus importants diffuseurs de désinformation sur la vaccination sur Facebook. Le problème n'est pas que Bigtree recrute de nouveaux adeptes anti-vaccins sur Facebook ; c'est que les utilisateurs de Facebook suivent Bigtree sur d'autres sites Web et apportent son contenu dans leurs communautés Facebook », a-t-il déclaré.

« Il ne s'agit pas de 12 personnes ou groupes qui diffusent des informations erronées sur la santé en ligne, mais de milliers d'utilisateurs individuels de Facebook qui partagent des informations erronées trouvées ailleurs sur le Web, avec la participation de cette douzaine de personnes. Il est beaucoup plus difficile d'interdire des milliers d'utilisateurs de Facebook que d'interdire 12 célébrités anti-vaccins. C'est pourquoi les questions de dénominateur et de distribution sont essentielles pour comprendre la désinformation en ligne », a-t-il fait remarquer.

Facebook refuse de partager les données sur la désinformation

D'après Zuckerman, le dénominateur et la distribution permettent aux chercheurs de s'interroger sur la fréquence ou la rareté des comportements en ligne et sur les personnes qui adoptent ces comportements. Si des millions d'utilisateurs sont chacun confrontés à des bribes occasionnelles de désinformation médicale, les étiquettes d'avertissement peuvent constituer une intervention efficace. Mais il ajoute que si les fausses informations médicales sont principalement consommées par un groupe plus restreint qui recherche activement et partage ce contenu, ces étiquettes d'avertissement sont très probablement inutiles.

Dans son argumentaire, Zuckerman a déclaré qu'essayer de comprendre la désinformation en la comptant, sans tenir compte des dénominateurs ou de la distribution, c'est ce qui se passe lorsque les bonnes intentions se heurtent à des outils médiocres. « Aucune plateforme de médias sociaux ne permet aux chercheurs de calculer avec précision l'importance d'un contenu particulier sur sa plateforme », allègue-t-il. Selon lui, Facebook limite la plupart des chercheurs à son outil Crowdtangle, qui partage des informations sur l'engagement du contenu, mais ce n'est pas la même chose que les vues du contenu.

En outre, Zuckerman avance que Twitter interdit explicitement aux chercheurs de calculer un dénominateur, soit le nombre d'utilisateurs de Twitter, soit le nombre de tweets partagés en une journée. De même, avec YouTube, il serait tellement difficile de savoir le nombre de vidéos hébergées sur le service que Google demande régulièrement aux candidats à un entretien d'estimer le nombre de vidéos YouTube hébergées pour évaluer leurs compétences quantitatives. « Les dirigeants des plateformes de médias sociaux ont fait valoir que leurs outils, malgré leurs problèmes, sont bons pour la société », a déclaré Zuckerman.

« Mais cet argument serait plus convaincant si les chercheurs pouvaient vérifier cette affirmation de manière indépendante », a-t-il ajouté. Selon lui au fur et à mesure que l'impact sociétal des médias sociaux devient plus important, la pression exercée sur les grandes plateformes technologiques pour qu'elles publient davantage de données sur leurs utilisateurs et leur contenu va probablement augmenter.

« Si ces entreprises répondent en augmentant la quantité d'informations auxquelles les chercheurs ont accès, regardez de très près : laisseront-elles les chercheurs étudier le dénominateur et la distribution du contenu en ligne ? Et si non, ont-elles peur de ce que les chercheurs trouveront ? », se demande-t-il.

Source : Ethan Zuckerman

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des faits présentés par l'éditorial d'Ethan Zuckerman ?
Facebook peut-il vaincre la désinformation ? Ou s'agit-il d'un combat perdu à l'avance ?
Pensez-vous que Facebook tire profit de la désinformation sur sa plateforme ?
Selon vous, pourquoi les médias sociaux refusent-ils de partager les données vitales de leurs plateformes ?
Pensez-vous qu'ils craignent que des études plus poussées révèlent des choses plus compromettantes sur leur gestion ?

Voir aussi

Facebook désactive les comptes personnels d'universitaires qui font des recherches sur la transparence des publicités et la désinformation sur la plateforme, ce qui suscite des critiques

Des chercheurs disent avoir découvert une énorme ferme de bots Facebook dans le cadre des élections US de 2020, diffusant des messages sur Trump, Biden et la Covid

Une étude montre que la désinformation se propage six fois plus vite sur Facebook qu'il y a un an, la société aurait tenté de nuire à l'étude en bannissant les chercheurs de la plateforme

L'algorithme de YouTube recommande des vidéos qui violent les politiques de la plateforme, selon une étude de Mozilla

Google et YouTube interdisent les publicités et la monétisation des contenus négationnistes sur le climat, ce changement affectera les annonceurs, les éditeurs et les créateurs de contenu

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de tanaka59
Membre extrêmement actif https://www.developpez.com
Le 07/11/2021 à 14:31
Bonjour,

Facebook bloque l'accès aux données sur la quantité de fausses informations qu'il diffuse et sur les personnes concernées, selon l'universitaire Ethan Zuckerman

Quel est votre avis sur le sujet ?
Le bilan modérateur de facebook est assez peu flatteur. Sur un autre topic, des chiffres avaient été communiqué. 5% des posts jugés hors chartes sont supprimés, alors qu'ils s'agit de faux positif. Le problème de ces faux positifs , c'est qu'ils sont pourtant légitime ... On parle quand même de plusieurs millions de messages (1 à 2 de mémoires).

Inversement le nombre de lien "puteàclic" ou "frauduleux", on en croise à la pelle. Comme cela ramène de l'argent au clic ... Facebook laisse passer.

Que pensez-vous des faits présentés par l'éditorial d'Ethan Zuckerman ?
Les 5 à 10 % gesticulants et bruyants , se donne une "aura" légitime , car ils touchent un large public par leur comm' active. Pourtant ces mêmes personnes ne représentent pas la majorité ... Certains diraient une "fraude intellectuelle", quand on fait croire qu'une personne ou idée est légitime , alors qu'en réalité que celle ci ne représente même pas la majorité .

Sujet de société, environnement, vaccination, ...

Facebook peut-il vaincre la désinformation ?
Non

Ou s'agit-il d'un combat perdu à l'avance ?
Ci Facebook , se mettait à "chasser" les contenus , on crierait à la censure ... hélas.

Pensez-vous que Facebook tire profit de la désinformation sur sa plateforme ?
Oh oui !

Selon vous, pourquoi les médias sociaux refusent-ils de partager les données vitales de leurs plateformes ?
Ils n'arrivent pas endiguer le phénomène et c'est leur fond de commerce.

Pensez-vous qu'ils craignent que des études plus poussées révèlent des choses plus compromettantes sur leur gestion ?
Cela ne serait tarder !
0  0