IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Facebook bloque l'accès aux données sur la quantité de fausses informations qu'il diffuse et sur les personnes concernées,
Selon l'universitaire Ethan Zuckerman

Le , par Bill Fassinou

175PARTAGES

5  0 
Ces dernières années, l'expression "désinformation en ligne" fait directement penser aux réseaux sociaux, en particulier Facebook. Ce dernier doit faire face à des dizaines d'accusations sur le sujet, et les choses ne vont pas en s'améliorant. Dans un récent billet de blogue, Ethan Zuckerman - professeur associé de politique publique, de communication et d'information à l'université du Massachusetts à Amherst - a déclaré que Facebook a un problème de désinformation. Il allègue que la société est non seulement consciente de ce fait, mais blogue également l'accès aux données sur l'ampleur de la désinformation et les personnes concernées.

Une vue globale de la désinformation médicale sur Facebook

Facebook est réputé pour être la principale chambre d'écho pour la désinformation politique, le changement climatique et plus récemment, la pandémie de la Covid-19 et les vaccins contre la maladie. Plusieurs documents internes ayant fait l'objet d'une fuite suggèrent que Facebook fait bien pire que ce qu'il prétend pour minimiser la désinformation sur le vaccin Covid-19 sur le réseau social. À titre d'exemple, une étude a montré que les personnes s'informant sur la pandémie avec Facebook étaient beaucoup plus susceptibles de résister au vaccin Covid-19 que celles qui recevaient leurs informations de sources médiatiques traditionnelles.



« En tant que chercheur qui étudie les médias sociaux et civiques, je pense qu'il est essentiel de comprendre comment la désinformation se propage en ligne. Mais c'est plus facile à dire qu'à faire. Le simple fait de compter les cas de désinformation trouvés sur une plateforme de médias sociaux laisse deux questions essentielles sans réponse : quelle est la probabilité que les utilisateurs soient confrontés à la désinformation, et certains utilisateurs sont-ils particulièrement susceptibles d'être affectés par la désinformation ? Ces questions constituent le problème du dénominateur et le problème de la distribution », a déclaré Zuckerman.

Une autre étude sur la désinformation liée à la Covid-19, intitulée "L'algorithme de Facebook : une menace majeure pour la santé publique", publiée par le groupe de défense de l'intérêt public Avaaz en août 2020, a révélé que les sources qui diffusaient fréquemment des informations erronées sur la santé - 82 sites Web et 42 pages Facebook - avaient une portée totale estimée à 3,8 milliards de vues en un an. À première vue, c'est un chiffre stupéfiant. Mais Zuckerman estime qu'il s'agit du numérateur. Pour comprendre ce que signifient 3,8 milliards de vues en un an, il faut aussi trouver le dénominateur de la fraction.

Selon Zuckerman, un dénominateur possible est les 2,9 milliards d'utilisateurs actifs mensuels de Facebook, auquel cas, en moyenne, chaque utilisateur de Facebook a été exposé à au moins une information provenant de ces sources de désinformation sur la santé. Mais il s'agit de 3,8 milliards de vues de contenu, et non d'utilisateurs discrets. Eh bien, combien d'informations l'utilisateur moyen de Facebook rencontre-t-il en un an ? Il rapporte que le réseau social ne divulgue pas cette information. Les études de marché estiment que les utilisateurs de Facebook passent entre 19 et 38 minutes par jour sur la plateforme.

Toutefois, si les 1,93 milliard d'utilisateurs actifs quotidiens de Facebook voient en moyenne 10 publications au cours de leurs sessions quotidiennes - une estimation très prudente - le dénominateur de ces 3,8 milliards d'informations par an pourrait être de 7,044 milliards (1,93 milliard d'utilisateurs quotidiens fois 10 publications quotidiennes fois 365 jours par an). Cela signifie qu'environ 0,05 % du contenu de Facebook est constitué de publications de ces pages Facebook suspectes. Selon le professeur, le chiffre de 3,8 milliards de vues englobe tout le contenu publié sur ces pages, y compris le contenu inoffensif pour la santé.

Alors, est-il inquiétant qu'il y ait suffisamment de fausses informations sur Facebook pour que tout le monde en ait probablement rencontré au moins un cas ? Ou est-ce rassurant de savoir que 99,95 % de ce qui est partagé sur Facebook ne provient pas des sites mis en garde par Avaaz ? « Ni l'un ni l'autre », a répondu Zuckerman.

Comment la désinformation se propage-t-elle en ligne ?

Pour Zuckerman, outre l'estimation d'un dénominateur, il est également important de prendre en compte la distribution de ces informations. Est-ce que tout le monde sur Facebook a la même probabilité de rencontrer des informations erronées sur la santé ? Où les personnes qui s'identifient comme anti-vaccins ou qui recherchent des informations sur la "santé alternative" sont-elles plus susceptibles de rencontrer ce type de désinformation ? Une autre étude sur les médias sociaux portant sur le contenu extrémiste de YouTube offre une méthode pour comprendre la diffusion de la désinformation.

À partir des données de navigation de 915 internautes, une équipe de l'Anti-Defamation League a recruté un vaste échantillon d'internautes américains, diversifié sur le plan démographique, et a procédé à un suréchantillonnage de deux groupes : les gros utilisateurs de YouTube et les personnes qui ont fait preuve de préjugés raciaux ou sexistes très négatifs dans une série de questions posées par les enquêteurs. Le suréchantillonnage consiste à sonder un petit sous-ensemble d'une population plus que sa proportion dans la population afin de mieux enregistrer les données concernant ce sous-ensemble.

L'équipe de recherche a constaté que 9,2 % des participants ont regardé au moins une vidéo d'une chaîne extrémiste, et 22,1 % au moins une vidéo d'une chaîne alternative, au cours des mois couverts par l'étude. Un élément de contexte important à noter : un petit groupe de personnes était responsable de la plupart des visionnages de ces vidéos. Et plus de 90 % des visionnages de vidéos extrémistes ou "alternatives" ont été effectués par des personnes ayant déclaré un niveau élevé de ressentiment racial ou sexiste dans l'enquête préalable à l'étude.

Alors qu'environ une personne sur dix a trouvé du contenu extrémiste sur YouTube et que deux sur dix ont trouvé du contenu provenant de provocateurs de droite, la plupart des personnes qui ont rencontré ce type de contenu ont "rebondi" dessus et sont allées ailleurs. Le groupe qui a trouvé du contenu extrémiste et en a cherché davantage était constitué de personnes vraisemblablement intéressées : des personnes ayant des attitudes racistes et sexistes fortes.

Les auteurs ont conclu que "la consommation de ce contenu potentiellement dangereux est plutôt concentrée chez les Américains qui ont déjà un fort ressentiment racial" et que les algorithmes de YouTube peuvent renforcer cette tendance. En d'autres termes, il ne suffit pas de connaître la fraction d'utilisateurs qui rencontrent des contenus extrêmes pour savoir combien de personnes les consomment. Pour cela, il faut également connaître la distribution.

Facebook peut-il en finir avec la désinformation sur sa plateforme ?

Une étude très médiatisée du "Center for Countering Digital Hate", un groupe de défense contre les discours haineux, intitulée Pandemic Profiteers, a montré que sur 30 groupes Facebook anti-vaccins examinés, 12 célébrités anti-vaccins étaient responsables de 70 % du contenu diffusé dans ces groupes, et les trois plus éminents étaient responsables de près de la moitié. Mais là encore, Zuckerman estime qu'il est essentiel de s'interroger sur les dénominateurs : combien de groupes anti-vaccins sont hébergés sur Facebook ? Et quel pourcentage des utilisateurs de Facebook rencontre le type d'informations partagées dans ces groupes ?



Zuckerman indique que sans informations sur les dénominateurs et la distribution, l'étude révèle quelque chose d'intéressant sur ces 30 groupes Facebook anti-vaccins, mais rien sur la désinformation médicale sur Facebook dans son ensemble. « Ce type d'études soulève la question suivante : "Si les chercheurs peuvent trouver ce contenu, pourquoi les plateformes de médias sociaux ne peuvent-elles pas l'identifier et le supprimer ?" », a déclaré l'universitaire. L'étude suggère en effet que Facebook pourrait résoudre 70 % du problème de la désinformation médicale en supprimant seulement une douzaine de comptes.

Elle plaide également explicitement pour le déplafonnement (la suppression des comptes) de ces marchands de désinformation. Toutefois, Zuckerman dit avoir constaté que 10 des 12 influenceurs anti-vaccins présentés dans l'étude ont déjà été supprimés par Facebook. « Prenons l'exemple de Del Bigtree, l'un des trois plus importants diffuseurs de désinformation sur la vaccination sur Facebook. Le problème n'est pas que Bigtree recrute de nouveaux adeptes anti-vaccins sur Facebook ; c'est que les utilisateurs de Facebook suivent Bigtree sur d'autres sites Web et apportent son contenu dans leurs communautés Facebook », a-t-il déclaré.

« Il ne s'agit pas de 12 personnes ou groupes qui diffusent des informations erronées sur la santé en ligne, mais de milliers d'utilisateurs individuels de Facebook qui partagent des informations erronées trouvées ailleurs sur le Web, avec la participation de cette douzaine de personnes. Il est beaucoup plus difficile d'interdire des milliers d'utilisateurs de Facebook que d'interdire 12 célébrités anti-vaccins. C'est pourquoi les questions de dénominateur et de distribution sont essentielles pour comprendre la désinformation en ligne », a-t-il fait remarquer.

Facebook refuse de partager les données sur la désinformation

D'après Zuckerman, le dénominateur et la distribution permettent aux chercheurs de s'interroger sur la fréquence ou la rareté des comportements en ligne et sur les personnes qui adoptent ces comportements. Si des millions d...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 07/11/2021 à 14:31
Bonjour,

Facebook bloque l'accès aux données sur la quantité de fausses informations qu'il diffuse et sur les personnes concernées, selon l'universitaire Ethan Zuckerman

Quel est votre avis sur le sujet ?
Le bilan modérateur de facebook est assez peu flatteur. Sur un autre topic, des chiffres avaient été communiqué. 5% des posts jugés hors chartes sont supprimés, alors qu'ils s'agit de faux positif. Le problème de ces faux positifs , c'est qu'ils sont pourtant légitime ... On parle quand même de plusieurs millions de messages (1 à 2 de mémoires).

Inversement le nombre de lien "puteàclic" ou "frauduleux", on en croise à la pelle. Comme cela ramène de l'argent au clic ... Facebook laisse passer.

Que pensez-vous des faits présentés par l'éditorial d'Ethan Zuckerman ?
Les 5 à 10 % gesticulants et bruyants , se donne une "aura" légitime , car ils touchent un large public par leur comm' active. Pourtant ces mêmes personnes ne représentent pas la majorité ... Certains diraient une "fraude intellectuelle", quand on fait croire qu'une personne ou idée est légitime , alors qu'en réalité que celle ci ne représente même pas la majorité .

Sujet de société, environnement, vaccination, ...

Facebook peut-il vaincre la désinformation ?


Non

Ou s'agit-il d'un combat perdu à l'avance ?
Ci Facebook , se mettait à "chasser" les contenus , on crierait à la censure ... hélas.

Pensez-vous que Facebook tire profit de la désinformation sur sa plateforme ?
Oh oui !

Selon vous, pourquoi les médias sociaux refusent-ils de partager les données vitales de leurs plateformes ?
Ils n'arrivent pas endiguer le phénomène et c'est leur fond de commerce.

Pensez-vous qu'ils craignent que des études plus poussées révèlent des choses plus compromettantes sur leur gestion ?
Cela ne serait tarder !
0  0