IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une étude montre que la désinformation se propage six fois plus vite sur Facebook qu'il y a un an,
La société aurait tenté de nuire à l'étude en bannissant les chercheurs de la plateforme

Le , par Bill Fassinou

450PARTAGES

5  0 
De nombreuses recherches effectuées au cours de ces dernières années ont fini par élire Facebook au premier rang des plateformes qui promeuvent le plus la désinformation en ligne. Une nouvelle étude évaluée par des pairs et réalisée des chercheurs de l'Université de New York et de l'Université Grenoble Alpes en France montre qu'entre août 2020 et janvier 2021, les fausses informations ont obtenu six fois plus d'engagements sur Facebook que les vraies nouvelles. Les chercheurs ont montré que la désinformation a atteint un niveau sans précédent sur Facebook, même si la plateforme a nui à leur étude en supprimant leurs comptes.

Une nouvelle étude sur le comportement des utilisateurs de Facebook autour de l'élection présidentielle américaine de 2020 est susceptible de renforcer les arguments de longue date des critiques selon lesquels les algorithmes de la société alimentent la diffusion de fausses informations au détriment de sources plus dignes de confiance. En effet, depuis que les "fake news" sur Facebook sont devenues une préoccupation publique à la suite de l'élection présidentielle américaine de 2016, il a été démontré à plusieurs reprises que les éditeurs qui font du trafic de fausses informations sont capables d'obtenir des audiences importantes sur la plateforme.



Mais l'étude de l'Université de New York et de l'Université Grenoble Alpes est l'une des rares tentatives complètes visant à mesurer et isoler l'effet de désinformation dans un large groupe d'éditeurs sur Facebook et ses conclusions appuient la critique selon laquelle Facebook récompense les éditeurs qui diffusent des informations trompeuses. L'étude, qui n'a pas encore été publiée, a révélé qu'entre août 2020 et janvier 2021, les éditeurs connus pour diffuser de fausses informations ont obtenu six fois plus de likes, de partages et d'interactions sur Facebook que les sources d'informations dignes de confiance, telles que CNN ou l'Organisation mondiale de la santé.

Selon l'étude, la désinformation représentait également la grande majorité de l'engagement avec les posts d'extrême droite, 68 %, contre 36 % pour les publications provenant de l'extrême gauche. « L'étude contribue à ajouter à l'ensemble croissant de preuves que, malgré une variété d'efforts d'atténuation, la désinformation a trouvé un foyer confortable - et un public engagé - sur Facebook », a déclaré Rebekah Tromble, directrice de l'Institut pour les données, la démocratie et la politique à l'Université George Washington, qui a examiné les conclusions de l'étude. La plateforme a déclaré que les conclusions de l'étude étaient erronées.

En réponse, Facebook a déclaré que le rapport mesurait le nombre de personnes qui s'engagent avec le contenu, mais qu'il ne s'agit pas d'une mesure du nombre de personnes qui le consultent réellement (Facebook ne met pas ce dernier chiffre, appelé impressions, à la disposition des chercheurs). Dans un communiqué partagé avec les médias la semaine dernière, Joe Osborne, porte-parole de Facebook, a déclaré : « Ce rapport examine principalement la façon dont les gens s'intéressent au contenu, ce qui ne doit pas être confondu avec le nombre de personnes qui le voient effectivement sur Facebook ».

« Lorsque vous regardez le contenu qui obtient la plus grande portée sur Facebook, cela ne ressemble pas du tout à ce que cette étude suggère », a-t-il continué. Il a ajouté que l'entreprise compte 80 partenaires de vérification des faits, couvrant plus de 60 langues, qui s'efforcent d'étiqueter et de réduire la diffusion de fausses informations. Les auteurs de l'étude se sont appuyés sur les catégorisations de deux organisations qui étudient la désinformation, NewsGuard et Media Bias/Fact Check. Ces deux groupes ont classé des milliers d'éditeurs Facebook en fonction de leur tendance politique, allant de l'extrême gauche à l'extrême droite.

Le classement tient aussi compte de la propension des éditeurs à partager des informations fiables ou non. L'équipe de recherche a ensuite pris 2 551 de ces pages et a comparé les interactions sur les publications des pages d'éditeurs connus pour leur désinformation aux interactions sur les publications d'éditeurs factuels. L'équipe a également constaté que l'augmentation significative de la désinformation est politiquement neutre : les pages de désinformation, tant à l'extrême gauche qu'à l'extrême droite, suscitent beaucoup plus d'engagements de la part des utilisateurs de Facebook que les pages factuelles, quelle que soit leur orientation politique.

Toutefois, selon l'étude, les éditeurs de droite ont une propension beaucoup plus forte à partager des informations trompeuses que les éditeurs des autres catégories politiques. Cette dernière constatation fait écho aux conclusions d'autres chercheurs, ainsi qu'aux propres conclusions internes de Facebook avant les élections de mi-mandat de 2018. Rafael Rivero, cofondateur et président d'Occupy Democrats, s'est dit intrigué par la méthodologie du rapport et a contesté l'idée que la page diffuse de la désinformation. « Il nous arrive de nous tromper sur de petites choses et de publier immédiatement des corrections », a-t-il déclaré.

« Mais nous n'induirions jamais délibérément nos lecteurs en erreur », a-t-il ajouté dans une déclaration envoyée par courriel au Washington Post. Par ailleurs, l'étude n'a pas été menée sans embuches. Le mois dernier, Facebook a bloqué les comptes personnels des chercheurs et l'accès au site. La société a déclaré que sa décision de bloquer les comptes personnels des chercheurs était liée à une étude distincte sur les publicités politiques qui impliquait l'utilisation d'une extension de navigateur permettant aux utilisateurs de partager anonymement avec les chercheurs les publicités qu'ils voyaient sur Facebook.

En effet, Facebook ne met pas les données d'impressions à la disposition des chercheurs. Au lieu de cela, ces derniers et d'autres personnes qui veulent comprendre et quantifier le problème de désinformation de la plateforme se sont souvent tournés vers un outil appelé CrowdTangle, qui appartient à Facebook. Facebook a déclaré que le fait de continuer à donner aux chercheurs tiers l'accès à ces données pourrait violer un accord avec la Federal Trade Commission (FTC) qu'elle a conclu à la suite du scandale Cambridge Analytica. En revanche, les médias ont rapporté que la FTC a nié l'existant d'un tel accord.

« Le projet Ad Observatory de NYU a étudié les publicités politiques en utilisant des moyens non autorisés pour accéder à Facebook et y collecter des données, ce qui est en violation de nos conditions d'utilisation. Nous avons pris ces mesures pour mettre fin au raclage non autorisé et protéger la vie privée des gens, conformément à notre programme de protection de la vie privée dans le cadre de l'ordonnance de la FTC », a déclaré le mois dernier Mike Clark, directeur de la gestion des produits, dans un communiqué.

Mais Laura Edelson, chercheuse principale du projet "Cybersecurity for Democracy" à l'université de New York, a déclaré que cela n'avait pas de sens, car l'extension de navigateur est toujours disponible et téléchargeable. Cependant, les restrictions d'accès à Facebook ont entravé les recherches du groupe sur les publicités politiques et la désinformation. « Nous ne pourrions même pas reproduire cette étude nous-mêmes à l'heure actuelle si nous essayions », a déclaré Edelson dimanche sur "Reliable Sources".

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des conclusions de l'étude ?
Que pensez-vous du niveau de désinformation sur Facebook ?

Voir aussi

Facebook a supprimé des centaines de comptes qui seraient impliqués dans des campagnes de désinformation anti vaccination menées depuis la Russie

Facebook désactive les comptes personnels d'universitaires qui font des recherches sur la transparence des publicités et la désinformation sur la plateforme, ce qui suscite des critiques

Biden déclare que les plateformes comme Facebook tuent les gens avec les fausses informations COVID-19, plus de pression dans la lutte de la Maison Blanche contre la désinformation sur les vaccins

Conséquence scandale Cambridge Analytica : le taux de visiteurs mensuels enregistré par Facebook a baissé de 5,15 % en avril, selon SimilarWeb

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 07/09/2021 à 10:15
Avec la télévision, la radio et la presse papier, la non-information se propage au moins aussi vite, voir plus.
5  0 
Avatar de JPLAROCHE
Membre expérimenté https://www.developpez.com
Le 07/09/2021 à 11:36
Bonjour,
Il ne faut pas être sortie de Saint-Cyr pour avoir compris ça ... et on entend , "j'ai vue l'image sait que c'est vrai", ou "je l'ai vue plusieurs fois" etc...

Bref du n'importe-quoi et surtout du manque d'investigation ou tout simplement de l'ignorance , mais plus honnêtement c'est la Guerre des images et autre trafique, conclusion Facebook ce prête très facilement à ce genre de pratique et ce n'est pas leurs IA qui ce contente lors d'une conversation ou il n'est pas capable d'en comprendre le sens (français littéraire lors d'un exposé) et faire la différence le sens de la phrase et les mots employés, de même un tableau ou une sculpture et de la pornographie (une femme allaitant son enfant).

Enfin j'ai dit IA pour faire comme tout le monde mais on sait très bien que les petites mains qui censure ne parle pas le Français ou disons on une culture superficiel de notre langue (ps c'est une constatation et pas du racisme)
2  0