
Avec la médiatisation de cette désinformation, certaines de ces entreprises ont récemment interdit la diffusion de ces contenus anti-vax sur leur plateforme. Cependant, selon l’EFF (Electronic Frontier Foundation, une ONG de protection des libertés sur Internet), la censure ne peut pas être la seule réponse à la désinformation en ligne, car la tendance anti-vax est un problème plus important que la censure ne peut résoudre. Selon l’EFF, lorsque les entreprises de technologie prennent pour habitude d’opter pour la censure du contenu comme la seule solution contre la désinformation, au lieu de corriger le problème, elles finissent par censurer des informations exactes et utiles ou, pire encore, par renforcer la désinformation par leurs politiques.
De nombreux intermédiaires agissent déjà comme censeurs des messages, commentaires et comptes des utilisateurs, et les règles qui régissent ce que les utilisateurs peuvent et ne peuvent pas dire deviennent de plus en plus complexes chaque année. Toutefois, le fait de supprimer des catégories entières de contenus d'une plateforme ne résout pas les problèmes sous-jacents, selon l’EFF. L’ONG suggère plutôt aux entreprises du numérique et à des plateformes en ligne d'autres moyens de lutter contre la diffusion rapide de la désinformation, notamment de s'attaquer au « mégaphone » algorithmique qui favorise la diffusion de ces messages et de donner aux utilisateurs le contrôle sur leurs propres flux.
L’organisation propose également à celles de ces plateformes qui adoptent la solution des interdictions catégoriques, de suivre les Principes de Santa Clara sur la transparence et la responsabilité en matière de modération de contenu pour s'assurer que les utilisateurs sont informés sur le quand et le pourquoi leur contenu a été supprimé, et qu'ils ont la possibilité de faire appel.
L’insuffisance ou l'inexistence d’information sur les vaccins contribuant à faire prospérer la désinformation anti-vax
Selon l’EFF, l’une des raisons de la persistance de la prolifération de la désinformation anti-vax est le fait que ces contenus anti-vax existent dans un vide de données dans lequel l'information disponible en ligne sur les vaccins est « limitée, inexistante ou profondément problématique ». En effet, parce qu’il n’y a pas assez de littérature scientifique récente ou de matériel éducatif, les internautes qui cherchent de la documentation récente sur les vaccins trouveront probablement plus de contenu anti-vax que la recherche médicale empirique à l'appui des vaccins.
Par conséquent, la censure pratiquée par les entreprises ne pourra pas résoudre le problème de désinformation anti-vax. Selon L’EFF, les tentatives bien intentionnées d’effacer complètement du contenu anti-vax de l'Internet le mettront hors de portée des chercheurs, des professionnels de la santé publique et d'autres personnes qui doivent être en mesure de l'étudier et de comprendre comment il se propage et dans le pire des cas, pourraient même aggraver le problème.
Facebook et Twitter luttent depuis des années contre les fake news et la désinformation depuis plusieurs années, mais le problème persiste. Même les outils renouvelés et une large équipe de modérateurs de Facebook ne parviennent pas à mettre fin à la désinformation et la haine qui persistent toujours sur ses plateformes de réseau social.
Les entreprises devraient responsabiliser les utilisateurs plutôt que de leur imposer ce qu’ils doivent voir et quand par des algorithmes
Selon L’EFF, « les algorithmes qui décident ce que les utilisateurs voient et quand », constituent l’une des causes profondes de la prolifération de la désinformation à laquelle les plateformes en ligne doivent s'attaquer. Au lieu de leur imposer ce qu’ils doivent voir, les plateformes devraient commencer par responsabiliser les utilisateurs avec des outils plus individualisés qui leur permettent de comprendre et de contrôler l'information qu'ils voient, a écrit l’ONG dans son article publié le mercredi dernier.
L’organisation de protection des libertés sur Internet trouve que les algorithmes comme le fil d'actualités de Facebook ou la chronologie de Twitter prennent des décisions concernant quels sujets d’actualité, quelles publicités et quel contenu généré par les utilisateurs promouvoir ou cacher. Selon elle, ce type de traitement de données en ligne par ces plateformes peut jouer un rôle amplificateur pour certains types de contenus incendiaires au lieu de les « décourager », malgré leurs meilleurs efforts pour peaufiner leurs algorithmes. « C'est pourquoi ces plateformes devraient examiner les parties de leur infrastructure qui agissent comme un mégaphone pour les contenus dangereux et s'attaquer à la cause profonde du problème plutôt que de censurer les utilisateurs », a écrit l’EFF.
Selon L’EFF, les éléments les plus importants à considérer pour venir à bout à ce phénomène de désinformation, notamment la prolifération du contenu anti-vax, sont la transparence – transparence dans le fonctionnement des algorithmes d'une plateforme –, et l'ouverture – c'est-à-dire, mettre en œuvre des outils permettant aux utilisateurs de s'ouvrir et de créer leurs propres flux. L’EFF dit que ces éléments sont déterminants pour mieux comprendre le traitement algorithmique, le type de contenu qu'il peut encourager et les conséquences qu'il peut avoir.
A ce propos, L’EFF trouve que les récentes améliorations de transparence de Facebook sont encourageantes, toutefois, selon l’organisation, Facebook devrait aller plus loin.
En effet, Mark Zuckerberg, PDG de Facebook, a annoncé en mars sa volonté de réorienter son entreprise vers plus de confidentialité. Le mardi dernier, Facebook a procédé à une refonte de sa principale application afin de mieux protéger la vie privée des utilisateurs, en prenant des mesures concrètes pour transformer la plateforme en une entreprise privée de messagerie et de commerce électronique. Cette refonte est intervenue alors que la société tente de surmonter les scandales passés tout en exploitant de nouvelles sources de revenus à un moment où la croissance du nombre de ses utilisateurs qui contribuent le plus à ses entrées stagne aux Etats-Unis, au Canada et en Europe.
Zuckerberg a expliqué, lors de la conférence F8 2019, qu'il s'agissait d'un changement fondamental dans la manière dont Facebook développe des produits et gère son entreprise. Mais l’EFF pense que ces changements annoncés pour l’application principale Facebook et pour Messenger ne sont pas suffisants pour empêcher la désinformation.
Par ailleurs, Facebook a annoncé en mars qu’il était en train de travailler à lutter contre la désinformation concernant les vaccins sur Facebook en réduisant leur propagation et en fournissant aux personnes des informations faisant autorité sur le sujet. Cette annoncé est intervenue après la médiatisation de l'affaire Lindenberger, le...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.