Nous assistons à une réapparition des maladies déjà éliminées depuis des décennies comme la rougeole à cause de l'hésitation à se faire vacciner que l'Organisation mondiale de la Santé a désignée comme l'une des 10 plus grandes menaces pour la santé mondiale en 2019. Au centre de cette tempête de réticence aux vaccins se trouvent des « chambres d'écho » en ligne entretenues par les plateformes – comme Amazon, YouTube, Facebook, Pinterest, Instagram, GoFundM – qui influencent les parents avec des mèmes anti-vaccins (ou « anti-vax »). Beaucoup de ces chambres d'écho sont des pages et des groupes en ligne comme « Vaccine Resistance Movement », « Vaccine Re-education Discussion Forum », et « Vaccine Injury Stories », par exemple, qui cherchent à exploiter l'ignorance et les craintes de leurs centaines de milliers de fidèles.Avec la médiatisation de cette désinformation, certaines de ces entreprises ont récemment interdit la diffusion de ces contenus anti-vax sur leur plateforme. Cependant, selon l’EFF (Electronic Frontier Foundation, une ONG de protection des libertés sur Internet), la censure ne peut pas être la seule réponse à la désinformation en ligne, car la tendance anti-vax est un problème plus important que la censure ne peut résoudre. Selon l’EFF, lorsque les entreprises de technologie prennent pour habitude d’opter pour la censure du contenu comme la seule solution contre la désinformation, au lieu de corriger le problème, elles finissent par censurer des informations exactes et utiles ou, pire encore, par renforcer la désinformation par leurs politiques.
De nombreux intermédiaires agissent déjà comme censeurs des messages, commentaires et comptes des utilisateurs, et les règles qui régissent ce que les utilisateurs peuvent et ne peuvent pas dire deviennent de plus en plus complexes chaque année. Toutefois, le fait de supprimer des catégories entières de contenus d'une plateforme ne résout pas les problèmes sous-jacents, selon l’EFF. L’ONG suggère plutôt aux entreprises du numérique et à des plateformes en ligne d'autres moyens de lutter contre la diffusion rapide de la désinformation, notamment de s'attaquer au « mégaphone » algorithmique qui favorise la diffusion de ces messages et de donner aux utilisateurs le contrôle sur leurs propres flux.
L’organisation propose également à celles de ces plateformes qui adoptent la solution des interdictions catégoriques, de suivre les Principes de Santa Clara sur la transparence et la responsabilité en matière de modération de contenu pour s'assurer que les utilisateurs sont informés sur le quand et le pourquoi leur contenu a été supprimé, et qu'ils ont la possibilité de faire appel.
L’insuffisance ou l'inexistence d’information sur les vaccins contribuant à faire prospérer la désinformation anti-vax
Selon l’EFF, l’une des raisons de la persistance de la prolifération de la désinformation anti-vax est le fait que ces contenus anti-vax existent dans un vide de données dans lequel l'information disponible en ligne sur les vaccins est « limitée, inexistante ou profondément problématique ». En effet, parce qu’il n’y a pas assez de littérature scientifique récente ou de matériel éducatif, les internautes qui cherchent de la documentation récente sur les vaccins trouveront probablement plus de contenu anti-vax que la recherche médicale empirique à l'appui des vaccins.
Par conséquent, la censure pratiquée par les entreprises ne pourra pas résoudre le problème de désinformation anti-vax. Selon L’EFF, les tentatives bien intentionnées d’effacer complètement du contenu anti-vax de l'Internet le mettront hors de portée des chercheurs, des professionnels de la santé publique et d'autres personnes qui doivent être en mesure de l'étudier et de comprendre comment il se propage et dans le pire des cas, pourraient même aggraver le problème.
Facebook et Twitter luttent depuis des années contre les fake news et la désinformation depuis plusieurs années, mais le problème persiste. Même les outils renouvelés et une large équipe de modérateurs de Facebook ne parviennent pas à mettre fin à la désinformation et la haine qui persistent toujours sur ses plateformes de réseau social.
Les entreprises devraient responsabiliser les utilisateurs plutôt que de leur imposer ce qu’ils doivent voir et quand par des algorithmes
Selon L’EFF, « les algorithmes qui décident ce que les utilisateurs voient et quand », constituent l’une des causes profondes de la prolifération de la désinformation à laquelle les plateformes en ligne doivent s'attaquer. Au lieu de leur imposer ce qu’ils doivent voir, les...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

".