Nous assistons à une réapparition des maladies déjà éliminées depuis des décennies comme la rougeole à cause de l'hésitation à se faire vacciner que l'Organisation mondiale de la Santé a désignée comme l'une des 10 plus grandes menaces pour la santé mondiale en 2019. Au centre de cette tempête de réticence aux vaccins se trouvent des « chambres d'écho » en ligne entretenues par les plateformes – comme Amazon, YouTube, Facebook, Pinterest, Instagram, GoFundM – qui influencent les parents avec des mèmes anti-vaccins (ou « anti-vax »). Beaucoup de ces chambres d'écho sont des pages et des groupes en ligne comme « Vaccine Resistance Movement », « Vaccine Re-education Discussion Forum », et « Vaccine Injury Stories », par exemple, qui cherchent à exploiter l'ignorance et les craintes de leurs centaines de milliers de fidèles.
Avec la médiatisation de cette désinformation, certaines de ces entreprises ont récemment interdit la diffusion de ces contenus anti-vax sur leur plateforme. Cependant, selon l’EFF (Electronic Frontier Foundation, une ONG de protection des libertés sur Internet), la censure ne peut pas être la seule réponse à la désinformation en ligne, car la tendance anti-vax est un problème plus important que la censure ne peut résoudre. Selon l’EFF, lorsque les entreprises de technologie prennent pour habitude d’opter pour la censure du contenu comme la seule solution contre la désinformation, au lieu de corriger le problème, elles finissent par censurer des informations exactes et utiles ou, pire encore, par renforcer la désinformation par leurs politiques.
De nombreux intermédiaires agissent déjà comme censeurs des messages, commentaires et comptes des utilisateurs, et les règles qui régissent ce que les utilisateurs peuvent et ne peuvent pas dire deviennent de plus en plus complexes chaque année. Toutefois, le fait de supprimer des catégories entières de contenus d'une plateforme ne résout pas les problèmes sous-jacents, selon l’EFF. L’ONG suggère plutôt aux entreprises du numérique et à des plateformes en ligne d'autres moyens de lutter contre la diffusion rapide de la désinformation, notamment de s'attaquer au « mégaphone » algorithmique qui favorise la diffusion de ces messages et de donner aux utilisateurs le contrôle sur leurs propres flux.
L’organisation propose également à celles de ces plateformes qui adoptent la solution des interdictions catégoriques, de suivre les Principes de Santa Clara sur la transparence et la responsabilité en matière de modération de contenu pour s'assurer que les utilisateurs sont informés sur le quand et le pourquoi leur contenu a été supprimé, et qu'ils ont la possibilité de faire appel.
L’insuffisance ou l'inexistence d’information sur les vaccins contribuant à faire prospérer la désinformation anti-vax
Selon l’EFF, l’une des raisons de la persistance de la prolifération de la désinformation anti-vax est le fait que ces contenus anti-vax existent dans un vide de données dans lequel l'information disponible en ligne sur les vaccins est « limitée, inexistante ou profondément problématique ». En effet, parce qu’il n’y a pas assez de littérature scientifique récente ou de matériel éducatif, les internautes qui cherchent de la documentation récente sur les vaccins trouveront probablement plus de contenu anti-vax que la recherche médicale empirique à l'appui des vaccins.
Par conséquent, la censure pratiquée par les entreprises ne pourra pas résoudre le problème de désinformation anti-vax. Selon L’EFF, les tentatives bien intentionnées d’effacer complètement du contenu anti-vax de l'Internet le mettront hors de portée des chercheurs, des professionnels de la santé publique et d'autres personnes qui doivent être en mesure de l'étudier et de comprendre comment il se propage et dans le pire des cas, pourraient même aggraver le problème.
Facebook et Twitter luttent depuis des années contre les fake news et la désinformation depuis plusieurs années, mais le problème persiste. Même les outils renouvelés et une large équipe de modérateurs de Facebook ne parviennent pas à mettre fin à la désinformation et la haine qui persistent toujours sur ses plateformes de réseau social.
Les entreprises devraient responsabiliser les utilisateurs plutôt que de leur imposer ce qu’ils doivent voir et quand par des algorithmes
Selon L’EFF, « les algorithmes qui décident ce que les utilisateurs voient et quand », constituent l’une des causes profondes de la prolifération de la désinformation à laquelle les plateformes en ligne doivent s'attaquer. Au lieu de leur imposer ce qu’ils doivent voir, les plateformes devraient commencer par responsabiliser les utilisateurs avec des outils plus individualisés qui leur permettent de comprendre et de contrôler l'information qu'ils voient, a écrit l’ONG dans son article publié le mercredi dernier.
L’organisation de protection des libertés sur Internet trouve que les algorithmes comme le fil d'actualités de Facebook ou la chronologie de Twitter prennent des décisions concernant quels sujets d’actualité, quelles publicités et quel contenu généré par les utilisateurs promouvoir ou cacher. Selon elle, ce type de traitement de données en ligne par ces plateformes peut jouer un rôle amplificateur pour certains types de contenus incendiaires au lieu de les « décourager », malgré leurs meilleurs efforts pour peaufiner leurs algorithmes. « C'est pourquoi ces plateformes devraient examiner les parties de leur infrastructure qui agissent comme un mégaphone pour les contenus dangereux et s'attaquer à la cause profonde du problème plutôt que de censurer les utilisateurs », a écrit l’EFF.
Selon L’EFF, les éléments les plus importants à considérer pour venir à bout à ce phénomène de désinformation, notamment la prolifération du contenu anti-vax, sont la transparence – transparence dans le fonctionnement des algorithmes d'une plateforme –, et l'ouverture – c'est-à-dire, mettre en œuvre des outils permettant aux utilisateurs de s'ouvrir et de créer leurs propres flux. L’EFF dit que ces éléments sont déterminants pour mieux comprendre le traitement algorithmique, le type de contenu qu'il peut encourager et les conséquences qu'il peut avoir.
A ce propos, L’EFF trouve que les récentes améliorations de transparence de Facebook sont encourageantes, toutefois, selon l’organisation, Facebook devrait aller plus loin.
En effet, Mark Zuckerberg, PDG de Facebook, a annoncé en mars sa volonté de réorienter son entreprise vers plus de confidentialité. Le mardi dernier, Facebook a procédé à une refonte de sa principale application afin de mieux protéger la vie privée des utilisateurs, en prenant des mesures concrètes pour transformer la plateforme en une entreprise privée de messagerie et de commerce électronique. Cette refonte est intervenue alors que la société tente de surmonter les scandales passés tout en exploitant de nouvelles sources de revenus à un moment où la croissance du nombre de ses utilisateurs qui contribuent le plus à ses entrées stagne aux Etats-Unis, au Canada et en Europe.
Zuckerberg a expliqué, lors de la conférence F8 2019, qu'il s'agissait d'un changement fondamental dans la manière dont Facebook développe des produits et gère son entreprise. Mais l’EFF pense que ces changements annoncés pour l’application principale Facebook et pour Messenger ne sont pas suffisants pour empêcher la désinformation.
Par ailleurs, Facebook a annoncé en mars qu’il était en train de travailler à lutter contre la désinformation concernant les vaccins sur Facebook en réduisant leur propagation et en fournissant aux personnes des informations faisant autorité sur le sujet. Cette annoncé est intervenue après la médiatisation de l'affaire Lindenberger, le lycéen américain de 18 ans originaire de l'Ohio qui s'est fait des vaccins contre l'avis de sa mère qui, selon lui, avait rejoint les communautés anti-vaccin sur Facebook.
Pour parvenir à ses fins, Facebook a dit, entre autres : « Nous ne montrerons pas et ne recommanderons pas de contenu contenant des informations erronées sur les vaccinations sur Instagram Explore ou les pages hashtag ». Toutefois, selon L’EFF, cette solution pourrait entrainer la suppression de contenus légitimes et contribuer à aggraver le problème. Un peu plutôt en janvier, pour lutter contre la désinformation et les rumeurs, WhatsApp a annoncé qu’il limitait le transfert d'un message à seulement cinq destinataires au maximum.
Selon l’EFF, les utilisateurs ne devraient pas être pris en otage par l'algorithme propriétaire d'une plateforme. Dans son article, l’organisation a écrit : « Au lieu de servir à tout le monde « un algorithme qui va les régir tous » et de donner aux utilisateurs seulement quelques occasions de l'améliorer, les plateformes devraient ouvrir leurs API pour permettre aux utilisateurs de créer leurs propres règles de filtrage pour leurs propres algorithmes ». « Les agences de presse, les établissements d'enseignement, les groupes communautaires et les particuliers devraient tous être en mesure de créer leurs propres fils de nouvelles, ce qui permettrait aux utilisateurs de choisir en qui ils ont confiance pour conserver leurs informations et partager leurs préférences avec leur communauté », a-t-elle ajouté.
Source : EFF
Et vous ?
Qu’en pensez-vous ?
Quel commentaire faites-vous des propositions de L’EEF pour vaincre la désinformation ?
Pensez-vous aussi que la censure est contre-productive contre la désinformation en ligne ?
Quelle solution proposez-vous ?
Lire aussi
Pour lutter contre la désinformation et les rumeurs, WhatsApp limite le transfert d'un message, à cinq destinataires au maximum
Mark Zuckerberg va réorienter Facebook vers le chiffrement et la confidentialité, et les gens communiqueront dorénavant en groupe restreint
Facebook procède à une refonte de son application principale pour mieux protéger la vie privée, et vous aider à trouver l'amour
Twitter a supprimé une centaine de comptes qui auraient tenté de manipuler, la présidentielle américaine de 2016
Les utilisateurs américains de Facebook quittent le réseau social par millions, selon un sondage d'Edison Research
La censure ne peut pas être la seule réponse à la désinformation anti-vaccin,
Plutôt s'attaquer aux algorithmes au cœur du problème, affirme l'EFF
La censure ne peut pas être la seule réponse à la désinformation anti-vaccin,
Plutôt s'attaquer aux algorithmes au cœur du problème, affirme l'EFF
Le , par Stan Adkens
Une erreur dans cette actualité ? Signalez-nous-la !