La manipulation de l'opinion publique sur les plateformes de médias sociaux est devenue une menace critique pour la vie publique. C'est ce que conclut un nouveau rapport de l'Oxford Internet Institute (OII), un institut multidisciplinaire et basé à l'Université d'Oxford en Angleterre qui est consacré à l'étude des implications sociétales d'Internet dans le but d'en établir des recherches, des politiques et des pratiques pour le Royaume-Uni, l'Europe et ailleurs dans le monde. Le rapport a révélé que malgré les efforts pour lutter contre la propagande informatique, le problème s'aggrave à grande échelle. Partout dans le monde, des agences gouvernementales et des partis politiques exploitent les plateformes de médias sociaux pour diffuser des informations indésirables et la désinformation, exercer une censure et un contrôle, et saper la confiance dans les médias, les institutions publiques et la science.
Pour rappel, il y a les élections présentielles américaines de 2016 au cours desquelles de fausses informations ont circulé sur les réseaux sociaux, notamment Facebook, pour influencer les électeurs. Pour exemple, d’après un article partagé plus d’un million de fois sur Facebook en septembre 2016, il était indiqué que Donald Trump avait reçu le support du pape, ce qui était bien entendu une fausse actualité qui avait pourtant été largement diffusée comme bien d’autres. Après l’élection de Donald Trump, des voix se sont élevées pour pointer Facebook d’un doigt accusateur en affirmant que le réseau social avait contribué à son investiture en laissant diffuser de telles actualités qui ont influencé les grands électeurs. Cela est d'autant plus remarquable car, cette pratique peut avoir des conséquences non négligeables sur des personnes ou des événements comme l'avait suggéré une étude menée par Pew Research Center qui avait analysé la portée et les caractéristiques des consommateurs de médias sociaux dans neuf sites de réseautage social et avait indiqué que 44 % des Américains qui vont sur Facebook y lisent des actualités.
Un autre cas palpable de désinformation est celui de Paul Horner, un professionnel qui exploitait plusieurs sites qui publient de fausses actualités en général à caractère humoristique. Lors de la campagne électorale américaine de 2016, il a reconnu que les fausses actualités sur Facebook ont vraiment aidé Donald Trump à remporter les élections présidentielles contre Hilary Clinton. Car, il y avait participé aussi. Il n'était pas un partisan de Trump, ce qui l’avait conduit à écrire des faux articles pour ridiculiser le camp du candidat républicain. Or, ses articles ont été pris au sérieux et ont produit le contraire de l’effet attendu. « Mes sites ont été tout le temps repris par les partisans de Trump », dit-il. « Ses partisans ne vérifient rien - ils postent tout, ils croient n'importe quoi. Son directeur de campagne a posté mon article au sujet d'une personne qui a reçu 3500 $ pour manifester » lors d’un rassemblement des pro-Trump.
« Le nombre de pays où des manipulations de médias sociaux ont été organisées a considérablement augmenté, passant de 28 à 48 pays dans le monde », a déclaré Samantha Bradshaw, co-auteur du rapport de l'OII. « La plupart de ces manipulations proviennent des partis politiques qui répandent de la désinformation et des informations indésirables en période électorale. De plus en plus de partis politiques tirent les leçons des stratégies déployées lors du Brexit et de l'élection présidentielle américaine 2016 : de plus en plus de campagnes utilisent des robots, des informations indésirables et de la désinformation pour polariser et manipuler les électeurs », a-t-elle ajouté. Ceci en dépit des efforts déployés par les gouvernements de nombreux pays démocratiques pour mettre en place une nouvelle législation destinée à lutter contre les fausses informations sur Internet. « Le problème, c'est que ces groupes de travail chargés de lutter contre les fausses informations sont utilisés comme un nouvel outil pour légitimer la censure dans les régimes autoritaires », déclare le professeur Phil Howard, co-auteur et chercheur principal du projet de propagande informatique de l'OII. « Au mieux, ces types de groupes de travail créent des contre-discours et créent des outils de sensibilisation et de vérification des faits par les citoyens », explique t-il
Un autre défi est l'évolution des médias utilisés par les individus pour partager des nouvelles et des informations. « Il est prouvé que les campagnes de désinformation se déplacent vers les applications de discussion en direct et les plates-formes alternatives. Cela devient de plus en plus courant dans les pays du Sud, où les groupes utilisant des applications de chat sont de plus en plus populaires », explique Bradshaw. Les comptes de robots automatisés continuent d'être une tactique bien utilisée. Les commentateurs en ligne et les faux comptes sont utilisés pour diffuser des messages pro-party, mais également pour partager du contenu de manière stratégique ou pour publier des messages en utilisant des mots-clés pour des algorithmes de jeu et obtenir certaines tendances du contenu. Ils sont également utilisés pour signaler un contenu et des comptes légitimes sur une grande échelle, ce qui entraîne leur retrait temporaire. « Nous pensons que de nouvelles innovations continueront à émerger à mesure que les plates-formes et les gouvernements prendront des mesures juridiques et réglementaires pour limiter ce type d’activités », a déclaré Howard.
Différentes stratégies sont utilisées pour la manipulation de l'opinion publique sur les plateformes de médias sociaux. L'utilisation de commentateurs en ligne qui participent activement à des discussions et à des débats avec de véritables utilisateurs de médias sociaux est une technique de premier plan en matière de manipulation des médias sociaux. Cette activités couvrent une variété de plates-formes en ligne, y compris des forums Web traditionnels, des blogs, des sites Web d'actualités et des plates-formes de médias sociaux telles que Facebook et Twitter par exemple. Les rédacteurs du rapport dit même avoir trouvé des preuves où les organisations de partis politiques utilisent les commentateurs en ligne pour structurer les discussions sur Internet et les plateformes de médias sociaux de trois manières : diffuser la propagande en faveur du gouvernement ou du parti ; attaquer l'opposition ou organiser des campagnes de diffamation ; employer des stratégies neutres pour détourner des conversations ou des critiques sur des discussions importantes.
Une autre stratégie de manipulation de l'opinion publique indiquée dans le rapport est « l'utilisation de trolls qui ciblent des individus, des communautés ou des organisations spécifiques ayant un discours de haine ou diverses formes de harcèlement en ligne. Ces messages ciblés et haineux sont utilisés comme une tentative systématique de persécution des opinions minoritaires et de la dissidence politique, à la fois dans le contexte des élections et comme outil de contrôle social dans les régimes autoritaires. Nous avons trouvé des informations faisant état de campagnes de traîne sponsorisées par les États ciblant des dissidents politiques, des membres de l'opposition ou des journalistes dans 27 des 48 pays de notre échantillon ».
Le rapport indique que « ces stratégies de manipulation sont généralement mises en œuvre par des cyber-troupes qui gèrent de faux comptes. Ces comptes sont également utilisés pour créer, diffuser et partager en ligne des informations indésirables. Nous avons trouvé des preuves de faux comptes dans 46 des 48 pays de notre échantillon. Nous avons examiné trois types de faux comptes : les comptes automatisés ; comptes humains ; et comptes hybrides ou cyborg. Les comptes automatisés, également appelés "robots politiques", sont des logiciels ou des codes conçus pour imiter le comportement humain en ligne. Ils peuvent être utilisés pour effectuer diverses techniques de manipulation, y compris la diffusion d'informations indésirables et de propagande lors d'élections et de référendums, ou créer un faux sentiment de popularité ou de soutien en aimant ou en partageant des histoires, pour finalement noyer des conversations authentiques en ligne ».
Les cyber-troupes utilisent diverses stratégies de communication pour diffuser la propagande informatique sur les plateformes de médias sociaux. Ils créent leur propre contenu, y compris de fausses vidéos, blogs, mémos, images ou sites d'informations. Ces stratégies de contenu impliquent bien plus que la simple publication de commentaires sur le forum ou la réponse à de véritables messages d'utilisateurs. Elles représentent en revanche une source importante d'informations indésirables et d'informations conspiratrices ou polarisantes pouvant être utilisées pour soutenir une campagne de manipulation plus vaste. Les stratégies de contenu impliquent également la suppression malveillante de contenu ou de comptes légitimes. En plus d'amplifier certains messages, les équipes de cyber-troupes utilisent des stratégies de contenu pour supprimer des comptes légitimes en ligne. « Nous identifions de plus en plus de comptes gérés par des humains et automatisés qui sont utilisés pour signaler de façon abusive des contenus ou des utilisateurs légitimes, de sorte que leurs comptes et leurs publications soient supprimés temporairement (et par erreur) par le canal des médias sociaux. En Arménie, en Chine, en Équateur et en Russie, nous avons trouvé des preuves de ces alertes malveillantes de contenu afin d'étouffer l'expression individuelle et de limiter la diffusion de contenu en ligne », indique le rapport.
Pour effectuer cette étude, les chercheurs ont d'abord effectué une analyse systématique du contenu des articles de presse faisant état des activités des cyber-troupes dans l'échantillon des 48 pays étudiés. Ils ont ensuite complété ces données par une revue de littérature secondaire approfondie. En fin, à l'aide de ces données, un profil a été établi pour chaque pays étudié par une équipe d'assistants de recherche qui a consulté des experts nationaux sur l'exactitude et la fiabilité des informations collectées accessibles au public. L’analyse qualitative du contenu de ce rapport a été réalisée afin de comprendre la gamme d’acteurs étatiques qui utilisent activement les médias sociaux pour manipuler l’opinion publique, ainsi que leurs capacités, stratégies et ressources.
ci-joint le rapport
Source : Oxford Internet Institute
Et vous ?
Que pensez-vous des conclusions de cette étude ?
Comment peut-on lutter contre la désinformation selon vous ?
Voir aussi
Fausses actualités : Mark Zuckerberg aurait-il sous estimé leur portée sur Facebook ? Le PDG trouvait « ridicule » l'idée d'une quelconque influence sur les élections
Fausses actualités : « les gens sont clairement plus bêtes, ils ne vérifient rien » conclut un professionnel des fausses actualités
Comment Facebook pourrait-il traiter le problème des fausses actualités ? Un développeur propose une extension Chrome comme début de solution
La manipulation de l'opinion publique sur les plateformes de médias sociaux est devenue une menace critique pour la vie publique,
Selon un rapport
La manipulation de l'opinion publique sur les plateformes de médias sociaux est devenue une menace critique pour la vie publique,
Selon un rapport
Le , par Bill Fassinou
Une erreur dans cette actualité ? Signalez-nous-la !