
vers une nouvelle ère de désinformation « tolérée » ?
Ne soyez pas surpris de voir davantage de vidéos controversées sur YouTube. À l'instar de Meta (Facebook, Instagram), la plateforme a assoupli sa politique de modération, autorisant des contenus qui enfreignent les règles habituelles s'ils sont jugés « d'intérêt public », pour plaire à Donald Trump. YouTube, propriété de Google (Alphabet), vient de revoir en profondeur sa politique de modération des contenus. Objectif affiché : favoriser la liberté d’expression. Mais cette nouvelle doctrine, qui consiste à moins supprimer de vidéos sensibles, suscite à la fois l’espoir d’un débat plus ouvert… et la crainte d’une désinformation accrue. Décryptage d’un virage controversé.
Contexte
Pendant des années, YouTube a supprimé des vidéos contenant des insultes désobligeantes, des informations erronées sur les vaccins Covid et des mensonges électoraux, affirmant que le contenu violait les règles de la plateforme. Mais depuis le retour du président Trump à la Maison-Blanche, YouTube a encouragé ses modérateurs de contenu à laisser en ligne les vidéos dont le contenu est susceptible d'enfreindre les règles de la plateforme plutôt que de les supprimer, tant que les vidéos sont considérées comme étant d'intérêt public. Il s'agit notamment de discussions sur des questions politiques, sociales et culturelles.
Un assouplissement ciblé des règles
Les vidéos de YouTube pourraient bientôt devenir un peu plus pernicieuses. La plateforme vidéo dominante de Google a passé des années à retirer les contenus discriminatoires et conspirationnistes de sa plateforme conformément à ses directives d'utilisation, mais le site serait en train d'adopter une approche plus légère de la modération. L'élévation de la barre de suppression des contenus permettra à davantage de contenus potentiellement incendiaires de rester en ligne dans « l'intérêt du public ».
YouTube s'est déjà attiré les foudres des conservateurs en supprimant QAnon et des contenus anti-vaccins. Selon le New York Times, les modérateurs de contenu de YouTube ont reçu de nouvelles directives et une formation sur la manière de gérer le déluge de contenus provocateurs sur la plateforme. Ces changements incitent les examinateurs à ne pas supprimer certaines vidéos, ce qui confirme une tendance observée non seulement sur YouTube, mais aussi sur de nombreuses plateformes qui hébergent des contenus créés par les utilisateurs.
À la fin de l'année dernière, YouTube a commencé à informer les modérateurs qu'ils devaient faire preuve de prudence lorsqu'ils supprimaient des vidéos d'intérêt public. Il s'agit notamment des vidéos d'utilisateurs qui traitent de questions telles que les élections, l'ethnicité, l'identité de genre, la sexualité, l'avortement, l'immigration et la censure.
Parmi les changements notables :
- Le seuil de suppression a été relevé : auparavant, une vidéo était supprimée si plus de 25 % de son contenu violait les règles. Ce seuil passe maintenant à 50 %.
- « L'intérêt public » prévaut sur les violations partielles : les vidéos incluant des fausses informations ou des propos problématiques peuvent rester si elles sont jugées utiles au débat.
- Escalade obligatoire pour les cas limites : si un modérateur hésite, il doit consulter un supérieur au lieu de supprimer immédiatement.
Pour les vidéos considérées comme étant d'intérêt public, YouTube a relevé le seuil de la quantité de contenu offensant autorisée à la moitié d'une vidéo, au lieu du quart d'une vidéo. La plateforme a également encouragé les modérateurs à laisser ces vidéos de côté, ce qui inclut les réunions du conseil municipal, les rassemblements de campagne et les conversations politiques. Cette politique éloigne la plateforme de certaines de ses pratiques en matière de pandémie, comme lorsqu'elle a supprimé des vidéos de réunions de conseils municipaux et une discussion entre le gouverneur de Floride, Ron DeSantis, et un groupe de scientifiques, en invoquant des informations médicales erronées.
Les exemptions élargies pourraient bénéficier aux commentateurs politiques dont les longues vidéos mélangent la couverture de l'actualité avec des opinions et des affirmations sur une variété de sujets, en particulier à mesure que YouTube joue un rôle plus important en tant que principal distributeur de podcasts. Cette politique permet également à la plateforme vidéo d'éviter les attaques de politiciens et d'activistes frustrés par son traitement des contenus concernant les origines de Covid, les élections de 2020 et Hunter Biden, le fils de l'ancien président Joseph R. Biden Jr.
Un virage controversé dans la modération de contenu
Ce changement de politique, qui n'a pas été rendu public, fait de YouTube la dernière plateforme de médias sociaux à faire marche arrière dans ses efforts pour contrôler le discours en ligne, à la suite des pressions exercées par les républicains pour qu'ils cessent de modérer les contenus. En janvier, Meta a pris une décision similaire, mettant fin à un programme de vérification des faits sur les publications des médias sociaux. Meta, qui possède Facebook et Instagram, a suivi les traces de X, la plateforme de médias sociaux d'Elon Musk, et a confié aux utilisateurs la responsabilité de contrôler le contenu.
Mais contrairement à Meta et à X, YouTube n'a pas fait de déclarations publiques sur l'assouplissement de sa modération des contenus. Le service de vidéo en ligne a présenté sa nouvelle politique à la mi-décembre dans un document de formation qui a été examiné par le New York Times.
YouTube met continuellement à jour ses directives à l'intention des modérateurs de contenu sur les sujets qui font surface dans le discours public, a déclaré Nicole Bell, porte-parole de l'entreprise. Il retire les règles qui n'ont plus de sens, comme il l'a fait en 2023 pour certaines fausses informations de Covid, et renforce les règles lorsque cela se justifie, comme il l'a fait cette année pour interdire les contenus dirigeant les internautes vers des sites de jeux d'argent, selon la porte-parole.
Au cours des trois premiers mois de cette année, YouTube a retiré 192 586 vidéos en raison de leur contenu haineux et abusif, soit une augmentation de 22 % par rapport à l'année précédente, explique-t-elle.
« Reconnaissant que la définition de "l'intérêt public" est en constante évolution, nous mettons à jour nos directives concernant ces exceptions afin de refléter les nouveaux types de discussion que nous observons aujourd'hui sur la plateforme », a déclaré Bell dans un communiqué. Elle a ajouté : « Notre objectif reste le même : protéger la liberté d'expression sur YouTube tout en atténuant les préjudices graves ».
Les défis et les risques d'une telle approche
Si l'intention de protéger la liberté d'expression est louable (même si plusieurs critiques s'accordent à dire que « liberté d'expression » n'est qu'un prétexte), cette nouvelle politique de YouTube n'est pas sans risques et suscite de nombreuses inquiétudes. Le principal défi résidera dans la capacité de la plateforme à distinguer la liberté d'expression légitime de la diffusion de désinformation, de l'incitation à la haine ou à la violence. Un assouplissement excessif pourrait potentiellement :
- Amplifier la désinformation : Sans une modération rigoureuse, les théories du complot, les fausses nouvelles et les informations trompeuses sur des sujets cruciaux comme la santé publique ou les processus démocratiques pourraient proliférer plus facilement.
- Favoriser les discours haineux : Les groupes extrémistes et les individus propageant des messages discriminatoires ou haineux pourraient trouver un terrain plus fertile pour leurs activités.
- Mettre en danger les utilisateurs vulnérables : Les discours d'intimidation, de harcèlement ou de glorification de comportements dangereux pourraient augmenter, mettant en péril la sécurité et le bien-être de certains utilisateurs, notamment les jeunes.
- Compliquer la monétisation pour les annonceurs : Les annonceurs pourraient être réticents à placer leurs publicités à côté de contenus controversés ou potentiellement nuisibles, ce qui pourrait avoir un impact financier sur YouTube et ses créateurs.
D'ailleurs, les critiques affirment que les changements apportés par les plateformes de médias sociaux ont contribué à la diffusion rapide de fausses affirmations et risquent d'accroître le discours de haine numérique. L'année dernière, sur X, un message a affirmé de manière inexacte que « les bureaux d'aide sociale de 49 États distribuent des demandes d'inscription sur les listes électorales à des étrangers en situation irrégulière », selon le Center for Countering Digital Hate, qui étudie les fausses informations et les discours de haine. Le message, qui aurait été supprimé avant les récents changements de politique, a été vu 74,8 millions de fois.
Depuis des années, Meta supprime environ 277 millions de contenus par an, mais selon les nouvelles règles, une grande partie de ces contenus pourrait rester en ligne, y compris des commentaires tels que « les Noirs sont plus violents que les Blancs », a déclaré Imran Ahmed, directeur général du centre.
« Ce à quoi nous assistons, c'est à une course rapide vers le bas », a-t-il ajouté. Les changements profitent aux entreprises en réduisant les coûts de modération des contenus, tout en conservant plus de contenus en ligne pour l'engagement des utilisateurs, a-t-il ajouté. « Il ne s'agit pas de liberté d'expression. Il s'agit de publicité, d'amplification et, en fin de compte, de profits ».
L'impact sur l'écosystème numérique
La décision de YouTube pourrait avoir des répercussions bien au-delà de sa propre plateforme. En tant que l'une des plus grandes plateformes de contenu vidéo au monde, son approche en matière de modération sert souvent de référence pour d'autres acteurs de l'industrie. Si d'autres plateformes devaient suivre un chemin similaire, cela pourrait entraîner une détérioration générale de la qualité de l'information en ligne et une augmentation des contenus problématiques.
Inversement, cette décision pourrait également pousser d'autres plateformes à renforcer leurs propres politiques de modération pour se différencier et offrir un environnement plus sûr à leurs utilisateurs.
Conclusion
Le revirement de YouTube vers une politique de modération plus souple au nom de la liberté d'expression est une décision audacieuse aux implications profondes. Si elle vise à répondre aux préoccupations concernant la censure et à favoriser un débat plus ouvert, elle soulève également des questions cruciales sur la responsabilité des plateformes en ligne et leur rôle dans la formation de l'opinion publique.
L'efficacité de cette nouvelle approche dépendra en grande partie de la capacité de YouTube à trouver un équilibre délicat entre la promotion de la liberté d'expression et la prévention des préjudices réels. Le monde observera attentivement comment cette politique se déroulera et quelles en seront les conséquences pour l'information, la discussion et la sécurité sur la plus grande plateforme vidéo du monde. La liberté d'expression est un principe fondamental, mais sa protection ne doit pas se faire au détriment de la vérité et de la sécurité des communautés en ligne.
Sources : rapport du CCDH, vidéo dans le texte
Et vous ?






Vous avez lu gratuitement 898 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.