
YouTube vient de déclarer la guerre aux militants anti-vaccins
Bien que la pandémie prenne du recul - et que le monde retrouve progressivement ses habitudes - seules 2,64 milliards de personnes ont été complètement vaccinées à l'heure actuelle, soit environ 33,9 % de la population mondiale. Des millions de personnes à travers le monde sont encore réticentes à l'idée de se faire vacciner, car elles ont été bernées par des croyances complotistes sur les vaccins. Plusieurs experts ont accusé les plateformes en ligne, principalement les plateformes de médias sociaux, d'être à l'origine de cette désinformation sur les vaccins en servant de chambre d'écho pour les contenus erronés des militants anti-vaccins.
Lors de l'été, les autorités américaines ont dû recruter une « armée d'influenceurs », notamment des stars de TikTok, pour lutter contre le mensonge sur les vaccins de la Covid-19, mais cela n'a pas suffi. L'un des mensonges les plus répandus estime que "les vaccins modifient le patrimoine génétique". Depuis, certaines plateformes tentent de prendre les choses en main en engageant une lutte contre les militants anti-vaccins. Pour sa part, YouTube, une division de Google d'Alphabet, a annoncé mercredi qu'elle allait étendre sa politique contre la désinformation pour couvrir tous les vaccins que les autorités sanitaires considèrent comme efficaces.
En d'autres mots, YouTube interdit maintenant la publication de toute forme d'absurdité liée aux vaccins, et pas seulement les vaccins contre la Covid-19. Matt Halprin, vice-président de YouTube chargé de la confiance et de la sécurité, a expliqué que l'interdiction portera sur tout média qui prétend que les vaccins sont dangereux ou entraînent des problèmes de santé chroniques comme l'autisme. Il y a un an, YouTube a interdit des certaines de vidéos critiquant les vaccins contre la Covid-19. La plateforme aurait retiré plus de 130 000 vidéos pour avoir violé cette règle. Mais plusieurs vidéos ont réussi à passer à travers les mailles.
Elles ont contourné la règle en faisant des déclarations douteuses sur les vaccins sans mentionner la Covid-19. YouTube a alors compris que sa politique était trop limitée. « Nous pouvons imaginer que les spectateurs extrapolent ensuite potentiellement à la Covid-19. Nous voulions nous assurer que nous couvrions toute la gamme », a déclaré Halprin dans une interview cette semaine. Les nouvelles directives de YouTube énumèrent les exemples suivants de fausses affirmations que YouTube supprimera :
- les allégations selon lesquelles les vaccins provoquent des effets secondaires chroniques tels que : cancer, diabète ou autres effets secondaires chroniques ;
- les allégations selon lesquelles les vaccins ne réduisent pas le risque de contracter une maladie ;
- les allégations selon lesquelles les vaccins contiennent des substances qui ne figurent pas sur la liste des ingrédients des vaccins, comme des matières biologiques provenant de fœtus (par exemple, des tissus fœtaux, des lignées cellulaires fœtales) ou des sous-produits animaux ;
- les allégations selon lesquelles les vaccins contiennent des substances ou des dispositifs destinés à suivre ou à identifier les personnes qui les ont reçus ;
- les allégations selon lesquelles les vaccins modifient le patrimoine génétique d'une personne ;
- les allégations selon lesquelles le vaccin ROR provoque l'autisme ;
- les allégations selon lesquelles les vaccins font partie d'un programme de dépopulation ;
- les allégations selon lesquelles le vaccin contre la grippe provoque des effets secondaires chroniques tels que l'infertilité ;
- les allégations selon lesquelles le vaccin contre le VPH provoquerait des effets secondaires chroniques tels que la paralysie.
Les nouvelles règles contiennent quelques exceptions
Ce changement marque une évolution majeure pour le géant des médias sociaux, qui diffuse chaque jour plus d'un milliard d'heures de contenu en continu. À l'instar de ses homologues Facebook et Twitter, la société s'est longtemps opposée à un contrôle trop strict du contenu, arguant que le maintien d'une plateforme ouverte est essentiel à la liberté d'expression. Mais alors que ces sociétés sont de plus en plus critiquées par les régulateurs, les législateurs et les utilisateurs ordinaires pour leur contribution aux maux de la société, YouTube modifie des politiques qu'elle a maintenues pendant des années.
« Si YouTube n'a pas agi plus tôt, c'est parce qu'il se concentrait sur la désinformation concernant spécifiquement les vaccins contre le coronavirus », a déclaré Halprin. Lorsqu'il a constaté que des affirmations erronées concernant d'autres vaccins contribuaient à alimenter les craintes suscitées par les vaccins contre le coronavirus, il a étendu l'interdiction. « L'élaboration de politiques solides prend du temps. Nous voulions lancer une politique qui soit complète, applicable avec cohérence et qui réponde de manière adéquate au défi à relever », a-t-il ajouté. Toutefois, certaines formes de contenus pourraient être autorisées.
YouTube a déclaré qu'il "peut autoriser le contenu" qui viole la politique s'il "inclut un contexte supplémentaire dans la vidéo, l'audio, le titre ou la description", mais le site a souligné que cela "n'est pas un laissez-passer pour promouvoir la désinformation". YouTube a déclaré qu'il "peut également faire des exceptions" pour les vidéos qui condamnent, contestent ou font la satire de la désinformation et "pour le contenu montrant un forum public ouvert, comme une manifestation ou une audience publique, à condition que le contenu ne vise pas à promouvoir la désinformation qui viole les politiques de la plateforme".
YouTube sera également plus indulgent avec les vidéos dans lesquelles les gens discutent de leurs propres expériences en matière de vaccination, mais a déclaré qu'il "retirera toujours le contenu s'ils incluent d'autres violations de la politique ou démontrent une tendance à promouvoir la désinformation sur les vaccins". En effet, le site applique une politique à trois fautes. En cas de première infraction, il supprimera le contenu et enverra un courriel à la personne qui l'a publié. Si c'est la première fois qu'il enfreint les directives communautaires, il recevra probablement un avertissement sans pénalité pour sa chaîne.
« Si ce n'est pas le cas, nous pouvons émettre une suspension temporaire contre votre chaîne. Si vous obtenez 3 suspensions en 90 jours, votre chaîne sera résiliée », a déclaré YouTube. YouTube, Facebook et Twitter ont tous interdit les fausses informations sur le coronavirus dès le début de la pandémie. Mais les fausses allégations continuent de sévir sur ces trois plateformes. Les trois réseaux sociaux sont également étroitement liés, YouTube servant souvent d'hébergeur pour les vidéos qui deviennent virales sur Twitter ou Facebook.
YouTube commence à supprimer les chaînes récalcitrantes
YouTube a supprimé la chaîne Children's Health Defense de Robert F. Kennedy Jr. pour avoir diffusé des informations erronées sur les vaccins, et a confirmé qu'il avait "supprimé les pages associées à des diffuseurs d'informations erronées très connus comme Joseph Mercola, Erin Elizabeth, [et] Sherri Tenpenny. Kennedy a publié une déclaration accusant YouTube de censure, affirmant : « Il n'y a aucun exemple dans l'histoire où la censure et le secret ont fait progresser la démocratie ou la santé publique ». Kennedy avait déjà été banni par Instagram. YouTube a également suspendu les privilèges d'affichage de RT DE.
Il s'agit du service en langue allemande de la société médiatique publique russe RT, en raison de la désinformation liée à la Covid-19. La société a déclaré qu'elle avait ensuite suspendu une autre chaîne que le diffuseur a utilisée pour contourner la suspension. Cette deuxième chaîne s'appelle Der Fehlende Part. YouTube a déclaré qu'il avait initialement émis une suspension d'une semaine à l'encontre de RT DE, mais qu'il en a ensuite fait une interdiction permanente des deux cha...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.