« Lorsque nous élaborons nos politiques, nous gardons toujours deux objectifs à l'esprit : protéger notre communauté et offrir un lieu de discussion et de débat ouvert. Ces objectifs sont parfois en tension l'un avec l'autre, et il n'y a peut-être aucun domaine où la recherche d'un équilibre est plus complexe que celui du discours politique. La capacité à débattre ouvertement d'idées politiques, même celles qui sont controversées ou fondées sur des hypothèses réfutées, est essentielle au bon fonctionnement d'une société démocratique, en particulier en pleine période électorale ».
YouTube a d'abord mis en place une disposition de sa politique de désinformation électorale axée sur l'intégrité des élections présidentielles américaines passées en décembre 2020, une fois que la date de certification de la sphère de sécurité des États avait été dépassée. Deux ans, des dizaines de milliers de suppressions de vidéos et un cycle électoral plus tard, elle a reconnu qu'il était temps de réévaluer les effets de cette politique dans le nouveau paysage actuel.
Dans le contexte actuel, « nous constatons que si la suppression de ce contenu permet de lutter contre la désinformation, elle pourrait également avoir pour effet involontaire de restreindre le discours politique sans réduire de manière significative le risque de violence ou d'autres préjudices dans le monde réel. Dans cette optique, et alors que la campagne 2024 est déjà bien engagée, nous cesserons de supprimer les contenus qui avancent de fausses allégations selon lesquelles des fraudes, des erreurs ou des dysfonctionnements généralisés se seraient produits lors de l'élection présidentielle de 2020 et d'autres élections présidentielles américaines antérieures. » Cette mesure est entrée en vigueur le vendredi 2 juin. « Comme pour toute mise à jour de nos politiques, nous avons soigneusement réfléchi à ce changement », écrit YouTube.
Le 9 décembre 2020, YouTube a interdit les vidéos qui affirmaient à tort que le président Trump avait remporté l'élection présidentielle américaine. Depuis lors, la plateforme a supprimé des « dizaines de milliers » de vidéos qui enfreignaient cette politique. Le 2 juin 2023, YouTube est revenu sur cette décision : le géant de la vidéo a annoncé qu'il « cessera de supprimer les contenus qui avancent de fausses affirmations selon lesquelles une fraude généralisée, des erreurs ou des pépins se sont produits lors de l'élection présidentielle de 2020 et d'autres élections présidentielles américaines passées. »
Pourquoi YouTube fait-il ce changement ? Dans un billet de blog non signé publié vendredi, le service appartenant à Google a tenté de l'expliquer de la manière suivante : « Dans le contexte actuel, nous estimons que si la suppression de ce contenu permet de lutter contre la désinformation, elle pourrait également avoir pour effet involontaire de restreindre le discours politique sans réduire de manière significative le risque de violence ou d'autres préjudices dans le monde réel. »
YouTube a également indiqué : « Comme pour toute mise à jour de nos politiques, nous avons soigneusement réfléchi à ce changement. »
Trump, qui continue d’alléguer qu'il a remporté l'élection de 2020, brigue l'investiture républicaine pour l'élection présidentielle américaine de 2024. À la suite de l'attaque pro-Trump du 6 janvier 2021 contre le Capitole des États-Unis, YouTube a suspendu la chaîne de Trump après avoir déterminé qu'il avait enfreint la politique de la plateforme contre l'incitation à la violence. YouTube a rétabli la chaîne de l'ex-président en mars dernier, justifiant cette décision en assurant que le fait de permettre aux électeurs « d'entendre de manière égale les principaux candidats nationaux » l'emportait sur toute menace potentielle de violence.
Le 7 janvier 2021, Facebook (qui est récemment devenu Meta) a procédé au blocage des comptes Facebook et Instagram de Donald Trump sur une durée de 24 heures. Le lendemain, Facebook s'est ravisé en optant pour un blocage d'une durée indéterminée et pendant « au moins les deux prochaines semaines, jusqu'à ce que la transition pacifique du pouvoir soit terminée », selon les propos du PDG de Facebook, Mark Zuckerberg.
Avec la saison électorale 2024 en cours, selon le dernier article de blog de YouTube, « la capacité de débattre ouvertement d'idées politiques, même celles qui sont controversées ou basées sur des hypothèses réfutées, est essentielle au fonctionnement d'une société démocratique - en particulier au milieu de la saison électorale. »
YouTube dispose d'une équipe spécialisée dans les élections, composée de membres de sa cellule de renseignement, de son équipe « Confiance et sécurité » et de son équipe « Produits », qui suit l'évolution de la situation en temps réel et adapte leur stratégie en fonction des besoins.
Comme d'autres réseaux sociaux, YouTube a suspendu le compte de Trump après l'attaque du Capitole. En mars de cette année, YouTube a autorisé le retour de Trump en déclarant : « Nous avons soigneusement évalué le risque persistant de violence dans le monde réel, tout en tenant compte de la possibilité pour les électeurs d'entendre également les principaux candidats nationaux à l'approche d'une élection. Cette chaîne continuera à être soumise à nos politiques, comme n'importe quelle autre chaîne sur YouTube ».
Facebook avait suivi Twitter, après avoir initialement retiré une vidéo du président, en disant que la société avait évalué quelques violations de la politique, « ce qui entraînera un blocage des fonctionnalités pendant 24 heures, ce qui signifie qu'il perdra la possibilité de poster sur la plateforme pendant cette période ». Maintenant, le blocage de Trump va s’étendre sur au moins deux semaines, jusqu’à la fin de son mandat.
« Nous annonçons aujourd'hui de nouveaux protocoles d'application à appliquer dans des cas exceptionnels comme celui-ci, et nous confirmons la sanction limitée dans le temps conformément à ces protocoles que nous appliquons aux comptes de M. Trump. Compte tenu de la gravité des circonstances qui ont conduit à la suspension de M. Trump, nous pensons que ses actions ont constitué une grave violation de nos règles qui méritent la sanction la plus élevée disponible en vertu des nouveaux protocoles d'application. Nous suspendons ses comptes pendant deux ans, à compter de la date de la suspension initiale le 7 janvier de cette année.
Twitter a annulé son interdiction de Trump en novembre 2022, peu après qu'Elon Musk a racheté l'entreprise. Meta a annoncé qu'elle autoriserait à nouveau Trump sur Facebook en janvier 2023.
L'ancien président américain Donald Trump a posté sur YouTube et Facebook en mars de cette année, dans un retour aux plateformes technologiques qu'il utilisait pour alimenter son ascension politique jusqu'à ce que ses comptes soient suspendus à la suite de l'attaque du 6 janvier 2021 contre le Congrès par ses partisans. Les publications sur sa page Facebook et sa chaîne YouTube, intitulées "I'M BACK!", montrent une vidéo de CNN annonçant l'élection de Trump à la présidence lors de la course de 2016 contre Hillary Clinton. Elle s'estompe ensuite sur un écran « Trump 2024 ». YouTube a restauré la chaîne de Trump plus tôt vendredi. Meta Platforms avait rétabli les comptes Facebook et Instagram de Trump plus tôt cette année.
YouTube a précisé que certains aspects de sa politique de désinformation électorale restaient en vigueur, notamment la mise en évidence des sources faisant autorité dans les recherches et les recommandations et l'interdiction des messages visant à induire les électeurs en erreur sur le lieu et la manière de voter. Voici ce qui ne change pas :
- YouTube veille à ce que les internautes qui se rendent sur YouTube à la recherche d'actualités et d'informations sur les élections voient le contenu de sources faisant autorité figurer en bonne place dans les recherches et les recommandations. Par exemple, à la suite des élections américaines de 2020, l’équipe YouTube a constaté que les vidéos provenant de sources faisant autorité, comme les organes de presse, étaient les plus regardées et les plus recommandées sur YouTube. Et ses panneaux d'information sur les élections de 2020, avec un contexte pertinent allant des lieux de vote aux résultats des élections en direct, ont été visionnés collectivement plus de 4,5 milliards de fois ;
- toutes ses politiques de désinformation électorale restent en place, y compris celles qui interdisent les contenus visant à induire les électeurs en erreur sur l'heure, le lieu, les moyens ou les conditions d'éligibilité pour voter ;
- les fausses affirmations susceptibles de décourager le vote, y compris celles qui contestent la validité du vote par correspondance ; et les contenus qui encouragent d'autres personnes à interférer avec les processus démocratiques.
Le reste des règles continue de s'appliquer à tous les utilisateurs de YouTube, pour tous les types de contenu, y compris les élections. Il s'agit notamment de politiques contre les discours haineux, le harcèlement et l'incitation à la violence.
Source : YouTube
Et vous ?
Les arguments avancés par YouTube pour justifier sa décision de ne plus supprimer les vidéos qui prétendent que Trump a remporté l’élection de 2020 vous paraissent-ils convaincants ?
Quels sont selon vous, les risques de cette décision pour la démocratie, la liberté d’expression et la sécurité publique ?
Quelle est votre opinion personnelle sur la décision de YouTube ? Êtes-vous d’accord ou en désaccord avec elle ? Pourquoi ?
Voir aussi :
YouTube supprime la vidéo de Trump et suspend la mise en ligne de nouvelles vidéos pendant au moins 7 jours, les commentaires sous les vidéos seraient également indéfiniment désactivés
« Je suis de retour » : Donald Trump signe ses premières publications sur Facebook et YouTube, plus de deux ans après la suspension de ses comptes suite à l'insurrection du Capitole des États-Unis
Twitter verrouille le compte du président Trump pendant 12 heures et l'avertit d'une suspension permanente, Facebook retire ses publications incriminées et déclare une « situation d'urgence »
Le président Trump suspendu « indéfiniment » sur Facebook et Instagram, du moins jusqu'à la fin de son mandat, Twitch, le service de streaming vidéo en direct, fait de même