
TikTok est devenu une force majeure parmi les plateformes de médias sociaux, avec plus d'un milliard d'utilisateurs actifs mensuels dans le monde et 170 millions aux États-Unis. Il est également devenu une source importante d'informations, en particulier pour les jeunes. Cette situation a suscité des inquiétudes quant au potentiel de la plateforme à façonner les récits politiques et à influencer les élections.
Malgré ces inquiétudes, peu de recherches ont été menées sur les biais politiques de l'algorithme de recommandation de TikTok, notamment par rapport aux recherches approfondies menées sur d'autres plateformes de médias sociaux telles que Facebook, Instagram, YouTube, X (anciennement Twitter) et Reddit.
« Nous avons précédemment mené des expériences d'audit des algorithmes de recommandation de YouTube. Cette étude publiée dans PNAS Nexus a démontré que l'algorithme présentait un biais de gauche aux États-Unis », a déclaré Yasir Zaki, professeur adjoint d'informatique à l'université de New York à Abou Dhabi.
« Étant donné la grande popularité de TikTok, en particulier chez les jeunes, nous avons cherché à reproduire cette étude sur TikTok pendant les élections présidentielles américaines de 2024. Une autre motivation était que les inquiétudes concernant la propriété chinoise de TikTok ont conduit de nombreux politiciens américains à plaider pour l'interdiction de la plateforme, citant la crainte que son algorithme de recommandation puisse être utilisé pour promouvoir un agenda politique. »
Pour examiner comment l'algorithme de TikTok recommande des contenus politiques, les chercheurs ont conçu une expérience d'audit approfondie
Ils ont créé 323 comptes « sock puppet », c'est-à-dire de faux comptes programmés pour simuler le comportement des utilisateurs, dans trois États politiquement différents : le Texas, New York et la Géorgie : Texas, New York et Géorgie. Chaque compte s'est vu attribuer une tendance politique : Démocrate, Républicain ou neutre (groupe de contrôle).
L'expérience s'est déroulée en deux étapes : une étape de conditionnement et une étape de recommandation. Dans la phase de conditionnement, les comptes démocrates ont regardé jusqu'à 400 vidéos d'inspiration démocrate, et les comptes républicains ont regardé jusqu'à 400 vidéos d'inspiration républicaine. Les comptes neutres ont sauté cette étape. L'algorithme de TikTok a ainsi « appris » les préférences politiques de chaque compte.
Lors de l'étape de recommandation, tous les comptes ont regardé des vidéos sur la page « Pour vous » de TikTok, qui est le principal flux de contenus recommandés de la plateforme. Les comptes ont regardé 10 vidéos, suivies d'une pause d'une heure, et ont répété ce processus pendant six jours. Chaque expérience a duré une semaine. Les chercheurs ont recueilli des données sur environ 394 000 vidéos visionnées par ces comptes entre le 30 avril et le 11 novembre 2024.
L'analyse a mis en évidence d'importantes asymétries dans la distribution des contenus sur TikTok.
Pour analyser le contenu politique des vidéos recommandées, les chercheurs ont téléchargé les transcriptions anglaises des vidéos lorsqu'elles étaient disponibles (22,8 % des vidéos uniques). Ils ont ensuite utilisé un système comprenant trois grands modèles de langage - GPT-4o, Gemini-Pro et GPT-4 - pour classer chaque vidéo. Les modèles de langage ont répondu à des questions visant à déterminer si la vidéo était politique, si elle concernait les élections américaines de 2024 ou des personnalités politiques majeures, et quelle était la position idéologique de la vidéo (pro-démocratique, anti-démocratique, pro-républicaine, antirépublicaine ou neutre). Le vote majoritaire des trois modèles linguistiques a été utilisé comme classification finale pour chaque question.
L'analyse a mis en évidence d'importantes asymétries dans la distribution des contenus sur TikTok. Les comptes financés par des républicains ont reçu environ 11,8 % de plus de recommandations de partis politiques que les comptes financés par des démocrates. Les comptes financés par des démocrates ont reçu en moyenne environ 7,5 % de plus de recommandations émanant de partis opposés. Ces différences ont été constantes dans les trois États et n'ont pas pu être expliquées par des différences dans les mesures d'engagement comme les likes, les vues, les partages, les commentaires ou les followers.
« Nous avons constaté que l'algorithme de recommandation de TikTok n'était pas neutre lors des élections présidentielles américaines de 2024 », explique Talal Rahwan, professeur agrégé d'informatique à l'Université de New York à Abu Dhabi. « Dans les trois États analysés dans notre étude, la plateforme a systématiquement favorisé davantage de contenus à tendance républicaine. Nous avons montré que ce biais ne pouvait pas être expliqué par des facteurs tels que la popularité des vidéos et les mesures d'engagement, des variables clés qui influencent généralement les algorithmes de recommandation. »
Une analyse plus poussée a montré que le biais était principalement dû au contenu partisan négatif, c'est-à-dire au contenu qui critique le parti adverse plutôt que de promouvoir son propre parti. Les comptes conditionnés par des démocrates et des républicains se sont vus recommander davantage de contenu partisan négatif, mais ce phénomène était plus prononcé pour les comptes républicains. Les vidéos à caractère partisan négatif étaient 1,78 fois plus susceptibles d'être recommandées comme étant en décalage idéologique que les vidéos à caractère partisan positif.
« Nous avons observé une tendance à la partialité négative dans les recommandations de TikTok », a noté Zaki. « Quel que soit le parti politique (démocrate ou républicain), l'algorithme donne la priorité aux contenus qui critiquent le parti adverse plutôt qu'à ceux qui font la promotion de son propre parti ».
Les chercheurs ont également examiné les chaînes démocrates et républicaines les plus populaires sur TikTok en fonction du nombre d'adeptes. Les chaînes républicaines présentaient une proportion d'inadéquation significativement plus élevée, ce qui signifie que leurs vidéos étaient plus susceptibles d'être recommandées à des comptes de tendance politique opposée. En particulier, les vidéos de la chaîne TikTok officielle de Donald Trump ont été recommandées à des comptes de tendance démocrate dans près de 27 % des cas, tandis que les vidéos de Kamala Harris n'ont été recommandées à des comptes de tendance républicaine que dans 15,3 % des cas.
Enfin, les chercheurs ont analysé les sujets abordés dans les vidéos partisanes. Les sujets stéréotypés associés au parti démocrate, tels que le changement climatique et l'avortement, étaient plus souvent abordés dans les vidéos démocrates. Les sujets tels que l'immigration, la politique étrangère et la guerre en Ukraine étaient plus souvent abordés dans les vidéos d'obédience républicaine. Les vidéos sur l'immigration, la criminalité, le conflit à Gaza et la politique étrangère étaient les plus susceptibles d'être recommandées en tant qu'inadéquation idéologique aux comptes conditionnés par les démocrates.
Dans le prolongement de ces travaux, des recherches futures pourraient étudier le comportement de l'algorithme de TikTok au cours de différents cycles électoraux, étudier la manière dont la désinformation est distribuée dans le contenu partisan et comparer les recommandations de contenu politique de TikTok avec celles d'autres grandes plateformes. En outre, des études intégrant des données d'utilisateurs réels et des expériences automatisées pourraient permettre de mieux comprendre la manière dont les individus perçoivent les contenus politiques sur TikTok. Étant donné le rôle croissant de la plateforme dans l'élaboration du discours public, il sera essentiel de continuer à examiner son système de recommandation afin d'évaluer son impact sur les connaissances politiques et la prise de décision des électeurs.
« Nous voulons répondre à des questions fondamentales sur la neutralité des plateformes de médias sociaux », a déclaré M. Rahwan.
L'algorithme de TikTok : un outil de manipulation politique ? Oui, selon le ministère de la justice
En juillet, le ministère de la Justice a fait valoir dans un dossier judiciaire que TikTok devrait être obligé de vendre ses activités américaines pour résoudre les problèmes de sécurité nationale liés à sa société mère chinoise, ByteDance.
Dans sa première réponse détaillée à l'action en justice intentée par TikTok contre la loi américaine qui visait à interdire l'application de médias sociaux, le ministère de la justice a déclaré que les mesures proposées précédemment par TikTok pour répondre aux préoccupations du gouvernement en matière de sécurité - notamment l'isolement des données des utilisateurs américains au niveau national - étaient insuffisantes. Le gouvernement chinois pourrait toujours collecter des données sensibles sur les Américains ou manipuler le contenu, a affirmé le ministère, et il est incité à utiliser l'application à mauvais escient en raison d'objectifs géopolitiques plus vastes.
Le gouvernement a affirmé que TikTok et ByteDance avaient déjà pris des décisions en matière de contenu sur ordre de la Chine. Dans une section en grande partie expurgée d'une déclaration jointe au dossier principal du gouvernement, Casey Blackburn, directeur adjoint du renseignement national, a déclaré que l'application et sa société mère avaient « pris des mesures en réponse » aux « demandes chinoises de censurer des contenus en dehors de la Chine ».
« La menace sérieuse que représente TikTok pour la sécurité nationale est réelle, comme le montrent les documents publics et comme le confirment les informations classifiées fournies par la communauté du renseignement », a déclaré le gouvernement dans sa déclaration publique.
La législation chinoise permet au gouvernement de demander secrètement des données aux entreprises et aux citoyens et de les forcer à s'y conformer, selon le ministère. Il a déclaré dans son dossier que TikTok n'avait « même pas tenté de suggérer que la Chine ne trouverait pas ces données précieuses » dans ses propres documents juridiques.
L'entreprise recueille des informations détaillées, notamment la localisation des utilisateurs, ce qu'ils regardent et leurs messages privés, ainsi que leurs contacts téléphoniques, selon le dossier. Le ministère a déclaré que l'algorithme propriétaire de l'entreprise - sa sauce secrète pour réussir - lui permet de fournir du contenu comme elle le souhaite.
« Cet algorithme peut être manipulé manuellement, et sa localisation en Chine permettrait au gouvernement chinois de contrôler secrètement l'algorithme - et donc de façonner secrètement le contenu que les utilisateurs américains reçoivent - à ses propres fins malveillantes », a déclaré le ministère.
Source : résultats de l'étude
Et vous ?





