IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'algorithme de TikTok aurait fait preuve d'un parti pris pro-républicain durant la présidentielle 2024, selon une étude,
Les vidéos de Trump plus susceptibles d'atteindre les démocrates que celles de Harris

Le , par Stéphane le calme

23PARTAGES

12  0 
TikTok, une plateforme de médias sociaux très répandue qui compte plus d'un milliard d'utilisateurs actifs dans le monde, est devenue une source essentielle d'informations, en particulier pour les jeunes. Cette influence croissante a suscité des inquiétudes quant à l'existence de biais politiques potentiels dans son algorithme de recommandation, notamment pendant les cycles électoraux. Une étude récente a examiné cette question en analysant la manière dont l'algorithme de TikTok recommande des contenus politiques en vue de l'élection présidentielle de 2024. À l'aide d'une expérience contrôlée impliquant des centaines de comptes d'utilisateurs simulés, l'étude a révélé que les comptes à tendance républicaine recevaient beaucoup plus de contenus idéologiquement alignés que les comptes à tendance démocrate, tandis que les comptes à tendance démocrate étaient plus fréquemment exposés à des points de vue opposés.

TikTok est devenu une force majeure parmi les plateformes de médias sociaux, avec plus d'un milliard d'utilisateurs actifs mensuels dans le monde et 170 millions aux États-Unis. Il est également devenu une source importante d'informations, en particulier pour les jeunes. Cette situation a suscité des inquiétudes quant au potentiel de la plateforme à façonner les récits politiques et à influencer les élections.

Malgré ces inquiétudes, peu de recherches ont été menées sur les biais politiques de l'algorithme de recommandation de TikTok, notamment par rapport aux recherches approfondies menées sur d'autres plateformes de médias sociaux telles que Facebook, Instagram, YouTube, X (anciennement Twitter) et Reddit.


« Nous avons précédemment mené des expériences d'audit des algorithmes de recommandation de YouTube. Cette étude publiée dans PNAS Nexus a démontré que l'algorithme présentait un biais de gauche aux États-Unis », a déclaré Yasir Zaki, professeur adjoint d'informatique à l'université de New York à Abou Dhabi.

« Étant donné la grande popularité de TikTok, en particulier chez les jeunes, nous avons cherché à reproduire cette étude sur TikTok pendant les élections présidentielles américaines de 2024. Une autre motivation était que les inquiétudes concernant la propriété chinoise de TikTok ont conduit de nombreux politiciens américains à plaider pour l'interdiction de la plateforme, citant la crainte que son algorithme de recommandation puisse être utilisé pour promouvoir un agenda politique. »

Pour examiner comment l'algorithme de TikTok recommande des contenus politiques, les chercheurs ont conçu une expérience d'audit approfondie

Ils ont créé 323 comptes « sock puppet », c'est-à-dire de faux comptes programmés pour simuler le comportement des utilisateurs, dans trois États politiquement différents : le Texas, New York et la Géorgie : Texas, New York et Géorgie. Chaque compte s'est vu attribuer une tendance politique : Démocrate, Républicain ou neutre (groupe de contrôle).

L'expérience s'est déroulée en deux étapes : une étape de conditionnement et une étape de recommandation. Dans la phase de conditionnement, les comptes démocrates ont regardé jusqu'à 400 vidéos d'inspiration démocrate, et les comptes républicains ont regardé jusqu'à 400 vidéos d'inspiration républicaine. Les comptes neutres ont sauté cette étape. L'algorithme de TikTok a ainsi « appris » les préférences politiques de chaque compte.

Lors de l'étape de recommandation, tous les comptes ont regardé des vidéos sur la page « Pour vous » de TikTok, qui est le principal flux de contenus recommandés de la plateforme. Les comptes ont regardé 10 vidéos, suivies d'une pause d'une heure, et ont répété ce processus pendant six jours. Chaque expérience a duré une semaine. Les chercheurs ont recueilli des données sur environ 394 000 vidéos visionnées par ces comptes entre le 30 avril et le 11 novembre 2024.


L'analyse a mis en évidence d'importantes asymétries dans la distribution des contenus sur TikTok.

Pour analyser le contenu politique des vidéos recommandées, les chercheurs ont téléchargé les transcriptions anglaises des vidéos lorsqu'elles étaient disponibles (22,8 % des vidéos uniques). Ils ont ensuite utilisé un système comprenant trois grands modèles de langage - GPT-4o, Gemini-Pro et GPT-4 - pour classer chaque vidéo. Les modèles de langage ont répondu à des questions visant à déterminer si la vidéo était politique, si elle concernait les élections américaines de 2024 ou des personnalités politiques majeures, et quelle était la position idéologique de la vidéo (pro-démocratique, anti-démocratique, pro-républicaine, antirépublicaine ou neutre). Le vote majoritaire des trois modèles linguistiques a été utilisé comme classification finale pour chaque question.

L'analyse a mis en évidence d'importantes asymétries dans la distribution des contenus sur TikTok. Les comptes financés par des républicains ont reçu environ 11,8 % de plus de recommandations de partis politiques que les comptes financés par des démocrates. Les comptes financés par des démocrates ont reçu en moyenne environ 7,5 % de plus de recommandations émanant de partis opposés. Ces différences ont été constantes dans les trois États et n'ont pas pu être expliquées par des différences dans les mesures d'engagement comme les likes, les vues, les partages, les commentaires ou les followers.

« Nous avons constaté que l'algorithme de recommandation de TikTok n'était pas neutre lors des élections présidentielles américaines de 2024 », explique Talal Rahwan, professeur agrégé d'informatique à l'Université de New York à Abu Dhabi. « Dans les trois États analysés dans notre étude, la plateforme a systématiquement favorisé davantage de contenus à tendance républicaine. Nous avons montré que ce biais ne pouvait pas être expliqué par des facteurs tels que la popularité des vidéos et les mesures d'engagement, des variables clés qui influencent généralement les algorithmes de recommandation. »

Une analyse plus poussée a montré que le biais était principalement dû au contenu partisan négatif, c'est-à-dire au contenu qui critique le parti adverse plutôt que de promouvoir son propre parti. Les comptes conditionnés par des démocrates et des républicains se sont vus recommander davantage de contenu partisan négatif, mais ce phénomène était plus prononcé pour les comptes républicains. Les vidéos à caractère partisan négatif étaient 1,78 fois plus susceptibles d'être recommandées comme étant en décalage idéologique que les vidéos à caractère partisan positif.

« Nous avons observé une tendance à la partialité négative dans les recommandations de TikTok », a noté Zaki. « Quel que soit le parti politique (démocrate ou républicain), l'algorithme donne la priorité aux contenus qui critiquent le parti adverse plutôt qu'à ceux qui font la promotion de son propre parti ».

Les chercheurs ont également examiné les chaînes démocrates et républicaines les plus populaires sur TikTok en fonction du nombre d'adeptes. Les chaînes républicaines présentaient une proportion d'inadéquation significativement plus élevée, ce qui signifie que leurs vidéos étaient plus susceptibles d'être recommandées à des comptes de tendance politique opposée. En particulier, les vidéos de la chaîne TikTok officielle de Donald Trump ont été recommandées à des comptes de tendance démocrate dans près de 27 % des cas, tandis que les vidéos de Kamala Harris n'ont été recommandées à des comptes de tendance républicaine que dans 15,3 % des cas.

Enfin, les chercheurs ont analysé les sujets abordés dans les vidéos partisanes. Les sujets stéréotypés associés au parti démocrate, tels que le changement climatique et l'avortement, étaient plus souvent abordés dans les vidéos démocrates. Les sujets tels que l'immigration, la politique étrangère et la guerre en Ukraine étaient plus souvent abordés dans les vidéos d'obédience républicaine. Les vidéos sur l'immigration, la criminalité, le conflit à Gaza et la politique étrangère étaient les plus susceptibles d'être recommandées en tant qu'inadéquation idéologique aux comptes conditionnés par les démocrates.

Dans le prolongement de ces travaux, des recherches futures pourraient étudier le comportement de l'algorithme de TikTok au cours de différents cycles électoraux, étudier la manière dont la désinformation est distribuée dans le contenu partisan et comparer les recommandations de contenu politique de TikTok avec celles d'autres grandes plateformes. En outre, des études intégrant des données d'utilisateurs réels et des expériences automatisées pourraient permettre de mieux comprendre la manière dont les individus perçoivent les contenus politiques sur TikTok. Étant donné le rôle croissant de la plateforme dans l'élaboration du discours public, il sera essentiel de continuer à examiner son système de recommandation afin d'évaluer son impact sur les connaissances politiques et la prise de décision des électeurs.

« Nous voulons répondre à des questions fondamentales sur la neutralité des plateformes de médias sociaux », a déclaré M. Rahwan.


L'algorithme de TikTok : un outil de manipulation politique ? Oui, selon le ministère de la justice

En juillet, le ministère de la Justice a fait valoir dans un dossier judiciaire que TikTok devrait être obligé de vendre ses activités américaines pour résoudre les problèmes de sécurité nationale liés à sa société mère chinoise, ByteDance.

Dans sa première réponse détaillée à l'action en justice intentée par TikTok contre la loi américaine qui visait à interdire l'application de médias sociaux, le ministère de la justice a déclaré que les mesures proposées précédemment par TikTok pour répondre aux préoccupations du gouvernement en matière de sécurité - notamment l'isolement des données des utilisateurs américains au niveau national - étaient insuffisantes. Le gouvernement chinois pourrait toujours collecter des données sensibles sur les Américains ou manipuler le contenu, a affirmé le ministère, et il est incité à utiliser l'application à mauvais escient en raison d'objectifs géopolitiques plus vastes.

Le gouvernement a affirmé que TikTok et ByteDance avaient déjà pris des décisions en matière de contenu sur ordre de la Chine. Dans une section en grande partie expurgée d'une déclaration jointe au dossier principal du gouvernement, Casey Blackburn, directeur adjoint du renseignement national, a déclaré que l'application et sa société mère avaient « pris des mesures en réponse » aux « demandes chinoises de censurer des contenus en dehors de la Chine ».

« La menace sérieuse que représente TikTok pour la sécurité nationale est réelle, comme le montrent les documents publics et comme le confirment les informations classifiées fournies par la communauté du renseignement », a déclaré le gouvernement dans sa déclaration publique.

La législation chinoise permet au gouvernement de demander secrètement des données aux entreprises et aux citoyens et de les forcer à s'y conformer, selon le ministère. Il a déclaré dans son dossier que TikTok n'avait « même pas tenté de suggérer que la Chine ne trouverait pas ces données précieuses » dans ses propres documents juridiques.

L'entreprise recueille des informations détaillées, notamment la localisation des utilisateurs, ce qu'ils regardent et leurs messages privés, ainsi que leurs contacts téléphoniques, selon le dossier. Le ministère a déclaré que l'algorithme propriétaire de l'entreprise - sa sauce secrète pour réussir - lui permet de fournir du contenu comme elle le souhaite.

« Cet algorithme peut être manipulé manuellement, et sa localisation en Chine permettrait au gouvernement chinois de contrôler secrètement l'algorithme - et donc de façonner secrètement le contenu que les utilisateurs américains reçoivent - à ses propres fins malveillantes », a déclaré le ministère.

Source : résultats de l'étude

Et vous ?

Trouvez-vous les résultats de cette étude pertinents ou crédibles ?

Pensez-vous que l’algorithme de TikTok a influencé le vote des jeunes électeurs lors de cette élection ?

D’autres réseaux sociaux (Facebook, YouTube, X) ont-ils montré des tendances similaires lors des élections passées ?

Un biais algorithmique en faveur d’un parti politique peut-il être assimilé à une forme de manipulation électorale ? Pensez-vous que des réseaux sociaux décentralisés ou open source pourraient mieux garantir une neutralité politique ?

L’exposition inégale aux idées politiques opposées pourrait-elle renforcer la polarisation et les bulles informationnelles ?

Si certaines plateformes favorisent un parti politique plutôt qu’un autre, quel impact cela pourrait-il avoir sur la démocratie à long terme ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 06/02/2025 à 8:57
Donc, si je comprends ton raisonnement, les médias mainstream que ne regardent pas les jeunes, ont une influence, mais les réseaux sociaux, sur lesquels les jeunes passent la majorité de leur temps, n'a aucun impact sur leurs choix !

Je crois que, quelque soit le support (tv, papier, radio, réseaux sociaux, chaines streaming, ...) il y a volonté d'influencer l'opinion. Si, pour les médias mainstream, c'est plus visible, c'est beaucoup plus insidieux pour les réseaux sociaux qui, de par leurs algorithme peuvent manipuler l'opinion de façon sournoise et quasi transparente. Croire le contraire, c'est être d'une naïveté sans borne (et pour une fois Élisabeth n'y est pour rien )
5  0 
Avatar de denisys
Membre chevronné https://www.developpez.com
Le 12/02/2025 à 22:26
L'entreprise a annoncé dans un message sur X que son application Android
serait disponible en téléchargement direct sur le site web TikTok.com/download.
C'est une proposition fort aimable !!!
Mais , rien ne prouve que cela ne va pas inspirer un détournement de lien vers un site pirate ou autre arnaques !!!.
3  0 
Avatar de solstyce39
Membre confirmé https://www.developpez.com
Le 13/02/2025 à 17:06
Citation Envoyé par Jsaintyv Voir le message
En fait, je n'ai jamais compris que tout le monde se soit asservi autant aux Store.

Aussi bien les clients, que les éditeurs.
- Les clients exposent leurs données personnelles de manière non volontaire.
- Les éditeurs sont soumis au dicta d'un store :
- close sur la gestion des paiements
- close sur la gestion du contenu

TikTok pourrait passer en simple application Web.
Un bouton dans le navigateur proposerait aux utilisateurs d'installer un raccourci sur le bureau.
L'application pourrait continuer d'envoyer des notifications si l'utilisateur le souhaite.

Bref, çà ne changerait pas grand-chose surtout que la majorité des applications dans les téléphones sont juste un wrapper de l'application web.
quand tu es une application "native" tu as accès à beaucoup plus de chose sur l'équipement qui quand t'es wrappé dans un navigateur ... surtout si c'est brave
2  0 
Avatar de Jsaintyv
Membre régulier https://www.developpez.com
Le 13/02/2025 à 14:11
En fait, je n'ai jamais compris que tout le monde se soit asservi autant aux Store.

Aussi bien les clients, que les éditeurs.
- Les clients exposent leurs données personnelles de manière non volontaire.
- Les éditeurs sont soumis au dicta d'un store :
- close sur la gestion des paiements
- close sur la gestion du contenu

TikTok pourrait passer en simple application Web.
Un bouton dans le navigateur proposerait aux utilisateurs d'installer un raccourci sur le bureau.
L'application pourrait continuer d'envoyer des notifications si l'utilisateur le souhaite.

Bref, çà ne changerait pas grand-chose surtout que la majorité des applications dans les téléphones sont juste un wrapper de l'application web.
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 06/02/2025 à 10:46
Citation Envoyé par Jon Shannow Voir le message
n'a aucun impact sur leurs choix !
Ça dépend lesquels et à quel moment, je trouve X neutre aujourd'hui.
Je vois principalement du contenu anti Trump et ça me fait chier, mais parfois il y a du contenu pro Trump et je suis content.
À une époque, c'était plus compliqué de voir du contenu pro Trump.
Peut-être que Facebook va peut-être également se calmer au niveau de l'orientation politique. (si Google pouvait suivre ce serait pas mal)

Les jeunes s'abstiennent beaucoup, contrairement aux vieux.
Donc les chaines TV, les journaux, les radios sont beaucoup plus dangereux pour la démocratie que ne le sont les réseaux sociaux.

Les chaines de TV pourraient organiser des débats, ce serait cool de voir différents point de vue.
Avant il y avait une émission sur RT France, présentée par Frédéric Taddeï, qui s'appelait "Interdit d'interdire".
Il faudrait ce type d'émission mais sur des médias mainstream.

Là ça craint la TV, il y a des gens comme Yann Barthès et Cyril Hanouna, c'est déprimant.
0  2 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/02/2025 à 18:31
Citation Envoyé par Stéphane le calme Voir le message
Trouvez-vous les résultats de cette étude pertinents ou crédibles ?
Non.

Citation Envoyé par Stéphane le calme Voir le message
Pensez-vous que l’algorithme de TikTok a influencé le vote des jeunes électeurs lors de cette élection ?
Non.
Si l'algorithme a mis en avant des vidéos pro Trump c'est parce qu'elles plaisaient à plus de monde que les vidéos pro Kamala.

Citation Envoyé par Stéphane le calme Voir le message
D’autres réseaux sociaux (Facebook, YouTube, X) ont-ils montré des tendances similaires lors des élections passées ?
Ouais Facebook, YouTube, Twitter, Google étaient très anti Trump en 2020.

Citation Envoyé par Stéphane le calme Voir le message
Un biais algorithmique en faveur d’un parti politique peut-il être assimilé à une forme de manipulation électorale ? Pensez-vous que des réseaux sociaux décentralisés ou open source pourraient mieux garantir une neutralité politique ?
Non parce qu'il y a une histoire de modération.
Par exemple Wikipédia est orienté politiquement.

Citation Envoyé par Stéphane le calme Voir le message
L’exposition inégale aux idées politiques opposées pourrait-elle renforcer la polarisation et les bulles informationnelles ?
Si certaines plateformes favorisent un parti politique plutôt qu’un autre, quel impact cela pourrait-il avoir sur la démocratie à long terme ?
C'est à cause de la propagande médiatique si Macron s'est retrouvé président de la France.
C'est très grave.

Les médias mainstream forme un outil de propagande extrêmement puissant.

Au moins sur X plusieurs points de vue sont présents.
1  4