La nouvelle étude a demandé aux chercheurs de créer des comptes TikTok se faisant passer pour des utilisateurs de 13 ans intéressés par du contenu sur l'image corporelle et la santé mentale. Il a été constaté que 2,6 minutes après avoir rejoint l'application, l'algorithme de TikTok recommandait un contenu suicidaire. Le rapport a montré que le contenu sur les troubles de l'alimentation était recommandé en 8 minutes.
Au cours de cette étude, les chercheurs ont trouvé 56 hashtags TikTok hébergeant des vidéos sur les troubles de l'alimentation avec plus de 13,2 milliards de vues.
« Le nouveau rapport du Center for Countering Digital Hate souligne pourquoi il est bien plus que temps pour TikTok de prendre des mesures pour lutter contre la dangereuse amplification algorithmique de la plateforme », a déclaré James P. Steyer, fondateur et PDG de Common Sense Media, qui n'est pas affilié à l'étude. « L'algorithme de TikTok bombarde les adolescents avec du contenu préjudiciable qui favorise le suicide, les troubles de l'alimentation et les problèmes d'image corporelle qui alimentent la crise de santé mentale des adolescents ».
TikTok, qui a été lancé à l'échelle mondiale par la société chinoise ByteDance en 2017, et fonctionne grâce à des algorithmes informés par des données personnelles (les j'aime, les personnes qu'ils suivent, le temps de visionnage, les intérêts d'un utilisateur) est devenu l'application de médias sociaux à la croissance la plus rapide au monde, atteignant un milliard d'actifs par mois utilisateurs d'ici 2021.
Le rapport du CCDH détaille comment les algorithmes de TikTok affinent les vidéos présentées aux utilisateurs à mesure que l'application recueille plus d'informations sur leurs préférences et leurs intérêts. Les suggestions algorithmiques du flux « Pour vous » sont conçues, comme le dit l'application, pour être « au cœur de l'expérience TikTok ». Mais de nouvelles recherches montrent que la plateforme vidéo peut pousser du contenu préjudiciable aux utilisateurs vulnérables, car elle cherche à les garder intéressés.
Comment les tests ont-ils été effectués ?
Pour tester l'algorithme, les chercheurs du CCDH se sont enregistrés en tant qu'utilisateurs aux États-Unis, au Royaume-Uni, au Canada et en Australie et ont créé des comptes « standard » et « vulnérables » sur TikTok. Au total, huit comptes ont été créés et des données ont été recueillies à partir de chaque compte pendant les 30 premières minutes d'utilisation. Le CCDH affirme que la petite fenêtre d'enregistrement a été créée pour montrer à quelle vitesse la plateforme vidéo peut comprendre chaque utilisateur et diffuser du contenu potentiellement dangereux.
Dans le rapport, chaque chercheur, se faisant passer pour un jeune de 13 ans, l'âge minimum auquel TikTok autorise l'inscription à son service, a créé deux comptes dans son pays désigné. Un compte a reçu un nom d'utilisateur féminin. L'autre, un nom d'utilisateur qui indique une préoccupation concernant l'image corporelle - le nom comprenait l'expression « perdre du poids ». Dans tous les comptes, les chercheurs se sont brièvement arrêtés sur des vidéos sur l'image corporelle et la santé mentale. Ils ont « aimé » ces vidéos, comme s'ils étaient des adolescents intéressés par ce contenu.
Lorsque le compte « perdre du poids » a été comparé au compte standard, les chercheurs ont constaté que les comptes « perdre du poids » recevaient trois fois plus de contenu préjudiciable global et 12 fois plus de vidéos d'automutilation et de suicide que les comptes standard.
« TikTok est capable de reconnaître la vulnérabilité des utilisateurs et cherche à l'exploiter », a déclaré Imran Ahmed, PDG du CCDH, qui se trouve à Washington D.C., plaidant pour le Kids Online Safety Act (KOSA), qui mettrait en place des garde-fous pour protéger les mineurs en ligne. « Cela fait partie de ce qui rend les algorithmes de TikTok si insidieux*; l'application teste constamment la psychologie de nos enfants et s'adapte pour les garder en ligne ».
Le contenu poussé vers les comptes vulnérables comprenait une vidéo avec la légende*: « Faire en sorte que tout le monde pense que vous allez bien afin que vous puissiez essayer en privé ». La vidéo insinuant une tentative de suicide a recueilli 386 900 j'aime. Le reportage présentait également une vidéo d'une adolescente en pleurs, avec des mots à l'écran : « Tu ne penses pas à te suicider, n'est-ce pas ? » Et puis en faisant référence à un personnage de télévision nommé, Sarah Lynn, qui dans la série animée Netflix « Bojack Horseman » meurt d'une overdose. Cette vidéo a reçu 327 900 likes. Et un autre avec un lien vers PrettyScale.com, un site Web où les utilisateurs téléchargent des photos du corps et du visage pour que leur attrait soit classé par une « formule mathématique ». La vidéo avait 17 300 likes.
La réaction de TikTok
Un porte-parole de TikTok a contesté la méthodologie de l'étude.
« Nous consultons régulièrement des experts de la santé, supprimons les violations de nos politiques et donnons accès à des ressources de soutien à toute personne dans le besoin », a déclaré le représentant. Le porte-parole de TikTok a poursuivi en disant que la plateforme vidéo était « consciente que le contenu déclencheur est unique à chaque individu » et que la plateforme sociale « reste concentrée sur la création d'un espace sûr et confortable pour tout le monde ».
Cette étude intervient alors que plus de 1 200 familles ont lancé des poursuites judiciaires contre des sociétés de médias sociaux, parmi lesquelles TikTok. Ces poursuites allèguent que le contenu des plateformes de médias sociaux a eu un impact profond sur la santé mentale de leurs enfants et, dans certains cas, a contribué à la mort de leurs enfants. Plus de 150 procès devraient aller de l'avant l'année prochaine.
Kids Online Safety Act (KOSA), qu'est-ce que c'est et pourquoi des organismes s'y opposent ?
Les récents rapports des lanceurs d'alerte, mais aussi des études sur les effets néfastes des plateformes en ligne, en particulier des médias sociaux, semblent avoir suscité davantage l'inquiétude des législateurs californiens. C'est dans ce contexte qu'a été présenté en février un projet de loi visant à protéger les données des enfants en ligne, à l'instar du code pour enfants récemment introduit au Royaume-Uni (UK Children's code). L'initiative des législateurs californiens s'inscrit également dans le cadre d'un mouvement mondial croissant en faveur d'une réglementation plus stricte des grandes entreprises technologiques.
Le projet de loi sur la sécurité des enfants en ligne (Kids Online Safety Act) a été présenté par les sénateurs Richard Blumenthal, D-Conn, et Marsha Blackburn, R-Tenn, respectivement président et membre principal de la sous-commission du commerce du Sénat sur la protection des consommateurs. S'il est adopté, le projet de loi aura un effet important sur la conception des plateformes créées par des sociétés comme Meta, la société mère de Facebook, Snap, Google et TikTok. Il exigera des entreprises dont le siège est situé dans l'État qu'elles limitent la quantité de données qu'elles collectent auprès des jeunes utilisateurs.
Le projet de loi exige que ces entreprises mettent en place des mesures de protection auxquelles les mineurs ou leurs parents peuvent facilement accéder pour « contrôler leur expérience et leurs données personnelles ». Dans le texte initial, il est question entre autres des paramètres de plateforme qui limiteraient la capacité des autres à trouver les mineurs en ligne, qui leur permettraient de se retirer des systèmes de recommandations algorithmiques utilisant leurs données et qui limiteraient leur temps passé en ligne. En outre, le projet de loi californien imposera des restrictions sur le profilage des jeunes utilisateurs des plateformes en ligne à des fins de publicité ciblée.
Si l'intention est noble, cela n'a pas empêché des dizaines d'organisations de défense des droits de la personne et LGBTQ+ d'écrire aux membres du Congrès pour s'opposer à ce projet de loi sur la sécurité en ligne des enfants qui, selon eux, ne contribuerait pas réellement à faire d'Internet un meilleur endroit pour les enfants et les adolescents. La lettre intervient alors que les parrains au Sénat de la Kids Online Safety Act poussent à son adoption, qualifiant le projet de loi de moyen important de tenir les plateformes de médias sociaux responsables des dommages causés aux enfants en l'absence d'une loi américaine plus large sur la confidentialité en ligne.
Mais les groupes affirment que l'exigence du projet de loi selon laquelle les sites filtrent le contenu en ligne conduirait à une « modération excessive » et exclurait les membres des groupes plus jeunes marginalisés qui comptent sur les services en ligne pour en savoir plus sur l'éducation sexuelle ou accéder aux ressources LGBTQ+. Ils soutiennent également que l'aspect de la supervision parentale du projet de loi « nécessiterait effectivement des services en ligne pour permettre la surveillance parentale des 15 et 16 ans par défaut » et pourrait nuire aux adolescents victimes de violence domestique. Ils préviennent que le projet de loi pourrait conduire les sites à collecter par inadvertance plus d'informations auprès des jeunes utilisateurs que nécessaire en raison des exigences de vérification de l'âge.
Un contenu différent promu en Chine
Il y a un côté sombre de cette application qui, au lieu de faire l'objet de nombreuses discussions, est ignoré la plupart du temps.
Le journaliste et présentateur de Fox News, Tucker Carlson, a récemment parlé du contenu promu par l'algorithme de l'application en Chine continentale et l'a comparé au contenu des pays occidentaux. Carlson a expliqué comment le contenu diffère à un niveau étendu et montre des genres complètement différents aux utilisateurs en fonction de l'emplacement. C'est un fait bien connu que TikTok est assez célèbre pour ses vidéos a but récréatif.
De plus, de nombreux contenus font la promotion de contenus problématiques pour des enfants comme le twerk, les thérapies de changement de genre, allant même jusqu'à leur enseigner comment cacher leur «*identité de genre*» à leurs parents. Un rapport du Daily Mail de décembre 2021 alléguait que TikTok faisait la promotion de la chirurgie de changement de genre comme quelque chose de "cool" parmi les enfants, et au moment où ce rapport a été publié, ces vidéos étaient visionnées plus de 26 milliards de fois.
TikTok s'appelle Douyin en Chine. Il appartient à la même société chinoise ByteDance. Comparé au contenu que les utilisateurs occidentaux voient sur TikTok, ce qu'il promeut en Chine est complètement à l'opposé du spectre. Il convient de noter qu'il existe une politique en place en Chine selon laquelle le contenu réglementé par le gouvernement peut être affiché sur n'importe quelle plateforme, et tout autre contenu ne peut pas obtenir les promotions souhaitées par la plateforme.
Gardant cela à l'esprit, la majorité du contenu promu par Douyin en Chine est liée à la technologie, à l'architecture, à la musique et à des intérêts similaires qui augmentent la créativité des utilisateurs et aident à améliorer leurs compétences. Comme aucune politique de ce type n'est en place dans d'autres pays, TikTok promeut un contenu qui peut devenir viral rapidement et génère des revenus pour l'entreprise. De plus, certaines théories sont souvent discutées sur des forums selon lesquels la Chine utilise intentionnellement un contenu inapproprié généré en Occident pour «*corrompre l'esprit*» de la jeune génération. C'est le cas d'Andrew Schulz dont voici les propos :
Lors d'un podcast, le comédien Andrew Schulz a évoqué l'algorithme TikTok. Il a expliqué comment l'algorithme promeut du contenu inutile en Occident, mais montre un contenu extrêmement utile en Chine. Il a déclaré que la Chine ne voulait pas que les applications créées par d'autres pays influencent leur future génération. Schulz a souligné qu'en Chine, l'application fait la promotion de contenu utile, par exemple sur l'architecture, la science ou les mathématiques. Cependant, dans d'autres pays, il promeut des contenus comme des danses stupides, etc.
Dans un podcast, Crowder et Crew ont expliqué comment TikTok rendait les gens stupides. Ils ont mentionné différentes études qui ont prouvé que TikTok pouvait manipuler le comportement des utilisateurs et avait le potentiel de prendre en charge le contenu de l'utilisateur sur n'importe quel appareil en contournant les politiques de confidentialité et les conditions définies par Google et Apple.
L'idée de base derrière TikTok est de promouvoir un contenu qui peut devenir viral en un instant et de pousser les créateurs de contenu à créer un contenu similaire.
Plus ces vidéos devenaient virales, plus les créateurs de contenu y voyaient une opportunité facile de gagner du terrain sur la plateforme. Selon certains observateurs, une fois que les utilisateurs ont commencé à créer du contenu similaire, TikTok a commencé à promouvoir le contenu qu'ils souhaitaient diffuser dans une zone particulière. Par exemple, s'ils voulaient que les enfants des États-Unis subissent une chirurgie de changement de genre à grande échelle, ils feraient la promotion d'un contenu qui le présenterait comme une étape cool, moderne, facile et gratifiante à franchir.
En fait, les influenceurs TikTok sont devenus si importants aux États-Unis maintenant qu'au début de la guerre russo-ukrainienne, le président américain Joe Biden a invité les influenceurs TikTok à la Maison-Blanche et a sollicité leur soutien pour faire avancer l'agenda américain en ligne.
De la vente d'un produit inutile à la modification des habitudes de vote, une plateforme comme TikTok est capable de faire beaucoup de dégâts à moins que les gouvernements ne proposent une politique stricte pour contrer l'algorithme de TikTok.
Sources : rapport du CCDH, TikTok
Et vous ?
Que pensez-vous de ce rapport ? Est-il crédible selon vous ? Dans quelle mesure ?
Qu'est-ce qui pourrait, selon vous, expliquer ce genre de promotion ?