L'algorithme de recommandation de TikTok fait de nouveau l'objet de critiques après qu'un rapport publié jeudi a allégué qu'il a probablement poussé au suicide un adolescent de 16 ans dans l'État de New York, aux États-Unis, en 2022. Le rapport a révélé que l'algorithme de recommandation de TikTok partage continuellement avec les utilisateurs de la génération Z des flux ininterrompus de vidéos déprimantes et qui glorifient le suicide, ignorant parfois leurs centres d'intérêt. Ces allégations arrivent à un moment où l'application fait l'objet d'une surveillance étroite de la part des régulateurs en ce qui concerne ses impacts sur la santé mentale des enfants.
Un utilisateur de TikTok passerait en moyenne 95 minutes par jour sur la plateforme, soit plus d'une heure et demie à parcourir des vidéos de 3 secondes à 3 minutes. Et comme l'ont révélé de nombreuses études, la base d'utilisateurs est très jeune. Selon certaines sources, sur les 80 millions d'utilisateurs mensuels actifs aux États-Unis, 60 % ont entre 16 et 24 ans. Avec plus d'un milliard d'utilisateurs, cela signifie qu'un grand nombre de jeunes influençables consomment le contenu de TikTok à un rythme alarmant dans le monde entier. Mais TikTok dispose-t-il de filtres adéquats pour protéger ses utilisateurs des contenus potentiellement dangereux ?
De nombreux rapports d'enquête ont montré au fil des ans que ce n'est pas le cas. L'algorithme de TikTok a longtemps été critiqué pour avoir conduit les utilisateurs dans un "trou de lapin", en faisant apparaître des vidéos similaires à plusieurs reprises dans son flux principal (connu sous le nom de "Page pour vous"), de sorte que les utilisateurs sont bombardés de manière répétée avec des contenus potentiellement dangereux. TikTok s'est efforcé de réduire la toxicité de son contenu en boucle, mais le contenu nuisible continue de proliférer sur la plateforme et les chercheurs et les psychologues pour enfants observent cela avec une grande inquiétude.
Un nouveau rapport d'enquête rendu public par Bloomberg jeudi a révélé que le nombre de suicides des utilisateurs de TikTok ne cesse d'augmenter et que plusieurs indices montrent que l'algorithme de recommandation de TikTok expose de plus en plus les utilisateurs à des flux ininterrompus de vidéos déprimantes et glorifiant le suicide. Le cas le plus récent documenté dans le rapport est le suicide de Chase Nasca, un adolescent de 16 ans, l'année dernière. Après sa mort, l'inspection de son compte TikTok a révélé un flot ininterrompu de clips sur l'amour non partagé, le désespoir, la douleur et ce que beaucoup glorifient comme l'échappatoire ultime : le suicide.
« Enlevez la douleur. La mort est un cadeau », peut-on lire dans une vidéo publiée sur le compte en février dernier, quelques jours avant le premier anniversaire de la mort de Nasca. Dans une autre, une voix masculine dit : « je vais me mettre un fusil de chasse dans la bouche et me faire sauter la cervelle par l'arrière de la tête », et une voix féminine répond : « cool ». Selon le rapport, le flux était à peu près le même dans les jours qui ont précédé la mort de Nasca. Le 13 février 2022, le flux de TikTok aurait montré à Nasca une vidéo d'un train arrivant en sens inverse, accompagnée de la légende : « je suis allé faire un petit tour pour me vider la tête ».
Cinq jours plus tard, Nasca s'est arrêté sur les rails de la Long Island Rail Road qui traversent le hameau de Bayport, dans l'État de New York, à environ 800 mètres de sa maison. Il a appuyé son vélo contre une clôture et s'est engagé sur la voie, dans un virage aveugle dont ses parents lui avaient signalé l'existence depuis qu'il était en âge de marcher. Nasca a envoyé un message à un ami : « je suis désolé. Je n'en peux plus ». Un train a pris le virage, et il n'était plus là. Il est bien sûr impossible de connaître les raisons pour lesquelles Nasca a mis fin à ses jours. Les facteurs qui conduisent au suicide sont souvent multiples, et il n'a pas laissé de mot.
Mais le rapport signale que deux semaines après sa mort, sa mère, Michelle, a commencé à fouiller ses comptes de médias sociaux, désespérément à la recherche de réponses. Lorsque Michelle a ouvert TikTok sur l'iPad de son fils, elle a découvert une bibliothèque de plus de 3 000 vidéos que son fils avait mises en signet, aimées, sauvegardées ou marquées comme favorites. Elle a pu voir les termes et les centres d'intérêt que son fils avait recherchés, notamment Batman, basket-ball, haltérophilie, discours de motivation. Michelle pouvait voir également ce que l'algorithme lui avait apporté : de nombreuses vidéos sur la dépression, le désespoir et la mort.
Alors que le débat politique se poursuit, les chercheurs et les psychologues pour enfants sont de plus en plus inquiets. Des enquêtes menées auprès d'adolescents ont révélé une corrélation entre les médias sociaux et la dépression, l'automutilation et le suicide. Les données des Centres de contrôle et de prévention des maladies (CDC) montrent que près d'un adolescent sur quatre a déclaré avoir sérieusement envisagé de se suicider en 2021, soit près du double de ce qu'il était dix ans plus tôt. L'American Psychological Association et d'autres autorités attribuent en partie la responsabilité de ce phénomène aux médias sociaux.
Lors d'une audition au Congrès en mars, un représentant a évoqué la mort de Nasca en montrant à Shou Chew, PDG de TikTok, certains des vidéos que la plateforme avait envoyés au garçon et en lui demandant s'il laisserait ses propres enfants regarder de tels contenus. Le même mois, les parents de Nasca ont une plainte pour décès injustifié devant le tribunal de l'État de New York contre TikTok, ByteDance et la compagnie de chemin de fer. Une porte-parole de TikTok, Jamie Favazza, a refusé de commenter l'affaire, mais a déclaré que l'entreprise s'engage à assurer la sécurité et le bien-être de ses utilisateurs, en particulier des adolescents.
L'algorithme de recommandation original de TikTok a été conçu par une équipe d'ingénieurs chinois travaillant pour ByteDance. Cependant, si l'application a été conçue en Chine, elle est utilisée presque partout sauf en Chine. Elle ne peut même pas être téléchargée en Chine. TikTok affirme que son algorithme est désormais géré par des ingénieurs du monde entier, avec des équipes basées en Amérique du Nord, en Europe et en Asie. Mais de nombreux anciens employés de l'équipe "confiance et sécurité" de l'entreprise, interrogés par Bloomberg Businessweek, affirment que les cadres et les ingénieurs de Pékin détiennent toujours les clés.
Dans un monde où l'information est infinie, les algorithmes sont des règles inscrites dans les logiciels qui aident à trier ce qui peut être significatif pour un utilisateur et ce qui ne l'est pas. L'algorithme de TikTok est entraîné à suivre chaque swipe (défilement), like, commentaire, rewatch (revisionnement) et abonnement, et à utiliser ces données pour sélectionner le contenu afin de maintenir l'engagement des utilisateurs. Un plus grand engagement, à son tour, augmente les recettes publicitaires. L'entreprise a tellement perfectionné son système de recommandation que les utilisateurs pensent parfois que l'application lit dans leurs pensées.
D'autres plateformes de médias sociaux utilisent des moteurs de recommandation similaires. Mais selon Guillaume Chaslot, un scientifique français spécialisé dans les données, l'algorithme de TikTok se distingue par sa portée. Guillaume Chaslot a travaillé sur l'algorithme de YouTube et consulte aujourd'hui le gouvernement français sur ses efforts de régulation des plateformes en ligne. Son expérience sur le terrain lui laisse penser que l'algorithme de TikTok contrôle une plus grande part du contenu qui arrive sur le fil d'un utilisateur que celui de la plupart des autres plateformes de médias sociaux, notamment Reels (Instagram) et Shorts (YouTube).
« Et lorsque le contenu dépressif est bon pour l'engagement, il est activement promu par l'algorithme », dit-il. Des inquiétudes sur l'algorithme de recommandation de TikTok ont été soulevées en interne depuis au moins 2020. À l'époque Charles Bahr, ancien responsable de la vente de publicités chez TikTok en Allemagne, dit avoir averti ses supérieurs que l'algorithme envoyait aux utilisateurs de la génération Z des flux incessants de vidéos déprimantes qui glorifient le suicide. Mais il a déclaré que lorsqu'il a commencé à trop insister sur le sujet, il a été licencié pour fraude présumée sur ses notes de frais et utilisation abusive des outils de l'entreprise.
Les psychologues affirment qu'il est plus difficile pour les adolescents de résister aux propriétés addictives des algorithmes, car leur cortex préfrontal, responsable de la prise de décision, du jugement et du contrôle des impulsions, n'est pas encore complètement développé. Toutes les plateformes de médias sociaux ont été critiquées pour avoir diffusé des contenus addictifs aux adolescents, pour avoir nui à leur santé mentale et pour avoir recueilli subrepticement des données sur eux. Mais lorsqu'une entreprise chinoise se livre à de telles pratiques, les législateurs américains ont tendance à la dépeindre sous un jour particulièrement sinistre.
La crainte que le gouvernement chinois n'exige de TikTok qu'il lui remette les données de ses utilisateurs ou que le moteur de recommandation de l'application favorise les intérêts chinois a incité l'Union européenne, les États-Unis, le Canada et d'autres pays à interdire l'utilisation de l'application sur les appareils fournis par le gouvernement. Certains campus universitaires américains l'ont bloquée sur leurs réseaux Wi-Fi et, en avril, l'Assemblée législative du Montana a été la première à adopter un projet de loi bloquant l'application sur tous les appareils personnels. D'autres projets de loi de ce type sont également à l'étude au Congrès américain.
Source : Bloomberg
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des allégations selon lesquelles l'algorithme de TikTok pousse les adolescents au suicide ?
Utilisez-vous TikTok ? Si oui, avez-vous déjà été confronté à un flux ininterrompu de contenus toxiques ?
Selon vous, comment TikTok pourrait réduire le pourcentage de contenus toxiques recommandés par son algorithme ?
Pensez-vous que TikTok laisse volontairement son algorithme recommander des contenus toxiques aux adolescents ? Pourquoi ?
Selon vous, comment les régulateurs peuvent-ils aborder les problèmes liés aux algorithmes des plateformes de médias sociaux ?
Voir aussi
La Chine rappelle aux États-Unis qu'elle est en mesure de faire échouer une vente forcée de TikTok et qu'elle le fera, alors que le Congrès américain accuse l'application d'être une arme de Pékin
TikTok est-il en réalité un service de collecte de données déguisé en média social ? C'est l'avis d'un sénateur libéral australien
TikTok suggère du contenu sur l'anorexie et l'automutilation aux adolescents qui rejoignent la plateforme en quelques minutes, selon un rapport du Center for Countering Digital Hate
L'algorithme de recommandation TikTok continuerait de pousser au suicide les enfants vulnérables,
Le dernier suicide lié à TikTok révèle des problèmes majeurs liés à l'algorithme de l'application
L'algorithme de recommandation TikTok continuerait de pousser au suicide les enfants vulnérables,
Le dernier suicide lié à TikTok révèle des problèmes majeurs liés à l'algorithme de l'application
Le , par Bill Fassinou
Une erreur dans cette actualité ? Signalez-nous-la !