En réponse aux préoccupations croissantes concernant la violence alimentée par les réseaux sociaux, le gouvernement du Royaume-Uni et d’autres acteurs, la Chamber of Progress, un groupe de défense des entreprises technologiques, exhorte le milliardaire Elon Musk à assumer son rôle de leader chez X avec plus de sérieux, ou à démissionner s’il ne peut pas le faire.
Depuis le 29 juillet, lorsque des influenceurs de droite ont fait de fausses allégations sur X/Twitter et d’autres plateformes de médias sociaux, accusant les musulmans et les immigrants du meurtre de trois enfants poignardés, des dizaines d’émeutes d’extrême droite ont éclaté dans tout le pays. Des groupes tels que l’Institut pour le Dialogue Stratégique et Amnesty International ont pointé du doigt les publications sur des services de médias sociaux tels que X, Telegram et TikTok, les accusant d’amplifier la haine raciale et d’inciter à des troubles violents.
En réponse à ces événements, la ministre britannique de la Justice, Heidi Alexander, a appelé Musk à se comporter de manière plus responsable après que ce dernier ait déclaré que « la guerre civile est inévitable » en réponse à un message sur la violence. Le régulateur britannique des télécommunications, Ofcom, a également publié une lettre ouverte conseillant aux fournisseurs de services en ligne de respecter leurs obligations actuelles et futures pour empêcher leurs plateformes de promouvoir la violence et la haine.
« En vertu des réglementations de l'Ofcom antérieures à la loi sur la sécurité en ligne, les plateformes de partage de vidéos basées au Royaume-Uni doivent protéger leurs utilisateurs contre les vidéos susceptibles d'inciter à la violence ou à la haine », a déclaré Gill Whitehead, directeur du groupe de l'Ofcom chargé de la sécurité en ligne. « Nous attendons donc des plateformes de partage de vidéos qu'elles veillent à ce que leurs systèmes et processus soient efficaces pour anticiper et répondre à la diffusion potentielle de matériel vidéo préjudiciable découlant des récents événements ».
Whitehead a indiqué aux fournisseurs de services qu'ils devaient bientôt s'acquitter de nouvelles obligations en matière de modération de contenu en vertu de la loi sur la sécurité en ligne, mais qu'il était temps d'agir. (Il a également été rapporté cette semaine que la loi sur la sécurité en ligne, qui entrera en vigueur l'année prochaine, pourrait de toute façon ne pas être en mesure de lutter suffisamment contre les mensonges anti-immigration sur les médias sociaux).
Elon Musk invité à réfléchir à l'impact de ses propos ou à démissionner
La Chamber of Progress se joint désormais au chœur appelant Musk à modérer son discours et sa plateforme. Dans une lettre adressée à Musk, Kayvan Hazemi-Jebelli, directeur principal de la Chamber of Progress en Europe, souligne l’impact potentiel de ses mots. « Les récentes émeutes raciales d’extrême droite au Royaume-Uni, déclenchées par de fausses allégations concernant les coups de poignard de Southport, soulignent le devoir moral de chaque individu utilisant ces plateformes, en particulier ceux qui ont des centaines de millions de followers comme vous, d’agir de manière responsable », écrit Hazemi-Jebelli.
« Vous occupez une position influente dans le domaine de la technologie et des médias, et vous contrôlez X, une plateforme de médias sociaux grand public où près de 200 millions d'utilisateurs suivent vos commentaires. Vous avez donc une responsabilité accrue de ne pas amplifier personnellement des contenus susceptibles de provoquer des violences, la destruction de biens et la perte éventuelle de vies humaines. Malheureusement, vous n'avez pas respecté cette exigence.
Et de continuer en disant :
« Depuis le début de l'attaque anti-immigrés, vous avez répété les points de vue de l'extrême droite, minimisé la gravité du préjudice, tourné en dérision les efforts de la police britannique en réponse à ces émeutes, et accentué la division. Vos commentaires selon lesquels "la guerre civile est inévitable" se rapprochent dangereusement d'une tentative de justification de la poursuite de la violence et de la destruction.
« Je vous invite à réfléchir à l'impact de vos propos sur les immigrés et les minorités qui vivent actuellement dans la peur ou sont confrontés à des préjugés, que ce soit au Royaume-Uni ou à l'étranger. Nombre de ces personnes ont joué un rôle essentiel dans la croissance de l'industrie technologique que nous connaissons aujourd'hui. Les immigrés ont travaillé dur pour bénéficier non seulement à l'économie au sens large, mais ont également contribué au succès d'entreprises telles que X, Tesla et SpaceX.
« Veuillez réfléchir à l'impact de vos paroles et agir de manière plus responsable à l'avenir. Si vous souhaitez continuer à amplifier les voix racistes qui sèment la discorde et à promouvoir une rhétorique irresponsable, je vous demande instamment de démissionner de votre poste de direction chez X et de permettre à des dirigeants plus responsables d'éliminer l'impression de partialité que votre discours a créée ».
Les algorithmes amplifient les fausses informations
Peu après l'annonce de l'agression au couteau, des récits anti-migrants et anti-musulmans ont été diffusés en ligne. Dans un message désormais supprimé, un utilisateur de X a partagé une capture d'écran d'un message LinkedIn d'un homme qui prétendait être le parent de deux enfants présents lors de l'attaque, dans lequel il affirmait que l'agresseur était un « migrant » et qu'il préconisait de « fermer complètement les frontières ». Cet utilisateur X semble être le premier à affirmer faussement que : 1) l'agresseur s'appelait « Ali al-Shakati » ; 2) il figurait sur la « liste de surveillance du MI6 » [ce qui ne peut être exact, le MI5 étant l'agence de sécurité responsable du terrorisme intérieur] ; 3) il était « connu des services de santé mentale de Liverpool » ; et 4) il était « un demandeur d'asile qui est arrivé au Royaume-Uni [sic] par bateau l'année dernière ».
Ces fausses affirmations ont ensuite été amplifiées sans esprit critique par d'autres comptes X prétendant être des « organes d'information ». Un petit compte appelé « Channel3 Now », dont le site web contient principalement du matériel lié à des incidents violents, a écrit le nom « Ali al-Shakati » dans un article qui a depuis été supprimé. L'enquête OSINT de la DSI suggère qu'une précédente itération du site web de Channel3 Now était gérée à partir d'une adresse au Pakistan. D'autres rapports ont suggéré que ceux qui gèrent le site web pourraient être basés au Pakistan et/ou aux États-Unis. Le « reportage » de Channel3 Now a ensuite été cité par une série de comptes, dont « End Wokeness », qui compte 2,8 millions d'adeptes.
La police n'a confirmé que le nom était faux que le lendemain à la mi-journée. À 15 heures, le lendemain de l'attaque, le faux nom avait été mentionné plus de 30 000 fois sur X par plus de 18 000 comptes uniques. L'auteur présumé de l'agression étant âgé de 17 ans et mineur au regard du droit britannique, son nom ne peut être légalement publié qu'à l'issue de la procédure judiciaire.
Le faux nom attribué à l'agresseur a circulé de manière organique, mais il a également été recommandé aux utilisateurs par les algorithmes de la plateforme.
Sur X, le faux nom de l'agresseur « Ali al-Shakati » figurait parmi les sujets « Trending in the UK » (tendances au Royaume-Uni) et était suggéré aux utilisateurs dans la barre latérale « What's happening » (ce qui se passe). Lors d'une recherche sur « Southport » sur X, le compte de l'acteur devenu activiste politique Laurence Fox figurait parmi les résultats de recherche les plus recommandés. Auparavant, Fox, qui compte plus d'un demi-million de followers sur X, avait lancé des appels fondés sur la fausse identification de l'agresseur pour « éliminer définitivement l'islam de la Grande-Bretagne. Complètement et entièrement ». Son message a été vu plus de 850 000 fois sur la plateforme.
X a été moins réactif... mais à également moins de personnel suite aux licenciements massifs d'Elon Musk
Selon le Financial Times, X a été moins réactif que Google, Meta et TikTok aux messages de médias sociaux signalés par la National Security Online Information Team du Royaume-Uni.
X, à l'époque où elle s'appelait Twitter, a réduit son personnel chargé de la modération des contenus après le rachat de l'entreprise par Musk en octobre 2022. Mais au début de l'année 2024, l'entreprise a décidé qu'elle devait renforcer son groupe de modération de contenu dans le cadre de l'examen réglementaire.
La responsabilité des dirigeants de plateformes de médias sociaux
Plus généralement, dans un contexte où les réseaux sociaux jouent un rôle de plus en plus central dans la diffusion d’informations et la formation de l’opinion publique, la responsabilité des dirigeants de ces plateformes est un sujet brûlant. Voici quelques points clés à considérer :
La modération et la liberté d’expression
La question de la modération est complexe. D’un côté, la liberté d’expression est un droit fondamental, et les plateformes doivent respecter cela. D’un autre côté, la propagation de la haine, de la désinformation et de la violence en ligne peut avoir des conséquences graves. Les dirigeants doivent trouver un équilibre entre ces deux impératifs.
Le rôle des algorithmes
Les algorithmes de recommandation jouent un rôle crucial dans la diffusion du contenu sur les plateformes. Ils peuvent amplifier les messages extrémistes ou polarisés. Les dirigeants doivent s’assurer que ces algorithmes sont conçus de manière à minimiser les effets négatifs.
La transparence et la responsabilité
Les utilisateurs ont le droit de savoir comment les décisions de modération sont prises. Les dirigeants doivent être transparents sur leurs politiques et leurs actions. Ils doivent également être prêts à assumer la responsabilité lorsque des erreurs se produisent.
La collaboration avec les experts
Les dirigeants ne peuvent pas résoudre ces problèmes seuls. Ils doivent collaborer avec des experts en droit, en éthique et en technologie pour élaborer des solutions efficaces. La diversité des perspectives est essentielle.
Sources : Institute for Strategic Dialogue, Amnesty International, Ofcom, Online Safety Act: explainer, lettre du Chamber of Progress à l'intention d'Elon Musk
Et vous ?
Pensez-vous que les dirigeants de plateformes de médias sociaux devraient être tenus responsables des contenus publiés par leurs utilisateurs ? Abordons ici les enjeux de responsabilité et de régulation. Certains soutiennent que les plateformes devraient être plus actives dans la modération, tandis que d’autres estiment que cela pourrait entraver la liberté d’expression.
Comment pouvons-nous équilibrer la liberté d’expression avec la nécessité de prévenir la propagation de la haine et de la violence en ligne ? Trouver un équilibre entre ces deux aspects est essentiel. Quelles mesures pourraient être mises en place pour protéger les utilisateurs tout en respectant la diversité des opinions ?
Quelles mesures concrètes les entreprises technologiques devraient-elles prendre pour modérer efficacement leurs plateformes ? Cette question invite à réfléchir aux solutions pratiques. Peut-être des algorithmes plus sophistiqués, une meilleure formation des modérateurs ou une collaboration avec des experts externes pourraient améliorer la modération.
Elon Musk exhorté à se comporter de manière plus responsable sur X ou à démissionner.
Il a déclaré que « la guerre civile est inévitable » en réponse à un message sur la violence au Royaume-Uni
Elon Musk exhorté à se comporter de manière plus responsable sur X ou à démissionner.
Il a déclaré que « la guerre civile est inévitable » en réponse à un message sur la violence au Royaume-Uni
Le , par Stéphane le calme
Une erreur dans cette actualité ? Signalez-nous-la !