Il y a quelques semaines, Elon Musk, PDG de Twitter, a demandé à ses employés restants de faire preuve de loyauté en les incitant à cliquer sur un lien "oui" dans un courriel. En cliquant sur "oui", les employés disaient à Musk qu'ils étaient d'accord pour travailler plus longtemps, s'ils pouvaient garder leur emploi. C'était la façon dont Musk voyait qui, dans son équipe existante, était vraiment prêt à s'aligner sur ses efforts "hardcore" pour construire Twitter 2.0. Musk a rapidement compris à quel point son offre était peu attrayante lorsqu'un nombre écrasant d'employés n'ont pas cliqué sur le bouton "oui". Parmi ceux qui ont rejeté les conditions sévères de Musk, il y avait apparemment près de la moitié de l'équipe mondiale de Twitter dédiée à la prévention de l'exploitation sexuelle des enfants sur la plateforme.
Il ne reste plus qu'un seul employé de Twitter au sein d'une équipe chargée de supprimer les documents relatifs aux abus sexuels sur les enfants au Japon et dans la région Asie-Pacifique, a rapporté Wired. Twitter employait auparavant au moins quatre employés chargés de la sécurité des enfants dans ces régions, a découvert Wired sur LinkedIn. Ces employés étaient basés à Singapour, le siège asiatique de Twitter, mais trois d'entre eux ont publiquement quitté Twitter en novembre. Des sources ont déclaré que cela ne laissait qu'un seul employé à temps plein en Asie-Pacifique pour s'attaquer au problème massif du CSAM (child sex abuse material : exploitation sexuelle des enfants) sur Twitter. La région Asie-Pacifique abrite 60 % de la population mondiale, soit environ 4,3 milliards de personnes. Le Japon n'arrive qu'en deuxième position derrière les États-Unis pour le nombre d'utilisateurs de Twitter, avec 59 millions, selon les données de Statista.
Parallèlement, trois personnes connaissant bien les effectifs actuels de Twitter ont déclaré à Bloomberg que lorsque 2022 a commencé, Twitter comptait 20 membres de l'équipe chargés d'examiner et de transmettre à l'échelon supérieur les rapports sur les documents relatifs à l'exploitation sexuelle des enfants. Aujourd'hui, après les licenciements et les démissions, il y a moins de 10 spécialistes formant ce que Bloomberg a décrit comme « une équipe squelettique débordée ». « Musk n'a pas créé un environnement dans lequel l'équipe voulait rester », ont déclaré des sources à Bloomberg.
Le personnel que Musk a perdu, selon Bloomberg, comprenait des experts en sécurité des enfants et d'anciens agents des forces de l'ordre aux États-Unis, en Irlande et à Singapour. Les sources ont déclaré que cette équipe travaillait déjà plus longtemps (avant que Musk ne demande aux employés de s'engager à faire plus d'heures) juste pour essayer de suivre le flux constant de rapports d'utilisateurs et de demandes légales.
Ces personnes ont supprimé les CSAM, ont aidé les enquêtes des forces de l'ordre et en se basant sur le raisonnement humain plutôt que sur l'intelligence artificielle ont identifié les comptes qui préparent des mineurs ou promeuvent l'attirance pour les mineurs comme étant sains.
Bien que Twitter ait récemment supprimé certains hashtags connus utilisés pour diffuser les CSAM, cette mesure n'était pas une solution complète ou permanente, car les hashtags changent, tout comme le langage codé que les abuseurs utilisent pour contourner la suppression automatique du contenu. Comme la suppression de ces hashtags a eu lieu après la prise de contrôle de Musk, il est facile de lui attribuer la décision et d'y voir son engagement à bloquer les CSAM. Cependant, des sources ont déclaré que la décision de supprimer les hashtags avait été prise avant l'arrivée de Musk à bord.
Il ne reste donc qu'un seul membre de l'équipe chargée de la sécurité des enfants pour traiter tous les rapports provenant de la région Asie-Pacifique. Cela signifie que Twitter dispose d'un expert qui comprend à la fois les lois régionales pour assurer la coordination avec les forces de l'ordre et les mots de code évolutifs utilisés dans les langues autres que l'anglais dans cette région pour échapper à la détection.
L’impact de l’absence de ces équipes sur la capacité de Twitter à s'attaquer au CSAM
L'impact des licenciements et des démissions sur la capacité de Twitter à s'attaquer au CSAM est « très inquiétant », déclare Carolina Christofoletti, chercheuse sur le CSAM à l'université de São Paulo au Brésil. « Il est illusoire de penser qu'il n'y aura pas d'impact sur la plateforme si les personnes qui travaillaient sur la sécurité des enfants au sein de Twitter peuvent être licenciées ou autorisées à démissionner », dit-elle.
Les experts en sécurité des enfants de Twitter ne luttent pas seuls contre le CSAM sur la plateforme. Ils reçoivent l'aide d'organisations telles que l'Internet Watch Foundation (Royaume-Uni) et le National Center for Missing & Exploited Children (États-Unis), qui effectuent également des recherches sur Internet pour identifier les contenus de ce type partagés sur des plateformes telles que Twitter. L'IWF (Internet Watch Foundation) indique que les données qu'elle envoie aux entreprises technologiques peuvent être automatiquement supprimées par les systèmes de ces dernières, sans qu'une modération humaine soit nécessaire. « Cela permet de garantir que le processus de blocage est aussi efficace que possible », explique Emma Hardy, directrice de la communication de l'IWF.
Mais ces organisations externes se concentrent sur le produit final et n'ont pas accès aux données internes de Twitter, explique Christofoletti. Elle décrit les tableaux de bord internes comme essentiels pour analyser les métadonnées afin d'aider les personnes qui rédigent le code de détection à identifier les réseaux CSAM avant que le contenu ne soit partagé. « Les seules personnes capables de voir ces [métadonnées] sont celles qui sont à l'intérieur de la plateforme », dit-elle.
Musk risque des amendes si l'équipe chargée de la sécurité des enfants de Twitter, déjà débordée, est dépassée
La suppression de l'exploitation des enfants est la "priorité n°1", a déclaré la semaine dernière le nouveau propriétaire et PDG de Twitter, Elon Musk. C'est une responsabilité qu'il ne peut pas esquiver. Contrairement au blocage des discours haineux et des fausses informations qui peuvent, dans certains cas, violer les règles de Twitter, Musk est légalement tenu de bloquer les CSAM sur sa plateforme.
Cela signifie que sa promesse de « liberté de parole, pas de liberté d'accès » (qui prévoit de contenir les discours et informations haineux non criminels simplement en ne les promouvant pas auprès des utilisateurs de Twitter) n'est pas une stratégie acceptable pour faire face au CSAM. En Europe notamment, les législateurs sévissent contre le CSAM, et de nouvelles lois dictent la manière dont les plateformes abordent la sécurité des enfants en ligne. Musk pourrait continuer à perdre de l'argent sur Twitter s'il risque des amendes, qui pourraient atteindre 10 % des revenus de Twitter, pour avoir enfreint les lois sur la sécurité des enfants. Le projet de loi britannique sur la sécurité des enfants en ligne menace même de bloquer les plates-formes au niveau régional dans les cas graves où le CSAM ne peut être contrôlé de manière adéquate.
Musk semble également savoir qu'il ne peut pas se permettre de voir Twitter être exclu de l'App Store d'Apple, ce que Yoel Roth, ancien responsable de Twitter Trust & Safety, a écrit dans le New York Times et qui pourrait se produire si Twitter ne donne pas la priorité à la protection des enfants sur la plateforme.
Des experts ont déclaré à Wired que les organisations de protection de l'enfance aident les plateformes de médias sociaux comme Twitter à détecter et à supprimer automatiquement beaucoup de CSAM, mais la technologie ne peut pas remplacer les modérateurs humains qui ont accès à plus de données que les organisations extérieures. En septembre, lorsque Twitter avait encore un porte-parole, Celeste Carswell a déclaré que Twitter « investissait davantage de ressources consacrées à la sécurité des enfants, notamment en recrutant de nouveaux postes pour rédiger des politiques et mettre en œuvre des solutions ».
Twitter a également été contraint de retarder son projet de monétiser la communauté des adultes consentants et de devenir un concurrent d'OnlyFans, car il craignait que cela ne risque d'aggraver le problème de CSAM de la plateforme. « Twitter ne peut pas détecter avec précision l'exploitation sexuelle des enfants et la nudité non consensuelle à l'échelle », peut-on lire dans un rapport interne datant d'avril 2022. En septembre, nous avons rapporté que certaines marques abandonnaient Twitter spécifiquement parce que Twitter plaçait leurs publicités à côté de CSAM. David Maddocks, le président de la marque Cole Haan, a résumé les préoccupations des annonceurs en disant : « Nous sommes horrifiés ».
Les chercheurs s'inquiètent de la manière dont Twitter va s'attaquer au problème du CSAM sous son nouveau propriétaire. Ces préoccupations n'ont été qu'exacerbées lorsque Musk a demandé à ses followers de « répondre dans les commentaires » s'ils voyaient des problèmes sur Twitter qui devaient être abordés. « Cette question ne devrait pas être un fil de discussion sur Twitter. C'est la question même qu'il devrait poser à l'équipe de sécurité des enfants qu'il a licenciée. C'est là toute la contradiction », déclare Christofoletti.
Sources : Bloomberg, Wired
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi :
Twitter a maintenant du mal à payer certains employés en Europe à temps, après les départs massifs qui ont touché son service des salaires
Un cadre supérieur de Twitter a obtenu une injonction du tribunal pour empêcher Elon Musk de la licencier. La VP pour les politiques publiques refuse la culture de travail "extrêmement hardcore"
Des centaines d'employés refusent de faire partie de l'équipe Twitter à la culture de travail "extrêmement hardcore", Musk met au défi les managers d'approuver le télétravail à leurs propres risques
Les licenciements et des démissions ont vidé l'équipe de Twitter chargée de la sécurité des enfants
Alors que Musk a déclaré que la lutte contre les abus envers les enfants est sa principale priorité
Les licenciements et des démissions ont vidé l'équipe de Twitter chargée de la sécurité des enfants
Alors que Musk a déclaré que la lutte contre les abus envers les enfants est sa principale priorité
Le , par Nancy Rey
Une erreur dans cette actualité ? Signalez-nous-la !