
Il ne reste plus qu'un seul employé de Twitter au sein d'une équipe chargée de supprimer les documents relatifs aux abus sexuels sur les enfants au Japon et dans la région Asie-Pacifique, a rapporté Wired. Twitter employait auparavant au moins quatre employés chargés de la sécurité des enfants dans ces régions, a découvert Wired sur LinkedIn. Ces employés étaient basés à Singapour, le siège asiatique de Twitter, mais trois d'entre eux ont publiquement quitté Twitter en novembre. Des sources ont déclaré que cela ne laissait qu'un seul employé à temps plein en Asie-Pacifique pour s'attaquer au problème massif du CSAM (child sex abuse material : exploitation sexuelle des enfants) sur Twitter. La région Asie-Pacifique abrite 60 % de la population mondiale, soit environ 4,3 milliards de personnes. Le Japon n'arrive qu'en deuxième position derrière les États-Unis pour le nombre d'utilisateurs de Twitter, avec 59 millions, selon les données de Statista.
Parallèlement, trois personnes connaissant bien les effectifs actuels de Twitter ont déclaré à Bloomberg que lorsque 2022 a commencé, Twitter comptait 20 membres de l'équipe chargés d'examiner et de transmettre à l'échelon supérieur les rapports sur les documents relatifs à l'exploitation sexuelle des enfants. Aujourd'hui, après les licenciements et les démissions, il y a moins de 10 spécialistes formant ce que Bloomberg a décrit comme « une équipe squelettique débordée ». « Musk n'a pas créé un environnement dans lequel l'équipe voulait rester », ont déclaré des sources à Bloomberg.
Le personnel que Musk a perdu, selon Bloomberg, comprenait des experts en sécurité des enfants et d'anciens agents des forces de l'ordre aux États-Unis, en Irlande et à Singapour. Les sources ont déclaré que cette équipe travaillait déjà plus longtemps (avant que Musk ne demande aux employés de s'engager à faire plus d'heures) juste pour essayer de suivre le flux constant de rapports d'utilisateurs et de demandes légales.
Ces personnes ont supprimé les CSAM, ont aidé les enquêtes des forces de l'ordre et en se basant sur le raisonnement humain plutôt que sur l'intelligence artificielle ont identifié les comptes qui préparent des mineurs ou promeuvent l'attirance pour les mineurs comme étant sains.
Bien que Twitter ait récemment supprimé certains hashtags connus utilisés pour diffuser les CSAM, cette mesure n'était pas une solution complète ou permanente, car les hashtags changent, tout comme le langage codé que les abuseurs utilisent pour contourner la suppression automatique du contenu. Comme la suppression de ces hashtags a eu lieu après la prise de contrôle de Musk, il est facile de lui attribuer la décision et d'y voir son engagement à bloquer les CSAM. Cependant, des sources ont déclaré que la décision de supprimer les hashtags avait été prise avant l'arrivée de Musk à bord.
Il ne reste donc qu'un seul membre de l'équipe chargée de la sécurité des enfants pour traiter tous les rapports provenant de la région Asie-Pacifique. Cela signifie que Twitter dispose d'un expert qui comprend à la fois les lois régionales pour assurer la coordination avec les forces de l'ordre et les mots de code évolutifs utilisés dans les langues autres que l'anglais dans cette région pour échapper à la détection.
L’impact de l’absence de ces équipes sur la capacité de Twitter à s'attaquer au CSAM
L'impact des licenciements et des démissions sur la capacité de Twitter à s'attaquer au CSAM est « très inquiétant », déclare Carolina Christofoletti, chercheuse sur le CSAM à l'université de São Paulo au Brésil. « Il est illusoire de penser qu'il n'y aura pas d'impact sur la plateforme si les personnes qui travaillaient sur la sécurité des enfants au sein de Twitter peuvent être licenciées ou autorisées à démissionner », dit-elle.
Les experts en sécurité des enfants de Twitter ne luttent pas seuls contre le CSAM sur la plateforme. Ils reçoivent l'aide d'organisations telles que l'Internet Watch Foundation (Royaume-Uni) et le National Center for Missing & Exploited Children (États-Unis), qui effectuent également des recherches sur Internet pour identifier les contenus de ce type partagés sur des plateformes telles que Twitter. L'IWF (Internet Watch Foundation) indique que les données qu'elle envoie aux entreprises technologiques peuvent être automatiquement supprimées par les systèmes de ces dernières, sans qu'une modération humaine soit nécessaire. « Cela permet de garantir que le processus de blocage est aussi efficace que possible », explique Emma Hardy, directrice de la communication de l'IWF.
Mais ces organisations externes se concentrent sur le produit final et n'ont pas accès aux données internes de Twitter, explique Christofoletti. Elle décrit les tableaux de bord internes comme essentiels pour analyser les métadonnées afin d'aider les personnes qui rédigent le code de détection à identifier les réseaux CSAM avant que le contenu ne soit partagé. « Les seules personnes capables de voir ces [métadonnées] sont celles qui sont à l'intérieur de la plateforme », dit-elle.
Musk risque des amendes si l'équipe chargée de la sécurité des enfants de Twitter, déjà débordée, est dépassée
La suppression de l'exploitation des enfants est la "priorité n°1", a déclaré la semaine dernière le nouveau propriétaire et PDG de Twitter, Elon Musk. C'est une responsabilité qu'il ne peut pas esquiver. Contrairement au blocage des discours haineux et des fausses informations qui peuvent, dans certains cas, violer les règles de Twitter, Musk est légalement tenu de bloquer les CSAM sur sa plateforme.
Cela signifie que sa promesse de « liberté de parole, pas de liberté d'accès » (qui prévoit de contenir les discours et informations haineux non criminels simplement en ne les promouvant pas auprès des utilisateurs de Twitter) n'est pas une stratégie acceptable pour faire face au CSAM. En Europe notamment, les législateurs sévissent contre le CSAM, et de nouvelles lois dictent la manière dont les plateformes abordent la sécurité des enfants en ligne. Musk pourrait continuer à perdre de l'argent sur Twitter s'il risque des amendes, qui pourraient atteindre 10 % des revenus de Twitter, pour avoir enfreint les lois sur la sécurité des enfants. Le projet de loi britannique sur la sécurité des enfants en ligne menace même de bloquer les plates-formes au niveau régional dans les cas graves où le CSAM ne peut être contrôlé de manière adéquate.
Musk semble également savoir qu'il ne peut pas se permettre de voir Twitter être exclu de l'App Store d'Apple, ce que Yoel Roth, ancien responsable de Twitter Trust & Safety, a écrit dans le New York Times et qui pourrait se produire si Twitter ne donne pas la...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.