IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les enfants du Royaume-Uni vont apprendre à repérer les contenus extrémistes et les infox en ligne dans le cadre d'une réforme des programmes
Qui intervient en plein balbutiements de l'IA en la matière

Le , par Patrick Ruiz

195PARTAGES

3  0 
Les enfants anglais apprendront à repérer les contenus extrémistes et les fausses informations en ligne dans le cadre des changements prévus au programme scolaire. C’est ce qui ressort d’une récente déclaration de la secrétaire d’Etat à l’éducation. La décision intervient dans un contexte de balbutiements de l’intelligence artificielle en matière de modération des contenus en ligne.

Bridget Phillipson a déclaré qu'elle lançait une révision du programme scolaire dans les écoles primaires et secondaires afin d'intégrer la pensée critique dans plusieurs matières et d'armer les enfants contre les théories du complot.

Par exemple, les élèves pourraient analyser des articles de journaux en cours d'anglais de manière à différencier les histoires fabriquées de celles qui sont vraies. Dans les cours d'informatique, ils pourraient apprendre à repérer les sites de fausses nouvelles par leur conception, et les cours de mathématiques pourraient inclure l'analyse des statistiques dans leur contexte.

Un député travailliste de Houghton et Sunderland South, déclare à ce sujet : « Il est plus important que jamais de donner aux jeunes les connaissances et les compétences nécessaires pour qu'ils puissent remettre en question ce qu'ils voient en ligne. »


Une décision qui arrive dans un contexte de balbutiements de l’intelligence artificielle en matière de modération : des centaines de publicités pour des drogues passent à travers les mailles du filet en dépit de ses systèmes d’intelligence artificielle dédiés à la tâche

Le 15 mars 2024, Nick Clegg, président des affaires mondiales de Meta, a vanté les efforts de son entreprise pour lutter contre la toxicomanie. Qualifiant l'épidémie d'opioïdes de « problème majeur de santé publique », il a écrit que Meta, la société mère de Facebook et d'Instagram, avait rejoint l'Alliance to Prevent Drug Harms pour « aider à perturber la vente de drogues synthétiques en ligne ».

Mais le moteur publicitaire de Meta, qui génère l'essentiel des bénéfices de l'entreprise, n'a manifestement pas reçu le message. Le jour même où Clegg a fait son annonce, Meta a diffusé sur ses plateformes des publicités payantes vendant des opioïdes comme l'oxycodone, le tramadol et le Percocet, ainsi que ce qui semblait être des morceaux de cocaïne et des pilules d'ecstasy, en violation de la politique de l'entreprise.

Meta utilise des outils d'intelligence artificielle pour modérer le contenu, mais les outils de l'entreprise n'ont pas réussi à arrêter de telles publicités pour des médicaments, qui redirigent souvent les utilisateurs vers d'autres plateformes où ils peuvent effectuer des achats. L'utilisation de photos pour présenter les médicaments disponibles semble permettre aux publicités de contourner les systèmes de modération de contenu de Meta.

Meta collabore avec les forces de l'ordre pour lutter contre ce type d'activité, a déclaré un porte-parole de l'entreprise. Les équipes de modération de contenu de l'entreprise ont été affectées par des réductions de personnel ces dernières années. Le porte-parole a déclaré que l'entreprise avait quadruplé la taille de l'équipe travaillant sur la sûreté et la sécurité depuis 2016.

« Nos systèmes sont conçus pour détecter de manière proactive et appliquer contre les contenus violents, et nous rejetons des centaines de milliers d'annonces pour violation de nos politiques en matière de drogues », a déclaré le porte-parole. « Nous continuons à investir des ressources et à améliorer encore notre application sur ce type de contenu. Nous sommes de tout cœur avec ceux qui souffrent des conséquences tragiques de cette épidémie, et nous devons tous travailler ensemble pour y mettre fin ».

Lorsque les utilisateurs cliquent sur les pages Facebook ou les comptes Instagram associés aux publicités, ces pages comprennent souvent des photos ou des posts supplémentaires, non sponsorisés, de contenus liés à la drogue. Certains comptes utilisent des noms qui indiquent clairement qu'ils sont destinés à la transaction de drogues, comme la publicité pour le DMT, qui a été publiée par un compte appelé "DMT Vapes and Notes".

Les utilisateurs qui cliquent sur les liens contenus dans les annonces sont généralement redirigés vers des groupes de discussion privés sur l'application Telegram, qui n'appartient pas à Meta. Lorsqu'ils y accèdent, ces groupes de discussion affichent généralement un flux de messages des revendeurs comprenant des photos des drogues qu'ils proposent, des menus avec les prix et des instructions pour passer des commandes, selon l'examen du Journal et l'analyse du Tech Transparency Project.

Meta a désactivé un grand nombre des annonces de médicaments repérées par le WSJ et TTP dans les 48 heures suivant leur mise en ligne, a déclaré le porte-parole de l'entreprise.

Toutes les publicités ont été supprimées pour violation des règles de Meta et, après avoir été contactée, l'entreprise a également banni de sa plateforme les utilisateurs qui avaient créé les publicités. En outre, l'entreprise a déclaré qu'elle utilisait les informations sur les nouvelles tactiques adverses recueillies lors de l'enquête sur ces publicités pour se déployer et procéder à de nouveaux balayages.



La décision fait suite à des émeutes qui ont résulté de la propagation de fausses nouvelles en ligne. Des informations erronées selon lesquelles le suspect de l'agression au couteau de trois jeunes filles à Southport le 29 juillet était un demandeur d'asile musulman ont en partie déclenché des jours d'émeutes dans tout le Royaume-Uni.

Source : Bridget Phillipson

Et vous ?

Que pensez-vous de la décision de mettre les enfants en capacité de repérer les contenus extrémistes et les infox en ligne ? Bonne ou mauvaise idée ?
L’efficacité des systèmes de modération : Comment peut-on améliorer les outils d’intelligence artificielle utilisés pour une modération plus efficace des contenus en ligne ?

Voir aussi :

Google avertit la Cour suprême de USA que l'altération de l'article 230 de la Communications Decency Act pourrait ruiner Internet et déclencher des retombées dévastatrices

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 12/08/2024 à 11:12
1ère leçon:

Etre LGBTQI+, c'est bien!
Etre hétérosexuel, c'est pas bien et anormal!

Aimer son pays, c'est pas bien!
Aimer la globalisation et un monde sans frontière c'est bien!

Travailler et gagner sa vie, c'est pas bien!
Fumer le chichon et profiter des aides sociales, c'est bien!

Etre pro-Trump ou pro-israelien, c'est pas bien!
Etre pro-Kamela Harris ou pro-palestien, c'est bien!

Les UK démarrent vachement tôt la formation de leurs futurs journalistes
3  4