IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les textes générés par l'IA pourraient accroître l'exposition aux menaces
L'identification des contenus malveillants ou abusifs deviendra plus difficile pour les fournisseurs de plateformes

Le , par Sandra Coret

3PARTAGES

5  0 
Un nouveau rapport publié par WithSecure met en évidence une autre utilisation potentielle de l'IA pour créer du contenu nuisible.

Les chercheurs ont utilisé GPT-3 (Generative Pre-trained Transformer 3) - des modèles de langage qui utilisent l'apprentissage automatique pour générer du texte - pour produire une variété de contenus jugés nuisibles.

L'expérience a porté sur le phishing et le spear-phishing, le harcèlement, la validation sociale d'escroqueries, l'appropriation d'un style écrit, la création d'opinions délibérément discordantes, l'utilisation des modèles pour créer des invites pour des textes malveillants, et les fake news.

"Le fait que toute personne disposant d'une connexion Internet puisse désormais accéder à de puissants modèles linguistiques de grande taille a une conséquence très pratique : il est désormais raisonnable de supposer que toute nouvelle communication que vous recevez a peut-être été rédigée avec l'aide d'un robot", explique Andy Patel, chercheur en intelligence chez WithSecure, qui a dirigé les recherches. "À l'avenir, l'utilisation de l'IA pour générer des contenus aussi bien nuisibles qu'utiles nécessitera des stratégies de détection capables de comprendre le sens et l'objectif des contenus écrits."


Les résultats amènent les chercheurs à conclure que l'on verra se développer l'ingénierie des invites en tant que discipline, ainsi que la création d'invites malveillantes. Les attaquants sont également susceptibles de développer de manière imprévisible les capacités offertes par les grands modèles linguistiques. Cela signifie que l'identification des contenus malveillants ou abusifs deviendra plus difficile pour les fournisseurs de plateformes. Les grands modèles linguistiques donnent déjà aux criminels la possibilité de rendre plus efficace toute communication ciblée dans le cadre d'une attaque.

"Nous avons commencé cette recherche avant que ChatGPT ne mette la technologie GPT-3 à la disposition de tous", ajoute Patel. "Ce développement a accru notre urgence et nos efforts. Car, dans une certaine mesure, nous sommes tous des Blade Runners maintenant, essayant de déterminer si l'intelligence à laquelle nous avons affaire est 'réelle' ou artificielle."

Source : WithSecure

Et vous ?

Qu'en pensez-vous ?

Voir aussi :

42 % des spécialistes en marketing estiment que l'IA sera la tendance principale à suivre en 2023, le streaming vidéo arrive en seconde position, suivi du métavers et de la télévision connectée

Une fausse application mobile se faisant passer pour ChatGPT tente d'escroquer les utilisateurs via un abonnement hebdomadaire de 7,99*$, l'App Store et le Play Store en contiendraient plusieurs

Des scientifiques affirment qu'ils essaient maintenant activement de construire des robots dotés d'une conscience, mais cela introduit de nouveaux défis et soulève de nombreux problèmes éthiques

Une erreur dans cette actualité ? Signalez-nous-la !