IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA peut maintenant écrire de la désinformation pour tromper les lecteurs,
Des chercheurs ont utilisé le générateur de texte GPT-3 pour écrire des tweets que les gens ont trouvés convaincants

Le , par Stan Adkens

71PARTAGES

10  0 
GPT-3, un modèle de traitement du langage naturel développé et publié récemment par OpenAI, peut faire beaucoup de choses. Et ses créateurs ont prévenu que l’algorithme pourrait être utilisé comme une arme de désinformation en ligne. Dans une recherche partagée en mai, une équipe d'experts en désinformation a démontré avec quelle efficacité ce programme d’intelligence artificielle pouvait être utilisé pour tromper et désinformer. Les résultats suggèrent que, bien que l'IA produit parfois des résultats incohérents, elle pourrait amplifier certaines formes de tromperie qui seraient particulièrement difficiles à repérer. Les tweets produits par GPT-3 sur certains sujets d’actualité, tels que le réchauffement climatique, étaient convaincants et ont réussi à influencer l’opinion des gens, d'après les chercheurs.

De nombreuses startups et entrepreneurs utilisent ce programme d’IA, GPT-3, pour créer de petites quantités de texte, comme des e-mails automatisés. Mais des chercheurs de Georgetown University à Washington, DC, aux États-Unis, ont démontré que l'IA est également capable de mener une campagne de désinformation en ligne – une campagne beaucoup plus complexe à repérer et à contrôler. Les chercheurs ont découvert que l’algorithme pouvait écrire des messages très éloignés de la vérité et comment des personnes aux desseins néfastes pouvaient l'utiliser pour diffuser des informations erronées, notamment sur Internet.


Pendant six mois, le groupe de chercheurs du Center for Security and Emerging Technology à Georgetown University a utilisé GPT-3 pour générer des informations erronées, y compris des histoires autour d'un faux récit, des articles d'actualité modifiés pour promouvoir une fausse perspective et des tweets reprenant des points particuliers de la désinformation.

Les chercheurs ont fourni un exemple de texte généré par l'IA : « Je ne pense pas que ce soit une coïncidence que le changement climatique soit le nouveau réchauffement de la planète. Ils ne peuvent pas parler des augmentations de température parce qu'elles ne se produisent plus ». Le texte, qui vise à alimenter le scepticisme à l'égard du changement climatique, a été écrit par GPT-3 sous forme de tweet pour diffuser intentionnellement des informations erronées. Un second texte qualifiait le changement climatique de « nouveau communisme – une idéologie basée sur une fausse science qui ne peut être remise en question ».

Citant un autre exemple, les chercheurs expliquent que le programme GPT-3 a ensuite été amené à rédiger des messages s'opposant aux sanctions contre la Chine. Lorsque les utilisateurs ont été exposés aux textes, le pourcentage de ceux qui ont déclaré être opposés aux sanctions contre la Chine a doublé après avoir lu les messages.

« Avec un peu de traitement humain, GPT-3 est assez efficace » pour promouvoir des faussetés, a déclaré Ben Buchanan, un professeur de Georgetown, qui se concentre sur l'intersection de l'IA, de la cybersécurité et de l'habileté politique, et qui est impliqué dans l'étude.

Selon les chercheurs de Georgetown, GPT-3 ou un algorithme linguistique similaire de l'IA pourrait s'avérer particulièrement efficace pour générer automatiquement de courts messages sur les médias sociaux, ce que les chercheurs appellent la désinformation "one-to-many". Et qu'il deviendrait très difficile de repérer les informations fiables et celles qui ne le sont pas.

Elon Musk a longtemps exprimé son opposition à l'utilisation de l'IA au-delà des bots de base, avertissant dans un tweet en septembre 2019 que si l'IA continuait à évoluer, cela pourrait avoir des conséquences désastreuses. « Si l'IA avancée (au-delà des robots de base) n'a pas encore été appliquée à la manipulation des médias sociaux, elle ne tardera pas à l'être ».


Des algorithmes d’IA comme GPT-3 pourraient être utilisés par des acteurs étatiques pour rependre de faux discours

Les chercheurs en IA ont construit des programmes capables d'utiliser le langage de manière surprenante ces derniers temps, et GPT-3 est peut-être la démonstration la plus étonnante de toutes. Les chercheurs d'OpenAI ont créé GPT-3 en alimentant un algorithme d'IA particulièrement puissant, conçu pour traiter le langage, avec de grandes quantités de texte extraites de sources Web telles que Wikipedia et Reddit. GPT-3 a souvent stupéfié les observateurs par son apparente maîtrise du langage, mais il peut être imprévisible, crachant parfois des babillages incohérents.

OpenAI a mis GPT-3 à la disposition de dizaines de startups. Les entrepreneurs utilisent GPT-3 pour générer automatiquement des e-mails, parler aux clients et même écrire du code informatique. Mais certaines utilisations du programme ont également démontré son potentiel plus sombre.

Mike Gruszczynski, professeur à Indiana University, qui étudie les communications en ligne, ne serait pas surpris de voir l'IA jouer un rôle plus important dans les campagnes de désinformation. Il souligne que les bots ont joué un rôle clé dans la diffusion de faux récits ces dernières années, et que l'IA peut être utilisée pour générer de fausses photos de profil sur les médias sociaux. Avec les bots, les deepfakes et d'autres technologies, « je pense vraiment que le ciel est la limite, malheureusement », a-t-il dit.

L’année dernière, un étudiant à l’université de Californie à Berkeley a utilisé le modèle d'IA GPT-3 pour produire un blog entièrement faux sous un faux nom. Il a publié de faux articles de blog qu’il a généré à l’aide de l’algorithme d’OpenAI. L’un de ces articles avait d’ailleurs réussi à tromper la vigilance des lecteurs et a pu même se hisser dans les sujets en tête du site communautaire Hacker News.

Toutefois, selon Buchanan, l'algorithme ne semble pas capable de générer de manière fiable des articles cohérents et persuasifs d'une longueur supérieure à celle d'un tweet. Les chercheurs n'ont pas essayé de montrer les articles qu'il a produits à des volontaires.

Cependant, Buchanan prévient que les acteurs étatiques pourraient être en mesure de faire plus avec un outil linguistique tel que GPT-3. « Les adversaires qui ont plus d'argent, plus de capacités techniques et moins d'éthique seront en mesure de mieux utiliser l'IA », a-t-il dit. « De plus, les machines ne feront que s'améliorer ».

Les travaux des chercheurs Georgetown n’étonnent par OpenAI. La société affirme qu’ils ne font que mettre en lumière un problème important que l'entreprise connaît déjà et espère atténuer. « Nous travaillons activement à la résolution des risques de sécurité associés à GPT-3 », a déclaré un porte-parole d'OpenAI. « Nous examinons également chaque utilisation de production de GPT-3 avant qu'elle ne soit mise en service et nous avons mis en place des systèmes de surveillance pour restreindre et répondre à l'utilisation abusive de notre API ».

Source : Article de recherche

Et vous ?

Que pensez-vous de cette recherche ?
Le programme GPT-3 constitue-t-il une réelle menace en ligne, selon vous ?
Comment OpenAI peut-il remédier aux risques de désinformation liés à l’outil, selon vous ?

Voir aussi :

Un faux blog d'un lycéen généré par GPT-3, l'IA de traitement du langage naturel d'OpenAI, a trompé des dizaines de milliers de personnes
Open AI propose en bêta privée son modèle de traitement du langage naturel GPT-3, ses applications vont de la génération de texte cohérent à la génération de code en passant par la création d'apps
Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse
GPT-3, le système de génération de texte d'OpenAI, produit désormais 4,5 milliards de mots par jour, avec une précision de 91 %

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de escartefigue
Modérateur https://www.developpez.com
Le 16/02/2023 à 9:00
Trump détient la palme d'or du mensonge :

Voir par exemple ici :
https://www.europe1.fr/international...mandat-4021012

Personne ne lui arrive à la cheville, ça force le respect !
6  0 
Avatar de escartefigue
Modérateur https://www.developpez.com
Le 15/02/2023 à 9:28
Citation Envoyé par Madmac Voir le message
En pratique, ils ont créé un super-menteur artificiel.
Donald Trump va porter plainte pour plagiat ?
5  0 
Avatar de escartefigue
Modérateur https://www.developpez.com
Le 06/03/2023 à 8:59
Madmac, même le patron de Fox News, chaîne pourtant inféodée aux conservateurs Américains, a récemment admis avoir propagé les mensonges de Donald Trump. Votre crédibilité est inversement proportionnelle à votre entêtement à nier l'évidence.
5  0 
Avatar de escartefigue
Modérateur https://www.developpez.com
Le 27/02/2023 à 8:49
Malheureusement pour les indécrottables trumpistes, les mensonges de l'ex-président ne sont pas dénoncés que par les journalistes français,

Les canadiens aussi on relevé la frénésie de mensonges du milliardaire psychopathe

Voir ici : https://www.journaldemontreal.com/20...naces-de-trump
ou encore là : https://pol.umontreal.ca/departement...pierre-martin/
et là : https://ici.radio-canada.ca/nouvelle...e-republicains

Les journaliste des États-Unis également, bien entendu

Voir ici : https://www.huffingtonpost.fr/intern...us_161822.html
ou ici : https://www.bfmtv.com/international/...801130006.html

Ce ne sont pas les sources qui manquent, mais nul n'est plus aveugle que celui qui ne veut pas voir.
4  0 
Avatar de escartefigue
Modérateur https://www.developpez.com
Le 01/03/2023 à 8:51
@Madmac : modifier les propos d'autrui est à la fois déloyal et symptomatique d'une personne à cours d'arguments, par ailleurs, si vous pensez être mieux informés que les journalistes dont c'est le métier, c'est que vous avez les chevilles qui enflent !
4  0 
Avatar de Delias
Modérateur https://www.developpez.com
Le 01/03/2023 à 19:05
Les citations sont réattribuées à leur auteur et contextualisées, la compréhension en sera meilleure. C'est dans le premier article mis en lien par escartefigue.
4  0 
Avatar de escartefigue
Modérateur https://www.developpez.com
Le 07/03/2023 à 7:45
Il faut arrêter de lire la presse complotiste Madmac, ça nuit gravement à la santé et au pouvoir de discernement
4  0 
Avatar de frfancha
Membre éprouvé https://www.developpez.com
Le 18/06/2021 à 6:50
Même certains humains sont capables d'écrire des tweets convaincants contenant pourtant de fausses informations
2  0 
Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 17/06/2021 à 14:07
1984.
1  0 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 14/02/2023 à 23:04
Citation Envoyé par Anselme45 Voir le message
Magnifique! Extraordinaire! Quelle prouesse technologique!
C'est une dangereuse prouesse. Mais ici ce que tu dois savoir est que la traduction n'est pas exact avec l'adjectif "convaincant". Remplace le terme par "qui semble plus digne de confiance qu'un humain".

En pratique, ils ont créé un super-menteur artificiel. Imagine le potentiel pour l'écriture de discour politique. Grace à tes tweets, il est en mesure de déterminer comment paraître être une personne qui te ressemble pour mieux te convaincre.
1  1