IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un faux blog d'un lycéen généré par GPT-3, l'IA de traitement du langage naturel d'OpenAI,
A trompé des dizaines de milliers de personnes

Le , par Bill Fassinou

121PARTAGES

8  0 
Pourquoi certaines personnes ont-elles réellement peur de l’IA ? Eh bien, peut-être parce qu’elle peut être utilisée pour servir une bonne cause, mais aussi pour en servir une mauvaise, comme tromper les gens par exemple. Ceci, Liam Porr, étudiant à l’université de Californie à Berkeley, l’a prouvé à travers de faux articles de blog qu’il a généré avec une IA, notamment avec GPT-3, un modèle de traitement du langage naturel développé et publié récemment par OpenAI. L’un de ces articles a d’ailleurs réussi à tromper la vigilance des lecteurs et s'est hissé dans les sujets en tête du site communautaire Hacker News.

À la fin de la semaine dernière, Porr a utilisé le modèle d'IA GPT-3 pour produire un blog entièrement faux sous un faux nom. Porr essayait de montrer que le contenu produit par GPT-3 pouvait faire croire aux gens qu'il avait été écrit par un humain, ce qu’il a réussi. Pour rappel, GPT-3 est un modèle de traitement du langage naturel développé par le laboratoire de recherche de San Francisco OpenAI. Il a été annoncé en mai 2020 et ouvert aux utilisateurs via une API d'OpenAI au mois de juillet. Il est le plus gros modèle de langage jamais entraîné avec 175 milliards de paramètres.

GPT-3 a été formé sur un énorme corpus de textes qu’il exploite pour des régularités statistiques. Elles sont inconnues des humains, mais elles sont stockées sous forme de milliards de connexions pondérées entre les différents nœuds du réseau neuronal de GPT-3. Il est important de noter qu'aucune intervention humaine n'est nécessaire dans ce processus : le programme cherche et trouve des modèles sans aucune indication, qu'il utilise ensuite pour compléter les invites textuelles. L’algorithme fait cela avec une précision jugée sans précédent.


Par exemple, si vous entrez le mot “feu” dans GPT-3, le programme sait, grâce aux poids de son réseau, que les mots “camion” et “alarme” ont beaucoup plus de chances de suivre que “lucide” ou “elfe”. Dès l’annonce de GPT-3, beaucoup ont spéculé sur la manière dont il pourrait affecter la production de contenu. Le blog de Porr est l'un des seuls cas connus qui illustrent ce potentiel. Pour lui, il s'agissait probablement d'une expérience amusante, mais l'un de ses articles a atteint la première place sur Hacker News et peu de gens ont remarqué que c’était l’oeuvre d'une IA.

Certains ont même cliqué sur “Subscribe” (s’abonner). Pour générer ses articles, Porr a écrit un petit script qu'il lui a fait exécuter. Il a donné à GPT-3 le titre et l'introduction d'un billet de blog et lui a fait cracher plusieurs versions complètes. Le premier billet de Porr (celui qui a été publié sur Hacker News), et tous les billets suivants, ont été copiés-collés à partir de l'une des versions, avec peu ou pas de modifications. Selon lui, c’est facile de travailler avec GPT-3 et cela nécessite peu de temps. « C'était super facile en fait », a-t-il déclaré.

« Depuis le moment où j'ai eu l'idée et où j'ai pris contact avec le doctorant jusqu'à la création du blog et le premier blog devenu viral, il m'a fallu quelques heures », a-t-il ajouté. Notons qu’en février 2019, OpenAI a fait la une des journaux avec GPT-2, une version antérieure de l'algorithme, qu'il a annoncé qu'il retiendrait par crainte d'en abuser. Cette décision a immédiatement déclenché une réaction brutale, les chercheurs accusant le laboratoire d'avoir fait un coup d'éclat. Le laboratoire a toutefois fini par publier le modèle en novembre 2019.

Cela dit, compte tenu des potentialités de GPT-3, OpenAI a décidé de procéder autrement. Il a décidé de donner accès à l'API du GPT-3 aux chercheurs dans une version bêta privée, plutôt que de le diffuser dans la nature au début. Porr, qui est étudiant en informatique à l'université de Californie à Berkeley, a pu trouver un doctorant qui avait déjà accès à l'API et qui a accepté de travailler avec lui sur l'expérience. Poor pense que « l'écriture » de GPT-3 pourrait remplacer les producteurs de contenu, mais il espère que cela n’arrivera pas.

« L'intérêt de publier cette version bêta privée est de permettre à la communauté de montrer à OpenAI qu’il y a de nouveaux cas d'utilisation qu'il devrait soit encourager, soit surveiller », a-t-il déclaré. Lui-même n'a pas encore accès à l'API GPT-3, même s'il en a fait la demande. Il a également déclaré qu’il ne serait pas surpris par un refus d’OpenAI de lui accorder l’accès. « Il est possible qu'ils soient contrariés que j'aie fait cela », a-t-il conclu.

Source : MIT Technology Review

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

OpenAI lance une API multitâche destinée à ses modèles d'IA basés sur du texte, qu'il va commencer à commercialiser

Open AI propose en bêta privée son modèle de traitement du langage naturel GPT-3, ses applications vont de la génération de texte cohérent à la génération de code en passant par la création d'apps

OpenAI" a publié l'IA de génération de texte qu'il disait trop dangereuse pour être divulguée, mais le modèle n'est pas encore parfait

L'IA de génération de texte d'Elon Musk trop dangereuse pour être rendue publique, selon ses créateurs

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 17/08/2020 à 22:16
Citation Envoyé par Bill Fassinou Voir le message
Pourquoi certaines personnes ont-elles réellement peur de l’IA ? Eh bien, peut-être parce qu’elle peut être utilisée pour (...) tromper les gens par exemple.
"j'ai gobé sans exercer mon sens critique, c'est la faute de l'IA, elle est dangereuse !"
0  0 
Avatar de
https://www.developpez.com
Le 17/08/2020 à 13:33
Citation Envoyé par Bill Fassinou Voir le message
Un faux blog d'un lycéen généré par GPT-3, l'IA de traitement du langage naturel d'OpenAI, a trompé des dizaines de milliers de personnes
Et alors ? C'est un exploit ?
Il a bien des dizaines de milliers de personnes qui pensent que la terre est plate ou que les vaccins sont un complot du nouvel ordre mondial pour télécontroler la population via des nanoparticules de 5G. Alors un faux-blog, bon...
2  4