IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les magiciens du décodage : GPT-4 révolutionne la reconstruction des textes et peut traiter un texte brouillé non naturel
D'après une étude des chercheurs de l'Université de Tokyo

Le , par Jade Emy

4PARTAGES

4  0 
Imaginez que vous essayez de lire un livre, mais que tous les mots sont brouillés - les lettres sont mélangées comme dans un bol de soupe à l'alphabet. C'est le cauchemar de tout lecteur, n'est-ce pas ? Eh bien, pas pour GPT-4. Selon une étude fascinante intitulée "Unnatural Error Correction : GPT-4 Can Almost Perfectly Handle Unnatural Scrambled Text" par Qi Cao, Takeshi Kojima, Yutaka Matsuo et Yusuke Iwasawa, de l'Université de Tokyo, ce modèle d'IA réalise quelque chose d'assez extraordinaire.

GPT-4 n'est pas seulement bon pour décoder les textes, il est presque parfait. L'étude révèle qu'il peut reconstruire des phrases originales à partir de leurs versions brouillées, en réduisant la "distance d'édition" (une mesure du nombre d'éditions nécessaires pour transformer une chaîne de texte en une autre) d'un pourcentage impressionnant de 95 % ! C'est comme si l'on transformait un fouillis chaotique de lettres en phrases cohérentes avec une précision quasi magique.


Vous vous demandez peut-être : "Et alors ? Il ne s'agit que de décoder des mots". Mais réfléchissez bien. Il ne s'agit pas d'un simple tour de passe-passe. Il s'agit d'une fenêtre sur la résilience des grands modèles de langage (LLM) comme le GPT-4. Malgré de graves perturbations du flux et de la structure normaux du langage, GPT-4 est toujours capable d'en comprendre le sens. Même les cerveaux humains les plus intelligents auraient du mal à faire preuve d'une telle résilience, mais GPT-4 y parvient presque sans effort.

Imaginez les possibilités ! Cette capacité pourrait changer la donne dans des domaines tels que la cybersécurité, où des messages cryptés doivent être décodés. Elle pourrait aider à comprendre des langues difficiles à déchiffrer ou à reconstituer des textes historiques endommagés. Le potentiel est vaste et varié.

Correction d'erreurs non naturelles : GPT-4 peut presque parfaitement traiter un texte brouillé non naturel

Bien que les grands modèles de langage (LLM) aient atteint des performances remarquables dans de nombreuses tâches, leur fonctionnement interne reste mal connu. Dans cette étude, nous présentons de nouvelles perspectives expérimentales sur la résilience des LLM, en particulier GPT-4, lorsqu'ils sont soumis à de nombreuses permutations au niveau des caractères. Pour étudier cela, nous proposons d'abord le banc brouillé, une suite conçue pour mesurer la capacité des LLM à traiter des entrées brouillées, en termes de récupération de phrases brouillées et de réponse à des questions dans un contexte brouillé. Les résultats expérimentaux indiquent que les LLM les plus puissants démontrent une capacité similaire à la typoglycémie, un phénomène où les humains peuvent comprendre le sens des mots même lorsque les lettres à l'intérieur de ces mots sont brouillées, tant que la première et la dernière lettre restent en place.


De manière plus surprenante, nous avons constaté que seul GPT-4 traite presque parfaitement les entrées contenant des erreurs non naturelles, même dans des conditions extrêmes, une tâche qui pose des défis significatifs aux autres LLM et souvent même aux humains. Plus précisément, GPT-4 peut presque parfaitement reconstruire les phrases originales à partir des phrases brouillées, en réduisant la distance d'édition de 95 %, même lorsque toutes les lettres de chaque mot sont entièrement brouillées. Il est contre-intuitif que les LLMs puissent montrer une telle résilience malgré une perturbation sévère de la tokenisation d'entrée causée par un texte brouillé.

Conclusion

Dans cette étude, nous proposons Scrambled Bench, une suite de tests pour mesurer la capacité des LLMs à gérer le texte brouillé, y compris deux tâches (c'est-à-dire, la récupération de phrases brouillées et la réponse à des questions brouillées) et construire des ensembles de données brouillées basées sur RealtimeQA, DREAM et AQuA-RAT. Bien que le texte brouillé modifie radicalement la tokenisation, nous démontrons que les LLM les plus puissants sont capables de traiter le texte brouillé à des degrés divers.


Cependant, la plupart des LLMs ont des difficultés à traiter des textes brouillés à un degré extrême (c'est-à-dire, 100% de brouillage aléatoire). Étonnamment, pour les deux tâches, GPT-4 montre de bons résultats et surpasse les autres modèles par une grande marge. Pour la tâche de récupération de phrases brouillées, GPT-4 peut récupérer les phrases en réduisant la distance d'édition de 95 %, même dans un contexte de brouillage aléatoire à 100 %. Pour la tâche de réponse à des questions brouillées, GPT-4 peut maintenir une proportion très élevée de sa précision originale en utilisant un contexte brouillé.
Source : Unnatural Error Correction : GPT-4 Can Almost Perfectly Handle Unnatural Scrambled Text

Et vous ?

Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

GPT-4 surpasse les humains dans l'efficacité des pitchs pour les investisseurs et les chefs d'entreprise. 80 % d'entre eux trouvent les pitchs générés par l'IA plus convaincants, selon Clarify Capital

LLM par taux d'hallucinations : GPT-4 est le modèle de langage IA qui hallucine le moins, d'après une évaluation de Vectara qui suggère que les LLM de Google sont les moins fiables

Le chatbot IA GPT-4 surpasse les étudiants en matière de compétences linguistiques, redéfinissant ainsi l'avenir de l'éducation, d'après une étude de l'Université de Passau

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Leruas
Membre éclairé https://www.developpez.com
Le 04/12/2023 à 18:37
Cool, GPT-4 pourra jouer au jeu "100% logique"
0  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 04/12/2023 à 23:21
Imaginez les possibilités ! Cette capacité pourrait changer la donne dans des domaines tels que la cybersécurité, où des messages cryptés doivent être décodés
C'est chatGPT aussi qui a écrit l'article ?

Oulà là, là, RSA vacille car chatGPT a réussi a décoder une permutation à l'intérieur d'un mot ! (Les permutations sur les lettres c'était à la mode au 19e siècle, mais attention, celles décrites par Jules Verne sont bien plus avancées. )
0  0