IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le directeur technique d'OpenAI, Mira Murati, estime que les systèmes d'IA devraient "absolument" être réglementés

Le , par Sandra Coret

0PARTAGES

8  0 
Mira Murati, directeur technique d'OpenAI, créateur de ChatGPT, estime que les systèmes d'intelligence artificielle générale (AGI) devraient "absolument" être réglementés.

Lors d'une récente interview, Mira Murati a déclaré que son entreprise discutait constamment avec les gouvernements, les régulateurs et d'autres organisations afin de convenir d'un certain niveau de normes.

"Nous avons travaillé dans ce sens ces deux dernières années avec les développeurs de grands modèles de langage en nous alignant sur certaines normes de sécurité de base pour le déploiement de ces modèles", a déclaré M. Murati. "Mais je pense qu'il reste encore beaucoup à faire. Les régulateurs gouvernementaux devraient certainement être très impliqués.

M. Murati a évoqué en particulier l'approche de l'OpenAI en matière d'AGI avec des "capacités de niveau humain".
La vision spécifique d'OpenAI à ce sujet est de la construire en toute sécurité et de trouver comment la construire d'une manière qui soit alignée sur les intentions humaines, de sorte que les systèmes d'IA fassent les choses que nous voulons qu'ils fassent, et qu'ils profitent au maximum au plus grand nombre de personnes possible, idéalement à tout le monde.

Q : Existe-t-il une voie entre des produits comme le GPT-4 et l'AGI ?

R : Nous sommes encore loin d'un système AGI sûr, fiable et aligné. Pour y parvenir, nous disposons de quelques vecteurs importants. Du point de vue de la recherche, nous essayons de construire des systèmes qui ont une solide compréhension du monde, semblable à celle que nous avons en tant qu'humains. Des systèmes comme le GPT-3 ont d'abord été formés uniquement sur des données textuelles, mais notre monde n'est pas fait que de texte, il y a aussi des images, puis nous avons commencé à introduire d'autres modalités.

L'autre angle d'attaque a été la mise à l'échelle de ces systèmes afin d'accroître leur généralité. Avec le GPT-4, nous avons affaire à un système beaucoup plus performant, en particulier du point de vue du raisonnement sur les choses. Cette capacité est essentielle. Si le modèle est suffisamment intelligent pour comprendre une direction ambiguë ou une direction de haut niveau, vous pouvez alors trouver comment lui faire suivre cette direction. Mais s'il ne comprend même pas cet objectif ou cette direction de haut niveau, il est beaucoup plus difficile de l'aligner. Il ne suffit pas de construire cette technologie dans le vide d'un laboratoire. Nous avons vraiment besoin de ce contact avec la réalité, avec le monde réel, pour voir où sont les faiblesses, où sont les points de rupture, et essayer de le faire d'une manière contrôlée et à faible risque et d'obtenir autant de retour d'information que possible.
Q : Quelles mesures de sécurité prenez-vous ?

R : Nous pensons aux interventions à chaque étape. Nous expurgeons certaines données de la formation initiale sur le modèle. Avec DALL-E, nous voulions réduire les biais nuisibles que nous observions... Dans la formation au modèle, avec ChatGPT en particulier, nous avons fait de l'apprentissage par renforcement avec un retour d'information humain pour aider le modèle à s'aligner davantage sur les préférences humaines. En fait, nous essayons d'amplifier ce qui est considéré comme un bon comportement et de désamplifier ce qui est considéré comme un mauvais comportement.
Une dernière citation tirée de l'entretien :

Il est difficile de concevoir des mécanismes de sécurité dans des systèmes complexes... Les mécanismes de sécurité et de coordination de ces systèmes d'IA et de tout système technologique complexe sont difficiles et nécessitent beaucoup de réflexion, d'exploration et de coordination entre les acteurs.



Source : Associated Press

Et vous ?

Que pensez-vous des avis de Mira Murati ?
Quel est votre opinion sur la règlementation de l'IA ?

Voir aussi :

La Chambre de commerce des États-Unis demande une réglementation de l'IA, pour que l'IA ne nuise pas à la croissance ou ne devienne pas un risque pour la sécurité

Le Vatican, IBM et Microsoft ensemble pour appeler à une réglementation de la reconnaissance faciale, et de façon générale, à une régulation de l'IA pour le bien de l'humanité

« Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk, dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 04/05/2023 à 9:08
C'est juste du blabla, un gros nuage de fumée, pour se faire passer pour le "gentil" de l'histoire et surtout... se dédouaner! Quand cela finira mal, il lui sera facile de dire "Mais on vous avez prévenu... Ce sont les politiques, les gouvernements qui sont responsables de n'avoir rien fait pour éviter le pire!"

Le mec n'est pas le premier "apprenti sorcier de l'IA" a appelé de ses voeux une "régulation de l'IA" tout en sachant parfaitement que cela ne se fera jamais!!!!

30 ans après l'invention de l'internet, il n'y a toujours pas aujourd'hui une loi régulant les pratiques de l'internet reconnue par l'ensemble des pays...

Prenons l'exemple de la protection des données privée des utilisateurs de l'internet... Il a fallu 30 ans pour que l'Union Européenne nous pondent le RGPD, un "règlement" qui ne s'applique qu'à moins de 500 000 personnes sur l'ensemble d'une planète qui en compte presque 10 milliards et encore, il faut vite le dire parce qu'en réalité il ne s'applique même pas au 500 000 européens puisque la totalité de ces gens utilisent des services dont les données sont stockées aux USA qui se "fout" royalement du RGPD des européens.

Les acteurs de l'IA peuvent transformer le monde et son organisation sociale en champs de ruines et envoyer les 3/4 des gens au chômage en toute quiétude, aucune loi ne les en empêchera (cf. Microsoft qui dit suspendre l'engagement de certains profils parce qu'ils pensent pouvoir remplacer 7 800 employés grâce à l'utilisation de l'IA)!

Et ce ne sont pas les 2 ou 3 gugusses qui nous expriment leur remords d'avoir inventer le monstre qui changeront quoique ce soit... Il y a trop de fric à se faire!!!
2  1