IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le PDG d'OpenAI, Sam Altman, déclare au Congrès américain qu'il craint que l'IA ne soit "nuisible" au monde,
Il ajoute qu'une réglementation de l'IA est urgente afin d'éviter une catastrophe

Le , par Bill Fassinou

8PARTAGES

6  1 
Le PDG d'OpenAI, Sam Altman, a déclaré lors d'une audition mardi devant le Congrès américain que l'IA est une technologie à la fois utile et dangereuse et qu'elle est susceptible de bouleverser l'économie, les institutions démocratiques et les principales valeurs sociales. Il a déclaré aux législateurs qu'il était urgent de réglementer la technologie et a présenté ses propres propositions sur la manière dont le gouvernement américain pourrait réglementer les entreprises comme la sienne. Ce n'est pas la première fois qu'Altman déclare être effrayé par les potentiels de l'IA, mais OpenAI et lui s'emploient toujours à développer des systèmes d'IA plus puissants.

Altman et ses pairs sur les dangers potentiels de l'IA sur l'homme et la société

Altman a comparu devant une sous-commission judiciaire du Sénat américain, aux côtés de Christina Montgomery, responsable de la protection de la vie privée chez IBM, et de Gary Marcus, professeur à l'université de New York. L'audition d'Altman devant le Sénat américain intervient environ deux semaines après sa participation à un sommet sur l'IA organisé par la Maison Blanche. Lors de l'audition, il s'est montré réfléchi et exigeant dans ses réponses aux sénateurs, même lorsque ceux-ci se sont montrés un peu combatifs. Altman a insisté sur le fait que les systèmes d'IA avancés tels que ChatGPT devraient être soumis à des licences gouvernementales.

Il a déclaré aux législateurs américains qu'il était favorable à une réglementation plus stricte pour prévenir les "méfaits" de l'IA, en particulier de l'IA générative. « Ma pire crainte est que nous - l'industrie - causions des dommages importants au monde. Je pense que si cette technologie va mal, elle peut aller très mal et nous voulons nous exprimer à ce sujet et travailler avec le gouvernement. Nous pensons qu'une réglementation gouvernementale sera essentielle pour atténuer les risques liés à des modèles de plus en plus puissants », a déclaré Altman. Mais il n'a pas manqué de vanter les potentiels des systèmes d'IA développés par OpenAI et d'autres.

https://youtu.be/TO0J2Yw7usM

Tout en vantant les avantages de l'IA, il a déclaré qu'OpenAI était préoccupé par le fait que les élections sont affectées par le contenu généré par l'IA. À ce propos, le professeur Marcus a souligné les risques liés aux systèmes d'IA qui convainquent subtilement les gens de changer leurs convictions sans le vouloir. « Nous ne savons pas sur quoi ChatGPT [la version basée sur le modèle de langage GPT-4] est entraîné. La manière dont ces systèmes peuvent guider les gens dépend beaucoup de ce sur quoi ils sont entraînés. Nous avons besoin de scientifiques qui analysent l'impact politique de ces systèmes », a déclaré le professeur Marcus au Sénat.

En parlant des risques pour les prochaines élections présidentielles aux États-Unis en 2024, le professeur Marcus a ajouté : « nous sommes confrontés à la question de la manipulation potentielle. L'hyperciblage va certainement faire son apparition. Peut-être s'agira-t-il de modèles à source ouverte, je ne sais pas, mais la technologie est capable de le faire et elle y parviendra certainement ». Interrogé par les sénateurs sur ce point, Altman s'est dit d'accord. Il estime que le risque est réel et imminent, car ces modèles s'améliorent très rapidement. « Je pense qu'il serait judicieux d'adopter une réglementation à ce sujet », a-t-il déclaré une fois de plus.

De son côté, Christina Montgomery, responsable de la protection de la vie privée chez IBM, a ajouté : « IBM demande instamment au Congrès d'adopter une approche réglementaire précise de l'IA. Cela signifie qu'il faut établir des règles pour régir le déploiement de l'IA dans des cas d'utilisation spécifiques, et non pas réglementer la technologie elle-même. Le Congrès devrait définir clairement les risques de l'IA et imposer des règles différentes pour des risques différents, les règles les plus strictes étant appliquées aux cas d'utilisation présentant les risques les plus importants pour les personnes et la société ». Big Blue est l'un des pionniers du domaine.

Altman sur les solutions possibles pour établir une réglementation pour l'IA

Le sénateur Dick Durbin (D-Ill) a déclaré que l'industrie de l'IA semblait avoir pour message "arrêtez-moi avant que je n'innove à nouveau", contrairement aux réseaux de médias sociaux, qui n'ont souvent pas voulu être tenus responsables des actions qui se sont produites sur leurs plateformes. En réponse, Altman a souligné que l'IA était une "technologie très nouvelle" et que l'industrie technologique avait besoin d'un "cadre de responsabilité" pour travailler. En outre, interrogé sur la possibilité que l'IA prenne en charge tous nos emplois, le professeur Marcus a déclaré aux sénateurs : « à terme, tous les emplois seront pris en charge par l'IA ».

Cependant, il a ajouté : « mais nous ne sommes pas encore très proches de l'intelligence générale de l'IA ». Le professeur Marcus a déclaré au Sénat qu'il était très préoccupé par la sécurité des personnes lorsqu'il s'agit d'IA, affirmant que les États-Unis sont maintenant confrontés à "la tempête parfaite". L'universitaire a conseillé aux législateurs de tirer les leçons de ce qui s'est passé avec les médias sociaux. Altman a déclaré qu'il ne pensait pas que des exigences lourdes devraient s'appliquer aux entreprises et aux chercheurs dont les modèles sont beaucoup moins avancés que ceux d'OpenAI. Ses propositions peuvent se résumer comme suit :

  • créer une nouvelle agence gouvernementale chargée de délivrer des licences pour les grands modèles d'IA, et l'habiliter à retirer ces licences aux entreprises dont les modèles ne sont pas conformes aux normes gouvernementales ;
  • créer un ensemble de normes de sécurité pour les modèles d'IA, y compris des évaluations de leurs capacités dangereuses. Par exemple, les modèles devraient passer certains tests de sécurité, notamment pour savoir s'ils peuvent "s'autoreproduire" et "s'exfiltrer dans la nature", c'est-à-dire devenir des voyous, et commencer à agir de leur propre chef ;
  • exiger des audits indépendants, réalisés par des experts indépendants, des performances des modèles en fonction de divers paramètres.


Les propositions d'Altman ont fortement été critiquées, de nombreux critiques affirmant qu'elles sont insuffisantes et ne couvrent pas toutes les préoccupations liées à ces systèmes d'IA. Pour être plus clair, parmi les propositions d'Altman, il n'est pas question d'exiger que les modèles d'IA soient transparents en ce qui concerne leurs données d'apprentissage, comme l'a demandé son collègue Gary Marcus, ou d'interdire leur apprentissage sur des œuvres protégées par des droits d'auteur, comme l'a suggéré le sénateur Marsha Blackburn (R-Tenn.). Il s'agit de deux points essentiels qui sont actuellement sujets à des débats intenses dans la communauté.

Certains vont même jusqu'à affirmer que les appels d'Altman à une réglementation de l'IA sont une supercherie pour freiner les nouveaux acteurs du secteur. « Une fois que vous êtes établi dans un nouveau domaine, vous voulez ajouter autant d'obstacles que possible aux autres qui essaient de s'établir », a écrit un critique. Un autre a également écrit : « je travaille dans le domaine du calcul intensif et de la recherche sur l'IA. Les systèmes d'IA connus sont actuellement de très bons algorithmes de recherche et des manipulateurs d'images et de sons. Le message qu'Altman veut faire passer est le suivant : "fermez la porte ! Vous allez laisser entrer toute la racaille !" ».

Pourtant, de nombreux sénateurs semblent désireux de confier l'autorégulation à Altman. Le sénateur John Neely Kennedy (R-La.) a demandé si Altman était lui-même qualifié pour superviser un organisme fédéral de réglementation de l'IA. Altman a hésité, déclarant qu'il aimait son travail actuel, mais il a proposé que son entreprise lui envoie une liste de candidats appropriés. Selon les critiques, l'approche des sénateurs pourrait avoir de graves répercussions sur l'industrie. Lors de son audition, Altman s'est également gardé de mentionner les biais des systèmes d'IA, une chose sur laquelle le professeur Marcus a longuement insisté.

Altman sur la façon dont OpenAI monétise ChatGPT et sur l'avenir de l'IA

Le sénateur Cory Booker a demandé à Altman si ChatGPT afficherait des publicités aux utilisateurs. En réponse, Altman a déclaré que, bien qu'il ne puisse pas l'exclure complètement, il préférait un modèle d'abonnement. OpenAI offre actuellement un abonnement payant à ChatGPT Plus, une version qui est basée sur GPT-4, le dernier modèle de langage du laboratoire d'IA. Dans une question un peu étrange, un autre sénateur a demandé au PDG d'OpenAI s'il gagnait beaucoup d'argent. Altman a répondu qu'il faisait son travail parce qu'il l'aimait, et que son salaire n'était pas assez élevé pour qu'une assurance maladie soit incluse dans sa rémunération.

Le sénateur John Kennedy a répondu : « vraiment ? Vous avez besoin d'un avocat ou d'un agent ». Par la suite, les sénateurs ont interrogé Altman, Montgomery et le professeur Marcus sur la question de savoir si d'autres options plus radicales devraient être envisagées pour prévenir les méfaits de l'IA. Par exemple, le sénateur Cory Booker (D-N.J.) a demandé s'il ne fallait pas arrêter le développement de l'IA jusqu'à ce qu'il soit possible d'établir tous les risques et tous les remèdes. Mais Altman et ses pairs étaient contre cette alternative. Altman refuse l'idée d'un moratoire, mais a confirmé que son entreprise ne formait actuellement aucun modèle d'IA.

La réponse d'Altman à Booker suggère qu'OpenAI a au moins envisagé la possibilité d'insérer des publicités dans la version gratuite de ChatGPT (la version basée sur le modèle de langage GPT3.5) afin de gagner de l'argent grâce à ses utilisateurs gratuits. Mais le fonctionnement de ChatGPT n'est pas gratuit pour OpenAI, ce qui signifie qu'il n'y a aucune garantie que la version gratuite sera toujours disponible. Certains législateurs craignent que les entreprises d'IA n'adoptent un jour ce modèle commercial financé par la publicité, qui, dans l'industrie des médias sociaux, a sans doute encouragé la conception de produits manipulateurs et d'algorithmes addictifs.

Montgomery a également refusé l'idée d'un moratoire : « je ne suis pas sûre qu'il serait pratique de faire une pause, mais nous devrions absolument donner la priorité à la réglementation ». Même dans le camp des sénateurs, tout le monde ne partage pas cet avis. Le sénateur Richard Blumenthal n'est pas du tout d'accord avec l'idée d'une pause dans l'innovation en matière d'IA. « Le monde n'attendra pas. La communauté scientifique mondiale n'attendra pas. Nous avons des adversaires qui vont de l'avant. Des garanties et des protections, oui, mais un panneau d'arrêt plat, la politique de l'autruche, je m'y opposerais », a-t-il déclaré à l'assistance.

Lors de l'audition, plusieurs sénateurs ont tiré la sonnette d'alarme au sujet de la consolidation des entreprises sur le marché de l'IA, avertissant qu'un petit nombre d'entreprises technologiques pourraient finir par dominer les outils. Le sénateur Booker a déclaré qu'il s'agissait là de l'une de ses plus grandes préoccupations en matière d'IA. Il a cité en exemple le partenariat d'OpenAI avec le géant technologique Microsoft. « Il est vraiment terrifiant de voir à quel point un petit nombre d'entreprises contrôlent et affectent la vie d'un si grand nombre d'entre nous, et ces entreprises sont de plus en plus grandes et puissantes », a-t-il déclaré.

En réponse, Altman a déclaré qu'il pensait qu'il y aurait un nombre relativement restreint de fournisseurs capables de créer des modèles d'IA à grande échelle, mais il a également suggéré qu'il pourrait y avoir des avantages réglementaires à n'avoir qu'une poignée d'acteurs dans ce rôle. « Moins nous serons nombreux à devoir être surveillés, plus nous aurons d'avantages. Mais je pense qu'il faut qu'il y ait suffisamment de concurrence et qu'il y en aura », a-t-il déclaré. Selon les critiques, cette déclaration d'Altman démontre qu'il milite en faveur d'une réglementation pour consolider l'avantage d'OpenAI sur ses concurrents et contrôler le secteur.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des déclarations de Sam Altman devant le Congrès américain ?
Que pensez-vous des appels répétés d'Altman à la mise en place d'une réglementation sur l'IA ?
Pensez-vous qu'il s'agit d'une supercherie ? Altman a-t-il l'intention de compliquer la tâche aux nouveaux arrivants ?
Que pensez-vous des déclarations de la représentante d'IBM et de l'universitaire Gary Marcus ?
Pensez-vous que la version gratuite de ChatGPT va perdurer ? Dans ce cas, restera-t-elle sans publicité ?

Voir aussi

Découvrez Sam Altman, PDG d'OpenAI, qui a appris à programmer à l'âge de 8 ans et qui se prépare également à l'apocalypse avec une réserve d'or, des armes et des masques à gaz

Le PDG d'OpenAI affirme que sa technologie est susceptible de "détruire le capitalisme", mais la startup d'IA est critiquée pour son partenariat avec le géant des logiciels Microsoft

Le PDG d'OpenAI, Sam Altman, se dit effrayé par sa propre invention, l'IA pourrait être utilisée pour diffuser largement de fausses informations, ou encore lancer une nouvelle course à l'armement

Le PDG d'OpenAI craint que les autres développeurs d'IA qui travaillent sur des outils de type ChatGPT ne mettent pas de limites de sécurité, il estime que cela pourrait créer une IA plus diabolique

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre expérimenté https://www.developpez.com
Le 13/06/2023 à 15:38
Citation Envoyé par Nancy Rey Voir le message
Le PDG de OpenAI se dit "optimiste" quant à la coordination mondiale de l'IA
en matière d'intelligence artificielle

Le PDG du fabricant de ChatGPT, OpenAI, a déclaré qu'une tournée des capitales l'avait rendu « assez optimiste » quant aux perspectives de coordination mondiale en matière d'intelligence artificielle (IA).
Allez les copains, plutôt que de lire l'avis des pédégés voyons ce qu'en pensent les universitaires...

La mauvaise nouvelle, donc, c’est qu’il s’avère compliqué de connaître et de critiquer ce nouveau monde des IA, encore en devenir, et inséparable du tout numérique. La bonne nouvelle, c’est que, depuis le numéro 72 de Multitudes, où nous nous amusions du crétinisme de ce « Bourgeois numérique » qui se pâme devant les miracles des IA, la servitude volontaire de notre Monsieur Jourdain a été révélée au grand jour.

.../...

Pour ne pas tomber dans le piège de la béatitude, il faut donc distinguer la pensée de la computation, se défaire de la métaphore du cerveau/machine et faire preuve de lucidité, en particulier sur ce que coûtent réellement ces outils en termes environnementaux. Luc Julia, pourtant co-créateur du Siri d’Apple et vice-président innovation de Samsung, écrit par exemple, à propos de l’IA de DeepMind, filiale de Google : elle « consomme plus de 440 000 watts par heure juste pour jouer au go, alors que notre cerveau fonctionne avec seulement 20 watts par heure et peut effectuer bien d’autres tâches… La réalité est que les méthodes et algorithmes utilisés en IA sont très différents des raisonnements effectués par les humains, qui utilisent une quantité infime d’énergie et de données. À l’avenir, au lieu de continuer dans la voie du big data, il faudrait se tourner vers le small data, qui consommerait beaucoup moins d’énergie.

Même type de gueule de bois à propos de la croyance qui octroie à l’IA la faculté de créer autant d’emplois qu’elle en détruira, selon le dogme de la « destruction créatrice » de l’économiste Joseph Schumpeter. D’un côté, il y a les chiffres de l’OCDE (Organisation de coopération et de développement économiques), qui n’en finissent pas de grimper malgré l’indécrottable prudence de l’institution : dans son rapport sur L’avenir du travail publié le 25 avril 2019, elle affirme que la robotisation devrait faire disparaître 14 % des emplois d’ici à vingt ans, la France étant « plus exposée que la moyenne, avec 16,4 % de postes menacés et 32,8 % transformés par l’automatisation. 

« La robotisation devrait faire disparaître 14 % des emplois… » Et de l’autre côté, l’enquête sur « le travail du clic » du sociologue Antonio A. Casilli, socle de son livre En Attendant les robots, démontre qu’à supposer qu’il n’y ait pas demain de « chômage technologique », ce serait au prix d’une immense précarisation du travail, partout dans le monde via les plateformes comme Amazon Mechanical Turk : « Toutes et tous, les centaines de millions de travailleurs à la demande et de tâcherons du clic, les milliards d’usagers des plateformes de médias sociaux, nous avons ainsi devant nous une longue carrière de dresseurs d’IA.
Plus sérieusement...

Sevrés de l’exigence de réflexion personnelle, assistés par une cohorte de bots destinés à leur épargner le moindre effort, accompagnés jusqu’à l’âge adulte par l’incertitude de trouver une place dans la société, où les jeunes rencontreront-ils désormais les conditions de leur épanouissement civique, professionnel et personnel ?
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 20/06/2023 à 11:48
Citation Envoyé par Bill Fassinou Voir le message

Quel est votre avis sur le sujet ?
Oui, en gros, il veut juste avoir le droit d'entrer sur le marché Chinois, quoi.

Ah, et il ne milite pas. Au mieux, il fait du buzz pour les investisseurs/actionnaires, et au pire, il essaye de freiner ses concurrents, maintenant que sa boîte a de l'avance sur les autres.
1  0 
Avatar de HaryRoseAndMac
Membre extrêmement actif https://www.developpez.com
Le 20/06/2023 à 16:34
Il est bien naïf s'ils pensent que les chinois vont avoir un jour un éthique à propos de l'IA ...
La seule éthique qu'ils vont avoir, c'est de trouver un moyen de mieux contrôler la population.

Je ne suis pas contre la chine, c'est un très beau pays, mais niveau gestion humaine, c'est une véritable catastrophe, ils résolvent les problèmes en rajoutant des règles aux règles, c'est qu'il y a de pire à faire.
0  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 27/07/2023 à 1:01
Citation Envoyé par Mathis Lucas Voir le message
Ce type rivalise avec Musk pour le titre de plus grand troll au monde?
0  0 
Avatar de TotoParis
Membre expérimenté https://www.developpez.com
Le 05/09/2023 à 21:26
Sam Altman (le pote à Alt+Ctrl+Supr) devrait alors arrêter OpenAI...
0  0