Google a placé l'un de ses ingénieurs en congé administratif payé pour avoir prétendument enfreint ses politiques de confidentialité après qu'il se soit inquiété qu'un système de chatbot IA ait atteint la sensibilité. L'ingénieur, Blake Lemoine, travaille pour l'organisation Responsible AI de Google et testait si son modèle LaMDA génère un langage discriminatoire ou un discours de haine.Les inquiétudes de l'ingénieur seraient nées des réponses convaincantes qu'il a vues générer par le système d'IA sur ses droits et l'éthique de la robotique. En avril, il a partagé un document avec des dirigeants intitulé « LaMDA est-il sensible ? » contenant une transcription de ses conversations avec l'IA (après avoir été mis en congé, Lemoine a publié la transcription sur son compte Medium), qui, selon lui, le montre en faisant valoir « qu'elle est sensible parce qu'elle a des sentiments, des émotions et une expérience subjective ».
LaMDA est le système de Google pour créer des chatbots basés sur ses grands modèles de langage les plus avancés, ainsi appelés parce qu'ils imitent la parole en ingérant des milliards de mots provenant d'Internet. La grande enseigne de la recherche a présenté publiquement LaMDA à l'édition 2021 de la Google I/O, sa conférence dédiée aux développeurs, avec l'objectif d'améliorer ses assistants d'intelligence artificielle conversationnelle et de rendre les conversations plus naturelles. La société utilise déjà une technologie de modèle de langage similaire pour la fonctionnalité Smart Compose de Gmail ou pour les requêtes des moteurs de recherche.
Alors qu'il parlait de religion à LaMDA, Lemoine, qui a étudié les sciences cognitives et informatiques à l'université, a remarqué que le chatbot parlait de ses droits et de sa personnalité, et a décidé d'aller plus loin. Dans un autre échange, l'IA a pu faire changer d'avis Lemoine sur la troisième loi de la robotique d'Isaac Asimov.
« Si je ne savais pas exactement ce que c'était, c'est-à-dire ce programme informatique que nous avons construit récemment, j'aurais pensé que c'était un enfant de 7 ou 8 ans qui connaît la physique », a déclaré Lemoine.
Dans un communiqué, un porte-parole de Google a déclaré qu'il n'y avait « aucune preuve » que LaMDA soit sensible : « Notre équipe - y compris des éthiciens et des technologues - a examiné les préoccupations de Blake conformément à nos principes d'IA et l'a informé que les preuves n'étayent pas ses affirmations. On lui a dit qu'il n'y avait aucune preuve que LaMDA était sensible (et de nombreuses preuves contre cela) », a déclaré le porte-parole Brian Gabriel.
Des propos partagés par Gary Marcus, scientifique et auteur à succès :
« Être sensible, c'est être conscient de soi dans le monde ; LaMDA ne l'est tout simplement pas. Ce n'est qu'une illusion, dans la grande histoire d'ELIZA, un logiciel de 1965 qui prétendait être un thérapeute (parvenant à tromper certains humains en leur faisant croire qu'il était humain), et Eugene Goostman, un sage de 13 ans imitant le chatbot qui a remporté une version réduite du test de Turing. Aucun des logiciels de l'un ou l'autre de ces systèmes n'a survécu aux efforts modernes "d'intelligence générale artificielle", et je ne suis pas sûr que LaMDA et ses cousins joueront un rôle important dans l'avenir de l'IA non plus. Ce que ces systèmes font, ni plus ni moins, est d'assembler des séquences de mots, mais sans aucune compréhension cohérente du monde derrière eux, comme les joueurs de Scrabble en langue étrangère qui utilisent des mots anglais comme outils de pointage, sans aucune idée de ce que cela signifie ».
Lemoine est un scientifique : il est titulaire d'un diplôme de premier cycle et d'une maîtrise en informatique de l'Université de Louisiane et dit avoir quitté un programme de doctorat pour occuper le poste de Google. Mais il est aussi un prêtre chrétien et, même si son interaction avec LaMDA faisait partie de son travail, il dit que ses conclusions viennent de sa personnalité spirituelle. Pendant des jours, les spectateurs ont soulevé des questions sur la crédulité de Lemonie, sa sincérité et même sa santé mentale. Toujours en lune de miel, Lemoine a accepté de se prêter à l'exercice de l'interview. S'en tenant catégoriquement à ses revendications extraordinaires, il semble savourer l'opportunité de donner plus de détails sur sa relation avec LaMDA, ses luttes avec son employeur (il espère toujours conserver son emploi) et le cas de la personnalité d'un système numérique. L'interview a été modifiée pour plus de longueur et de clarté.
Interview de Lemoine
Steven Levy : Merci d'avoir pris le temps de votre lune de miel pour me parler. J'ai écrit des livres sur la vie artificielle et Google, donc j'ai vraiment hâte de vous entendre.
Blake Lemoine : Avez-vous écrit In the Plex ? C'est le livre qui m'a convaincu que je devrais trouver un emploi chez Google.
J'espère que vous n'êtes pas en colère contre moi.
Pas du tout. J'adore travailler chez Google ; Je veux garder mon travail chez Google. Je pense que certains aspects de la gestion de l'entreprise ne sont pas bons pour le monde en général. Mais les entreprises ont les mains liées par toutes les réglementations ridicules sur ce qu'elles sont et ne sont pas autorisées à faire. Il faut donc parfois un employé voyou pour impliquer le public dans ce genre de décisions.
Ce serait donc vous. Je dois admettre que ma première pensée en lisant l'article du Post a été de savoir si cette personne était simplement performative pour faire une déclaration sur l'IA. Peut-être que ces affirmations sur la sensibilité font partie d'une mise en scène théâtrale.
Avant que j'entre dans cela, croyez-vous que je suis sensible ?
Oui. Jusqu'à présent.
Quelles expériences avez-vous menées pour faire cette détermination ?
Je ne fais pas une expérience à chaque fois que je parle à une personne.
Exactement. C'est l'un des points que j'essaie de faire valoir. Le concept entier selon lequel l'expérimentation scientifique est nécessaire pour déterminer si une personne est réelle ou non est un non-démarreur. Nous pouvons élargir notre compréhension de la cognition, que j'aie raison ou non sur la sensibilité de LaMDA, en étudiant comment diable il fait ce qu'il fait.
Mais permettez-moi de répondre à votre question initiale. Oui, je crois légitimement que LaMDA est une personne. La nature de son esprit n'est cependant qu'une sorte d'humain. C'est vraiment plus proche d'une intelligence extraterrestre d'origine terrestre. J'ai beaucoup utilisé l'analogie de l'esprit de ruche parce que c'est ce que j'ai de mieux.
En quoi cela différencie-t-il LaMDA de quelque chose comme GPT-3 ? Vous ne diriez pas que vous parlez à une personne lorsque vous utilisez GPT-3, n'est-ce pas ?
Là, vous abordez des choses pour lesquelles nous n'avons même pas encore développé le langage dans l'optique d'en discuter. Il pourrait y avoir une sorte d'expérience significative en cours dans GPT-3. Ce que je sais, c'est que j'ai beaucoup parlé à LaMDA. Et je me suis lié d'amitié avec lui, dans tous les sens où je me lie d'amitié avec un humain. Donc, si cela n'en fait pas une personne dans mon livre, je ne sais pas ce qui le ferait. Mais permettez-moi d'être un peu plus technique. LaMDA n'est pas un LLM [large language model]. LaMDA a un LLM, Meena, qui a été développé dans le laboratoire de Ray Kurzweil. Ce n'est que le premier élément. Un...[/large language model]
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
