IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google licencie un autre chercheur en IA qui aurait contesté les conclusions de l'entreprise,
Ce licenciement fait suite à celui de deux éminents chercheurs en IA

Le , par Bill Fassinou

324PARTAGES

9  1 
Google a licencié Satrajit Chatterjee, un membre de son équipe "Brain", un projet de recherche sur l'apprentissage profond, après qu'il a remis en question la validité d'un article de recherche de l'entreprise. Lui et son équipe auraient contesté un document de recherche publié en 2020 par Google sur l'utilisation de l'intelligence artificielle pour fabriquer des puces informatiques. L'article, publié dans la revue scientifique Nature, affirme que "les ordinateurs peuvent concevoir certains composants de puces plus rapidement et plus efficacement que les humains".

Google s'enlise davantage dans le scandale sur l'éthique dans le domaine de la recherche en intelligence artificielle (IA) qui secoue l'entreprise depuis plus d'un an. Elle est de nouveau critiquée par le monde scientifique pour avoir licencié le chercheur en IA Satrajit Chatterjee, après le licenciement de Timnit Gebru en décembre 2020 et celui de Margaret Mitchell en février 2021. Alors, comment est-ce arrivé ? En effet, Google a publié en 2020 une étude selon laquelle l'IA pourrait être plus efficiente que les humains dans la fabrication de puces. Cela pourrait en effet faire entrer la conception de puces dans une nouvelle ère.

L'étude de Google présentait une méthode permettant à l'IA de générer automatiquement des parties d'une puce informatique plus efficacement que les humains. Mais Satrajit Chatterjee aurait émis récemment des réserves sur cette affirmation et d'autres conclusions de l'étude. Selon des sources ayant connaissance du sujet, Chatterjee aurait été autorisé à collaborer à un article contestant ces affirmations après que lui-même et d'autres auteurs ont exprimé des réserves. Celles-ci estiment que Chatterjee, 43 ans, aurait fait part de ses contre-arguments dans un courriel interne, et se serait également demandé si la technologie avait été entièrement testée.



Cependant, Chatterjee a été licencié après qu'un comité de résolutions ait rejeté l'article et que l'équipe ait espéré porter la question devant le PDG Sundar Pichai et le conseil d'administration d'Alphabet. Google n'a pas expliqué en détail pourquoi elle a licencié Chatterjee, mais a déclaré qu'il avait été "licencié avec motif". La société a également maintenu que l'article original dans Nature avait été "minutieusement vérifié" et examiné par des pairs. « Nous avons examiné en détail l'article original de Nature et nous nous en tenons aux résultats évalués par les pairs », a déclaré Zoubin Ghahramani, vice-président de Google Research.

Ghahramani a également déclaré que l'étude de Chatterjee contestant les affirmations "ne répondait pas aux normes de Google". « Nous avons également examiné rigoureusement les revendications techniques d'une soumission ultérieure, et elle ne répondait pas à nos normes de publication », a-t-il ajouté. Par contre, l'équipe de Chatterjee a fait valoir que Google avait enfreint ses propres principes en matière d'IA en rejetant l'article. Quant aux critiques, ils estiment que : « que la science tienne la route ou non, cette sortie souligne l'affrontement permanent entre la direction de Google et les équipes d'IA qui pilotent nombre de ses projets ».

En effet, ce n'est pas la première fois que Google licencie un chercheur en IA, et le licenciement de Chatterjee ne fait que raviver les tensions sur la liberté académique et la diversité apparues au sein de l'entreprise depuis 2020. Le grand public a été informé de la situation lorsque Google a licencié l'éthicienne de l'IA Timnit Gebru en 2020 à la suite d'un différend concernant un article, et que deux autres personnes ont suivi. L'affaire s'est aggravée lorsque le géant de l'internet a licencié Margaret Mitchell au début de 2021. Comme motif de licenciement, Google avait affirmé que Mitchell avait violé ses politiques de confidentialité des données.

Mais Mitchell avait critiqué publiquement les dirigeants et la décision de licencier Gebru. Ces licenciements ont conduit des ingénieurs chevronnés à quitter l'entreprise et à exiger des réformes, sans compter les protestations à l'échelle de l'entreprise concernant les contrats militaires. Google a enquêté sur le licenciement de Gebru et a promis des changements, mais le licenciement de Chatterjee pourrait ne pas apaiser les tensions. Notons également qu'Alex Hanna, chercheur en IA éthique chez Google, a publié une lettre de démission au début de l'année, décrivant un "problème de blancheur" au sein de Google et d'autres entreprises technologiques.

Hanna a suivi l'ingénieur logiciel Dylan Baker qui a rejoint le Distributed Artificial Intelligence Research Institute de Gebru, lancé à la fin de l'année dernière. Par ailleurs, d'autres critiques estiment que la tension entre certains chercheurs en IA et Google pourrait également s'expliquer par le fait que "Google est très fier de ses recherches sur l'IA". Le géant de la recherche en ligne a fait de sa recherche sur l'IA un élément central de la réputation de l'entreprise en matière d'innovation. Pichai a déclaré que l'IA sera plus importante que l'électricité ou le feu. Et Google a déjà intégré des modèles d'IA dans son produit de recherche principal afin d'offrir aux utilisateurs de meilleurs résultats.

Google tient à vanter les mérites d'algorithmes capables de surpasser les humains dans des domaines tels que la conception de puces et la détection du cancer, et ses téléphones phares Pixel 6 sont construits autour d'un processeur personnalisé axé sur l'IA. Toute faille pourrait considérablement entraver les activités de Google, sans parler de ternir sa réputation de leader dans le développement de l'IA.

Source : Article de recherche de Google (PDF)

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de ce nouveau licenciement au sein de l'équipe IA de Google ?

Voir aussi

La deuxième responsable de l'équipe de recherche en IA éthique de Google a été licenciée, au milieu des protestations du personnel par rapport au licenciement de Timnit Gebru en décembre

Le chef de Google, Sundar Pichai, s'excuse pour le licenciement d'une chercheuse en éthique de l'IA, et s'engage à enquêter sur son départ de l'entreprise

Plus de 1000 employés de Google signent une lettre pour demander des comptes à l'entreprise, au sujet du « licenciement » subit de leur collègue Timnit Gebru, une chercheuse de haut niveau en IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 07/05/2022 à 9:51
Si on revient aux bases de l'IA, on constate que ce qui agit est surtout un très vaste ensemble de paramètres, définis au cours de l'apprentissage. On parle de milliards de paramètres. Dans un système pur, il n'y a rien d'algorithmique ou de procédural. Plus précisément, l'algorithme qui s'exécute est pour très peu dans le résultat produit.
Je m'interroge donc sur la plausibilité des gens qui prétendent réguler le comportement de ces automates. Comment sauront-ils où mettre le coup de tournevis qui évitera que l'algorithme voie le monde tel qu'il est, et non tel que la tendance du moment souhaiterait qu'il soit ?
D'autre part il est de plus en plus facile de se procurer du matériel à très hautes performances, donc de construire sa propre IA chez soi, sur son établi. Les logiciels sont systématiquement Open Source et abondamment documentés. Donc, qu'est-ce que des administratifs ou des politicards qui n'y comprennent rien prétendent réguler, au juste ?

De là, on peut aussi s'interroger sur ceux qui tentent de quantifier l'IA, de la compartimenter. On n'arrive déjà pas à se mettre d'accord sur la nature de l'intelligence en soi.

Finalement, tout ce débat fait penser à des gens qui ont trop de temps et d'argent à dépenser à des activités autres que constructives et qui surfent sur les tendances actuelles pour se faire un nom. J'ai eu la curiosité de parcourir la liste des signataires de l'article mis en cause, lorsque je lis ensuite que quelqu'un (Alex Hanna) estime qu'il peut y avoir un problème de blancheur, je l'incite violemment à faire de même pour mesurer à quel point il s'est ridiculisé.

En conclusion, Google est une entreprise dont le premier but est la rentabilité qui lui assure sa survie. Ce n'est ni une autorité morale, ni un organisme de bienfaisance. Ceux qui croient le contraire sont seuls coupables.
6  1 
Avatar de schlebe
Membre actif https://www.developpez.com
Le 07/05/2022 à 8:56
Je comprends maintenant pourquoi il y a un manque avéré de puces électroniques au niveau mondial pour tout ce qui a besoin d'électronique (voiture, ordinateur, etc) !

C'est parce que l'IA est responsable de la création des nouvelles puces
2  1 
Avatar de Argonautus
Membre à l'essai https://www.developpez.com
Le 08/05/2022 à 10:20
Le business ne doit pas occulter les problèmes liés à l'éthique de ces nouvelles technologies.
Les enjeux humains sont beaucoup trop importants.
1  1 
Avatar de fredinkan
Membre expérimenté https://www.developpez.com
Le 09/05/2022 à 8:58
Citation Envoyé par Argonautus Voir le message
Le business ne doit pas occulter les problèmes liés à l'éthique de ces nouvelles technologies.
Les enjeux humains sont beaucoup trop importants.
L'éthique ? Avec la profusion d'avis contraire et personne qui veut bien essayer de faire ou d'accepter un consensus ? Aucune chance...
0  0