IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Yann LeCun supprime son compte Twitter suite à une discussion sur la partialité de l'IA avec ses pairs,
Les systèmes d'IA sont biaisés s'ils sont préformés avec des données biaisées, dit-il

Le , par Bill Fassinou

376PARTAGES

10  0 
Yann LeCun, lauréat du prix Turing et responsable scientifique de la division IA chez Facebook, a tout récemment supprimé son compte Twitter à la suite d’une longue et acharnée dispute concernant les préjugés raciaux dans le domaine de l'IA. Cette conversation remet encore une fois sur la table les préoccupations au sujet des biais occasionnés par les algorithmes d’IA et les préoccupations autour de la mise en place d’IA éthiques dans les organisations. Tout ceci représente des préoccupations auxquelles le privé et les gouvernements tentent de trouver une réponse rapide.

Selon un rapport de Synced, contrairement à la majorité des autres chercheurs en intelligence artificielle, Yann LeCun a souvent exprimé ses opinions politiques sur les plateformes de médias sociaux. Ce faisant, il se serait déjà engagé dans des querelles publiques avec des collègues comme Gary Marcus. Cette fois, cependant, Synced explique que le penchant de LeCun pour le débat l'a amené à se heurter à ce qu'il a appelé « les codes linguistiques de la justice sociale moderne ». Le sujet qui divise ici est un nouveau modèle de recréation de photo dénommé “Pulse AI”.

Tout aurait commencé le 20 juin avec un tweet en référence au modèle de recréation de photo Pulse AI développé par l'université de Duke qui avait dépixelé une image d'entrée basse résolution de Barack Obama en une photo d'un homme blanc. Brad Wyble, professeur associé à la Penn State University, a tweeté : « cette image en dit long sur les dangers de la partialité dans l'IA ». Ce commentaire n’a sûrement pas plu à LeCun qui a répondu au professeur Brad Wyble en disant : « Les systèmes de ML sont biaisés lorsque les données sont biaisées ».


« Ce système d'échantillonnage de visages fait passer tout le monde pour un blanc parce que le réseau a été préformé sur FlickFaceHQ, qui contient principalement des photos de personnes blanches. Entraînez le même système sur un ensemble de données du Sénégal, et tout le monde aura l'air africain », a-t-il ajouté. Ce commentaire de LeCun a fait réagir Timnit Gebru, coresponsable technique de l'équipe d'IA éthique de Google et travaillant sur les biais des algorithmes d’IA et sur l'exploration de données. Voici ce qu’elle a répondu :

« J'en ai assez de ce cadrage. J'en ai marre. Beaucoup de gens ont essayé d'expliquer, de nombreux universitaires. Écoutez-nous. Vous ne pouvez pas simplement réduire les dommages causés par le ML aux biais des ensembles de données. », a-t-elle déclaré, avant d’ajouter « Même au milieu des protestations mondiales, les gens n'entendent pas nos voix et n'essaient pas d'apprendre de nous, mais supposent qu'ils sont experts en tout. Laissez-nous-la diriger et vous la suivrez. Écoutez simplement. Et apprenez des universitaires comme @ruha9 [Ruha Benjamin, professeur associé d'études afro-américaines à l'université de Princeton] ».


Gebru est connue pour ses travaux concernant les préjugés raciaux et sexistes présents dans les systèmes de reconnaissance faciale et autres algorithmes d'IA et défend depuis des années l'équité et l'éthique dans l'IA. Elle dirige un projet, Gender Shades, avec Joy Buolamwini, informaticienne au MIT Media Lab, qui a révélé que la plupart des logiciels commerciaux de reconnaissance faciale étaient plus susceptibles d'être mal classifiés et étaient moins précis avec les femmes à la peau foncée qu'avec les hommes à la peau claire, un problème qu’il faut vite résoudre, selon elle.

Si la discussion est rapidement devenue piquante, LeCun a toutefois tenté d'éclaircir un tant soit peu sa position. LeCun a répondu que son commentaire portait sur le cas particulier du modèle et de l'ensemble de données Duke. « Les conséquences des biais sont considérablement plus graves au sein d'un produit déployé que dans un article universitaire », a-t-il poursuivi dans un long fil de tweets, et en suggérant que ce ne sont pas les chercheurs en ML qui doivent être plus prudents dans la sélection des données, mais plutôt les ingénieurs.

En outre, le fil de discussion a aussi intéressé d’autres personnes de la communauté internationale, dont plusieurs n’ont pas manqué d’apporter leurs avis à l’instar de quelques membres d'Amnesty International et des communautés de militants. Quelques jours plus tard, le 25 juin, LeCun est revenu sur le fil pour s’adresser à Gebru : « J'admire beaucoup votre travail sur l'éthique et l'équité d'IA. Je tiens beaucoup à travailler pour que les préjugés ne soient pas amplifiés par l'IA et je suis désolé que la façon dont je communique ici soit devenue le sujet qui fâche ».

À son tour, Gebru a répondu en disant : « On nous dit souvent des choses comme “Je suis désolé que ce soit ce que vous ressentez”. Cela ne reflète pas vraiment la réalité. J'espère que vous comprenez maintenant pourquoi la façon dont vous avez communiqué est devenue fâcheuse. C'est devenu fâcheux parce que c'est un modèle de marginalisation ». Ainsi, le va-et-vient d'une semaine entre LeCun et Gebru a attiré des milliers de commentaires et de retweets, et un certain nombre de chercheurs en IA de haut niveau ont exprimé leur insatisfaction quant aux explications fournies par Yann LeCun pour justifier sa position.

David Ha, scientifique de Google Research, a déclaré : « Je ne suis pas d'accord avec Yann. Tant que les progrès seront évalués sur la base de données biaisées, ces biais se refléteront aussi dans les biais inductifs des systèmes de ML ». Nicolas Le Roux, président de la CIFAR Canada AI, a également commenté : « Yann, je sais que vous voulez bien faire. J'ai vu beaucoup de gens agir comme vous l'avez fait en toute bonne foi, et se mettre sur la défensive quand les gens leur faisaient remarquer que ce n'était pas la bonne réponse, jusqu'au jour où ils se sont arrêtés pour écouter et réfléchir et finalement changer leur comportement ».

La communauté de l'intelligence artificielle a pris un certain nombre de mesures ces dernières années dans le but d’encourager la diversité et l'intégration, à l’instar de l'initiative “AI for all” qui a été lancée par Fei-Fei Li, superviseur de Gebru à Stanford, et la programmation de la grande conférence sur l'intelligence artificielle ICLR 2020 en Éthiopie. En outre, NeurIPS, une des plus grandes conférences sur l'intelligence artificielle au monde, a demandé aux auteurs cette année d'inclure une déclaration sur l'impact potentiel plus large de leurs articles soumis.

Cela doit principalement traiter de ses aspects éthiques et de ses futures conséquences sociétales. Ainsi, les auteurs doivent prendre soin de discuter des résultats positifs et négatifs. Yann LeCun a quitté Twitter le 28 juin après avoir tweeté : « J'aimerais demander à tout le monde de cesser de s'attaquer les uns aux autres via Twitter ou d'autres moyens. En particulier, j'aimerais qu’on cesse de s'attaquer à @timnitGebru et tous ceux qui ont critiqué mes messages... Au revoir tout le monde ».

Sources : tweets (1, 2)

Et vous ?

Quel est votre avis sur le sujet ?
Êtes-vous du même avis que LeCun qui soutient que les systèmes d'IA sont biaisés lorsqu'ils sont préformés avec des données biaisées ?
Ou partagez-vous l'avis de Gebru qui pensent qu'il ne faut pas simplement réduire les dommages causés par le ML aux biais des ensembles de données ?
Quelle est votre opinion sur les préjugés raciaux et sexistes présents dans les systèmes de reconnaissance faciale et autres algorithmes d'IA ?

Voir aussi

L'« IA éthique » pourrait-elle exister ? Les technologues pensent que les défis éthiques de l'IA pourraient être résolus par du code, mais ces défis seraient beaucoup plus complexes, selon un auteur

Les experts de l'Union européenne publient le premier draft sur les lignes directrices d'une IA éthique, la version finale est attendue en mars 2019

Les « parrains de l'intelligence artificielle » récompensés du prix Turing 2018, le prix Nobel de l'informatique

Le Pentagone annonce l'adoption de cinq principes visant à garantir l'utilisation éthique et responsable de l'IA par les États-Unis dans le domaine militaire

Microsoft développe un outil pour détecter automatiquement les biais dans les algorithmes d'IA, une solution pour éviter les discriminations ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 09/07/2020 à 19:37
les évolutions de la morale et de l'éthique aux USA ces dernières années m'affligent perso.

dire que "ça en dit long sur la partialité de l'IA" prête donc à ladite IA une partialité, c'est à dire sinon un choix conscient de sa part, au moins une décision qui est que de son ressort exclusif
c'est ni plus ni moins lui octroyer une individualité et remettre la responsabilité de sa programmation et/ou de son entrainement sur son dos, c'est absurde.

Citation Envoyé par Bill Fassinou Voir le message
(...) ce qu'il a appelé « les codes linguistiques de la justice sociale moderne »
je suis assez d'accord, et les dérives de cette "justice sociale" 2.0 sont de plus en plus nombreuses et consternantes (coucou "master/slave", les pièces d'échecs "blanches/noires", la stigmatisation des "cisgenre", des "carnistes" etc.)
une approche très humaine de "l'intelligence artificielle" finalement

au delà de ça, "shitstorms happen 🤷", surtout sur Twitter, se désinscrire est encore la meilleure chose qu'on puisse en faire, avis perso.

donc team LeCun sans hésitation.
13  0 
Avatar de spyserver
Membre confirmé https://www.developpez.com
Le 10/07/2020 à 10:10
Mouai elle a oublié que l'IA ne serait pas ce qu'elle est sans Yann Lecun, il est parmi ceux qui ont remit l'IA sur les rails faudrait pas l'oublier quand même ... malheureusement Twitter est le dernier endroit pour parler de ces sujets vu le nombre de militants de tout bord, le niveau frise souvent celui de la place publique, c'est à dire proche de zéro.
6  0 
Avatar de darklinux
Membre extrêmement actif https://www.developpez.com
Le 10/07/2020 à 6:40
Quel est votre avis sur le sujet ?

C 'est fort dommage , mais en ces temps de remake du MacCartisme à la sauce SJW

Êtes-vous du même avis que LeCun qui soutient que les systèmes d'IA sont biaisés lorsqu'ils sont préformés avec des données biaisées ?
Oui , il n ' y a rien de plus simple d ' orienté les données et donc de biaisé les résultats

Ou partagez-vous l'avis de Gebru qui pensent qu'il ne faut pas simplement réduire les dommages causés par le ML aux biais des ensembles de données ?
le ML est du à deux choses : l ' algo et les données point barre

Quelle est votre opinion sur les préjugés raciaux et sexistes présents dans les systèmes de reconnaissance faciale et autres algorithmes d'IA ?
Nous sommes dans un temps particulier , la folie règne et les personnes non developpeurs , parlent de sujets qu ' ils ignorent de façon péremptoire
5  0 
Avatar de Neckara
Inactif https://www.developpez.com
Le 10/07/2020 à 11:25
Bon, pour les imbéciles incompétents qui se proclament expert en IA, sans rien avoir compris à l'IA :
  1. Les biais de l'IA dépendent plus que fortement des biais des jeux de données ;
  2. Les IA déduisent des corrélations, pas des causalités ;
  3. Certains éléments peuvent être corrélés (ou des causes), sans qu'on juge qu'il soit juste de tenir compte de cet élément pour discriminer ;
  4. Certains éléments sont plus difficiles à détecter pour certains capteurs (e.g. pour des histoires de contrastes/formes ou autres) ;
  5. Il y a toujours un taux d'erreur ;
  6. l'IA C'EST PAS MAGIQUE !
2  0 
Avatar de Neckara
Inactif https://www.developpez.com
Le 10/07/2020 à 11:55
Citation Envoyé par Bill Fassinou Voir le message
Brad Wyble, professeur associé à la Penn State University, a tweeté : « cette image en dit long sur les dangers de la partialité dans l'IA ».
C'est de anthropomorphisation. L'IA n'est pas partial, tu lui donnes des données, elle sort un résultat.

Elle peut être biaisée, certes, mais c'est très lié au jeu d'apprentissage.

Citation Envoyé par Bill Fassinou Voir le message
« Ce système d'échantillonnage de visages fait passer tout le monde pour un blanc parce que le réseau a été préformé sur FlickFaceHQ, qui contient principalement des photos de personnes blanches. Entraînez le même système sur un ensemble de données du Sénégal, et tout le monde aura l'air africain », a-t-il ajouté.
Gros +1.

Citation Envoyé par Bill Fassinou Voir le message
« J'en ai assez de ce cadrage. J'en ai marre. Beaucoup de gens ont essayé d'expliquer, de nombreux universitaires. Écoutez-nous. Vous ne pouvez pas simplement réduire les dommages causés par le ML aux biais des ensembles de données. »
En même temps ces "universitaires" sont plus militants que chercheurs... encore heureux qu'on ne les écoute pas.

Encore une fois, le ML ne cause pas de dommages, c'est un outil. C'est la mauvaise utilisation de l'outil qui peut être dommageable.

Les dommages ne peuvent certes ne pas être uniquement causés par les biais dans la base de données, mais en l'occurence, c'est bien le problème ici. Après faire croire que les IA sont sexistes/racistes, c'est ridicule.

Citation Envoyé par Bill Fassinou Voir le message
Laissez-nous-la diriger et vous la suivrez. Écoutez simplement. Et apprenez des universitaires comme @ruha9
Non, hors de questions.

Citation Envoyé par Bill Fassinou Voir le message
Gebru est connue pour ses travaux concernant les préjugés raciaux et sexistes présents dans les systèmes de reconnaissance faciale et autres algorithmes d'IA et défend depuis des années l'équité et l'éthique dans l'IA. Elle dirige un projet, Gender Shades, avec Joy Buolamwini, informaticienne au MIT Media Lab[...]
Tout est dit...

Citation Envoyé par Bill Fassinou Voir le message
qui a révélé que la plupart des logiciels commerciaux de reconnaissance faciale étaient plus susceptibles d'être mal classifiés et étaient moins précis avec les femmes à la peau foncée qu'avec les hommes à la peau claire, un problème qu’il faut vite résoudre, selon elle.
Ridiculement stupide.

Qu'est-ce qu'on s'en fout qu'une catégorie soit mieux reconnue qu'une autre (i.e. relativement à un autre groupe), le problème est de pouvoir suffisamment reconnaître par rapport à ce qui est réalisable techniquement et économiquement (i.e. dans l'absolu).

Citation Envoyé par Bill Fassinou Voir le message
et en suggérant que ce ne sont pas les chercheurs en ML qui doivent être plus prudents dans la sélection des données, mais plutôt les ingénieurs.
+1, on n'a de toute manière pas les capacités de constituer des bases parfaitement représentatives de la population.

Citation Envoyé par Bill Fassinou Voir le message
À son tour, Gebru a répondu en disant : « On nous dit souvent des choses comme “Je suis désolé que ce soit ce que vous ressentez”. Cela ne reflète pas vraiment la réalité. J'espère que vous comprenez maintenant pourquoi la façon dont vous avez communiqué est devenue fâcheuse. C'est devenu fâcheux parce que c'est un modèle de marginalisation ».
Saleté de SJW.

Citation Envoyé par Bill Fassinou Voir le message
David Ha, scientifique de Google Research, a déclaré : « Je ne suis pas d'accord avec Yann. Tant que les progrès seront évalués sur la base de données biaisées, ces biais se refléteront aussi dans les biais inductifs des systèmes de ML ».
... a-t-il ne serait-ce que la moindre idée de la manière dont on construit les bases d'apprentissages et de tests ?

C'est la putain de même base qu'on sépare en 2 (très grossièrement, je que je dis est très réducteur) !
Si les données d'apprentissages ne sont pas biaisées, les données d'évaluations ne seront pas plus biaisées...

Citation Envoyé par Bill Fassinou Voir le message
Nicolas Le Roux, président de la CIFAR Canada AI, a également commenté : « Yann, je sais que vous voulez bien faire. J'ai vu beaucoup de gens agir comme vous l'avez fait en toute bonne foi, et se mettre sur la défensive quand les gens leur faisaient remarquer que ce n'était pas la bonne réponse, jusqu'au jour où ils se sont arrêtés pour écouter et réfléchir et finalement changer leur comportement ».
Saleté de SJW. en train de se branler sur sa vertue supérieure.
4  2 
Avatar de
https://www.developpez.com
Le 13/07/2020 à 15:01
Même au milieu des protestations mondiales, les gens n'entendent pas nos voix et n'essaient pas d'apprendre de nous, mais supposent qu'ils sont experts en tout. Laissez-nous-la diriger et vous la suivrez. Écoutez simplement. Et apprenez des universitaires comme @ruha9 [Ruha Benjamin, professeur associé d'études afro-américaines à l'université de Princeton]

Des propos intolérables... "On ne dit pas qu'on a raison, c'est juste que vous ne savez pas que vous avez tord, alors laissez nous faire."

La grosse ironie étant que les mêmes personnes se plaignant que personne ne les écoute, se permettent de demander à tout le monde de se taire, alors que tout le monde les a déjà entendus. C'est le principe même d'un raisonnement sain qui est mis à la porte, ici; Au lieu de se remettre en question dans leur démarches, ils persistent à forcer leur opinion comme étant valide, et réclament que la majorité se remette en question.

C'est incroyable de lire ce genre de chose venant de personnalités publiques sur les réseaux sociaux. La prochaine génération qui baigne là dedans va avoir besoin de beaucoup de conviction et de connaissances pour faire face à autant de têtes dures... Ayant moi même des problèmes de confiance, je suis content de ne pas être né plus tard !
2  0 
Avatar de
https://www.developpez.com
Le 15/07/2020 à 11:21
Citation Envoyé par Guilp Voir le message
... Alors que là, c'est un dialogue de sourd, il se braque, boude, et supprime son compte Tweeter en perdant la face publiquement...
Quelque part, mentir n'est pas la solution, et ça a déjà pu être vérifié. Surtout pour une communauté aussi virulente et sensible que la communauté LGBT/SJW.
Je pense que c'est une bonne chose qu'il ait supprimé son compte dans le sens où ça montre que les gens autonomes et intelligents sont capables de se passer de l'avis des autres pour savoir que leur travail est sensé.

Ça montre aussi la limite de la liberté d'expression, et qui s'efforce de la limiter également. J'imagine le nombre de génies qui se taisent parce qu'ils se feraient allumer pour leur découverte technologique. Juste à cause de détails triviaux comme celui là. Quand le sage montre la lune l'imbécile regarde le doigt.
2  0 
Avatar de Neckara
Inactif https://www.developpez.com
Le 15/07/2020 à 9:38
Citation Envoyé par web bea Voir le message
Et donc, en suivant ce raisonnement, la bombe atomique ne causerait pas de dommages car c'est aussi un outil.

Je te propose d'aller expliquer cette intéressante théorie du côté d'Hiroshima et de Nagasaki.
Je te propose d'aller expliquer ta position très intéressante au Japon. C'est pas la faute des Américains qui ont lâché la bombe, c'est la faute à la bombe atomique...

Une bombe atomique, par essence n'est ni bonne ni mauvaise, c'est l'utilisation que tu vas en faire. Si tu t'en sert pour exploser un astéroïde qui menace la Terre, c'est une très bonne chose. Si tu t'en sers comme moyen de dissuasion afin d'éviter les conflits armés, c'est une très bonne chose. Si tu t'en sers pour mettre fin à une guerre en limitant de manière considérable les pertes humaines, c'est relativement une bonne chose.

Et au passage, ce n'est ici, même pas "l'action" de l'outil qui cause des dommages, mais l'interprétation qu'on va avoir de ses résultats... qui est ici d'origine 100% humaine. C'est une décision humaine qui va interpréter les résultats ou de décider de ce qu'il faut faire si X ou Y.

C'est l'été les cerveaux partent en vacance...
2  1 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 15/07/2020 à 11:57
Citation Envoyé par Jesus63 Voir le message
Quelque part, mentir n'est pas la solution, et ça a déjà pu être vérifié. Surtout pour une communauté aussi virulente et sensible que la communauté LGBT/SJW.
Je pense que c'est une bonne chose qu'il ait supprimé son compte dans le sens où ça montre que les gens autonomes et intelligents sont capables de se passer de l'avis des autres pour savoir que leur travail est sensé.

Ça montre aussi la limite de la liberté d'expression, et qui s'efforce de la limiter également. J'imagine le nombre de génies qui se taisent parce qu'ils se feraient allumer pour leur découverte technologique. Juste à cause de détails triviaux comme celui là. Quand le sage montre la lune l'imbécile regarde le doigt.
L'outil ne guide pas la main mais plutôt le contraire car la main guide l'outil. A noter que l'EPFL a donc réussi à mettre en place des indicateurs étiques pour interdire les mauvais usages. On voit bien qu'il manque encore à l'IA le sens commun sur lequel l'institut allen travail depuis 2016

https://news.epfl.ch/news/l-ethique-...isation-non-e/
https://mosaic.allenai.org/

L'ia devrait donc faire des simulations de stratégies avec le concept de jumeaux numériques. Méta système?
1  0 
Avatar de web bea
Membre habitué https://www.developpez.com
Le 15/07/2020 à 16:00
Citation Envoyé par Ryu2000 Voir le message
Ben ouais ! C'est ça le principe, on appelle ça :
  • Équilibre de la terreur
  • Mutual assured destruction


Le principe c'est : si tu m'envoies une bombe atomique, juste avant de la recevoir je t'en envoie une aussi, comme ça va nous détruire mutuellement, donc personne ne va envoyer de bombe atomique.
Il y a juste les USA qui ont balancés 2 bombe atomiques sur des civils pour tester 2 technologies (alors que le Japon voulait déjà se rendre avant la première bombe).
Malheureusement les bombes atomiques ne servent pas qu'à la dissuasion, et n'ont pas servi qu'à la dissuasion.

1. C'est bête à dire à comme ça mais comme elles ont déjà été utilisées dire qu'elles ne sont là que pour la dissuasion est faux. Lorsque les 2 premières bombes ont été lâchées personne ne disposait de la bombe à part les américains. Il ne pouvait donc pas y avoir d'équilibre de la terreur : la bombe atomique n'était pas une arme de dissuasion mais, tout simplement une arme de destruction massive.

2. La bombe atomique a déjà causé des dégâts en 1945 on l'a dit et aussi de façon plus pernicieuse lors des différents essais réalisés de par le monde. Les premiers essais se déroulaient à l'air libre et étaient le plus souvent réalisés sans protection particulière (à part peut-être des lunettes de soleil ). On ne saura évidemment jamais combien de personnes sont mortes d'un cancer à cause des radiations reçues par les civils et les militaires lors de ces essais menés en dépit du bon sens.

3. Il existe aussi des bombes atomiques "tactiques" ou "pré-stratégiques" de puissance réduite (10 à 25 kT) qui ne participent pas directement à la dissuasion et qui peuvent être utilisées sur le champ de bataille. La France possédait encore jusqu'en 1997 de telles bombes atomiques portées par des missiles Pluton (puis Hadès). C'est le genre de détail qu'on oublie trop souvent quand on parle de bombe atomique.

4. Tôt ou tard un groupe terroriste construira ou s'emparera d'une bombe atomique et tentera de s'en servir.
1  0