IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Facebook s'excuse après que son IA ait mal étiqueté une vidéo d'hommes noirs en les qualifiant de « primates »,
La FTC averti que les outils impliquant des IA peuvent être en violation des lois

Le , par Bruno

203PARTAGES

5  0 
Les progrès de l'intelligence artificielle (IA) promettent de révolutionner notre approche de la médecine, de la finance, des opérations commerciales, des médias, etc. Mais la recherche a mis en évidence la façon dont une technologie apparemment "neutre" peut produire des résultats troublants y compris la discrimination fondée sur la race ou d'autres classes légalement protégées. Les utilisateurs de Facebook qui ont regardé cette vidéo datée du 27 juin 2020 montrant des hommes noirs en altercation avec des civils et des policiers blancs se sont vus demander s'ils voulaient « continuer à voir des vidéos sur les primates ».

Facebook a désactivé ses recommandations de sujets et présente ses excuses après que la fonctionnalité alimentée par l'intelligence artificielle (IA) a qualifié à tort une vidéo d'hommes noirs de « primates ». La compagnie a qualifié cette bavure d'erreur inacceptable qu'elle examinait pour éviter que cela ne se reproduise. « C'était clairement une erreur inacceptable. L'entreprise est en train d'enquêter sur la cause pour éviter que ce comportement ne se reproduise », a déclaré Dani Lever, porte-parole de Facebook. « Comme nous l'avons dit, bien que nous ayons apporté des améliorations à notre IA, nous savons que ce n'est pas parfait et que nous avons encore des progrès à faire. Nous présentons nos excuses à tous ceux qui ont pu voir ces recommandations offensantes ».

L'année dernière, Facebook avait formé de nouvelles équipes internes dédiées à l'étude de son principal réseau social Facebook et Instagram pour les préjugés raciaux, en particulier pour savoir si ses algorithmes formés à l'aide de l'intelligence artificielle affectent négativement les Noirs, les Hispaniques et d'autres groupes sous-représentés. L'équipe sera « chargée de veiller à ce que l'équité et le développement de produits équitables soient présents dans tout ce que nous faisons », avait expliqué un porte-parole de Facebook. « Nous continuerons à travailler en étroite collaboration avec l'équipe responsable de l'IA de Facebook pour nous assurer que nous examinons les biais potentiels sur nos plateformes respectives ».

Une fois de plus, le problème n'a pas été détecté par Facebook lui-même, mais par une ancienne responsable de la conception du contenu de l'entreprise, qui a obtenu une capture d'écran d'un ami et l'a publiée sur un forum destiné aux employés actuels et anciens, rapporte le New York Times. Elle l'a également publiée sur Twitter.


Facebook n’est pas la seule entreprise concernée par des controverses impliquant des intelligences artificielles qui avaient affiché des préjugés sexistes ou raciaux. En 2015, par exemple, Google Photos a qualifié les photos de personnes noires de « gorilles ». Google a ensuite déclaré qu'il était « sincèrement désolé ». En 2016, Microsoft a fermé son chatbot Tay après qu'il ait commencé à utiliser des insultes raciales. Au sein de Facebook, il y a également eu des controverses concernant les questions raciales. Il y a quelques années, le PDG Mark Zuckerberg a demandé aux employés du siège de l'entreprise à Menlo Park, en Californie, d'arrêter d’écrire « Black Lives Matter » et d'écrire « All Lives Matter » dans un espace public de l'entreprise.

En avril, la Federal Trade Commission (FTC) a averti que les outils impliquant des intelligences artificielles qui affichent des préjugés sexistes ou peuvent être en violation des lois de protection des consommateurs s'ils sont utilisés pour la prise de décision en matière de crédit, de logement ou d'emploi. « Tenez-vous pour responsable ou préparez-vous à ce que la Commission fédérale du commerce des États-Unis le fasse pour vous », a écrit Elisa Jillson, responsable de la protection de la vie privée à la Commission fédérale du commerce des États-Unis, dans un message publié sur le site Web de l'agence.

« Le mouvement pour la justice raciale est un moment d'une réelle importance pour notre entreprise. Tout préjugé dans nos systèmes et nos politiques va à l'encontre de la fourniture d'une plateforme permettant à chacun de s'exprimer, a déclaré Vishal Shah, le vice-président du produit Instagram. Alors que nous travaillons toujours à créer une expérience plus équitable, nous mettons en place des efforts supplémentaires pour poursuivre ces progrès. De la création de l'équipe d'équité d'Instagram au conseil de produit inclusif de Facebook. »

Les modèles de prédiction du COVID-19 peuvent aider les systèmes de santé à combattre le virus par une allocation efficace des lits de soins intensifs, des ventilateurs et d'autres ressources. Mais comme le suggère une étude récente parue dans le Journal of the American Medical Informatics Association, si ces modèles utilisent des données qui reflètent les préjugés raciaux existants dans la prestation des soins de santé, l'IA censée bénéficier à tous les patients peut aggraver les disparités en matière de soins de santé pour les personnes de couleur. La Commission fédérale du commerce des États-Unis a des décennies d'expérience dans l'application de trois lois importantes pour les développeurs et les utilisateurs de l'IA :

  • la loi de la FTC interdit les pratiques déloyales ou trompeuses : cela comprendrait la vente ou l'utilisation par exemple d'algorithmes à préjugés raciaux ;
  • la loi sur les rapports de crédit équitables : la FCRA entre en jeu dans certaines circonstances où un algorithme est utilisé pour refuser à des personnes un emploi, un logement, un crédit, une assurance ou d'autres avantages ;
  • la loi sur l'égalité des chances en matière de crédit : l'ECOA interdit à une entreprise d'utiliser un algorithme biaisé qui entraîne une discrimination en matière de crédit fondée sur la race, la couleur, la religion, l'origine nationale, le sexe, l'état-civil, l'âge ou le fait qu'une personne bénéficie d'une aide publique.

La FTC a notamment utilisé son expertise de ces lois pour faire un rapport sur l'analyse des big data et l'apprentissage automatique, pour organiser une audience sur les algorithmes, l'IA et l'analyse prédictive, et pour publier des conseils aux entreprises sur l'IA et les algorithmes. Ce travail - associé aux actions d'application de la FTC offre des leçons importantes sur l'utilisation de l'IA de manière véridique, juste et équitable.

Et vous ?

Quel est votre avis sur le sujet ?

Selon vous, comment peut on exploiter les avantages de l'IA sans introduire par inadvertance des préjugés ou d'autres résultats injustes ?

Voir aussi :

Clearview AI utilise vos photos en ligne pour vous identifier instantanément. C'est un problème, d'après un procès intenté par des militants des libertés civiles

Les assistants vocaux boostés à l'intelligence artificielle renforceraient les stéréotypes sexistes, d'après un rapport de l'ONU

La technologie de reconnaissance faciale peut-elle révéler une orientation politique ? Elle peut prédire la tendance politique d'une personne avec une précision de 72 %, selon une étude de Stanford

Yann LeCun supprime son compte Twitter suite à une discussion sur la partialité de l'IA avec ses pairs, les systèmes d'IA sont biaisés s'ils sont préformés avec des données biaisées, dit-il

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de apicus
Membre à l'essai https://www.developpez.com
Le 05/09/2021 à 12:33
"vidéo datée du 27 juin 2020 montrant des hommes noirs en altercation avec des civils et des policiers blancs se sont vus demander s'ils voulaient « continuer à voir des vidéos sur les primates »"

1. remarque générale : "On divise aujourd'hui les primates en deux clades : celui des strepsirrhiniens, auquel appartiennent les lémurs, et celui des haplorrhiniens, auquel appartiennent les tarsiiformes et les simiiformes, qui comprennent, entre autres, les hominidés1,2 dont fait partie l'être humain." cf https://fr.wikipedia.org/wiki/Primates

2. on trouve sur cette vidéo des primates de 3 catégories :
A - des hommes noirs
B - des civils (sans doute noirs et blancs)
C - des policiers (blancs)

Q1 : quels sont les primates visés par « continuer à voir des vidéos sur les primates »" ?...TOUS ?
Q2 : s'agit-il d'une 'erreur' de l'IA ou juste d'un manque... de finesse
Q3 : Pourquoi l'homme voit-il quelquechose de dégradant ou péjoratif dans le fait d'être un primate ?

Moi cela ne m'inspire qu'un haussement d'épaules quand on compare ça à tout ce que fait Facebook par ailleurs...

Salut les primates !
12  2 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 05/09/2021 à 17:41
Citation Envoyé par apicus Voir le message
"vidéo datée du 27 juin 2020 montrant des hommes noirs en altercation avec des civils et des policiers blancs se sont vus demander s'ils voulaient « continuer à voir des vidéos sur les primates »"

1. remarque générale : "On divise aujourd'hui les primates en deux clades : celui des strepsirrhiniens, auquel appartiennent les lémurs, et celui des haplorrhiniens, auquel appartiennent les tarsiiformes et les simiiformes, qui comprennent, entre autres, les hominidés1,2 dont fait partie l'être humain." cf https://fr.wikipedia.org/wiki/Primates

2. on trouve sur cette vidéo des primates de 3 catégories :
A - des hommes noirs
B - des civils (sans doute noirs et blancs)
C - des policiers (blancs)

Q1 : quels sont les primates visés par « continuer à voir des vidéos sur les primates »" ?...TOUS ?
Q2 : s'agit-il d'une 'erreur' de l'IA ou juste d'un manque... de finesse
Q3 : Pourquoi l'homme voit-il quelquechose de dégradant ou péjoratif dans le fait d'être un primate ?

Moi cela ne m'inspire qu'un haussement d'épaules quand on compare ça à tout ce que fait Facebook par ailleurs...

Salut les primates !
comme dit le proverbe il n'y a que la vérité qui blesse
6  1 
Avatar de franklinnowell
Futur Membre du Club https://www.developpez.com
Le 06/09/2021 à 9:15
Comment osons-nous appeler ces applications "intelligentes"? Si elles l'étaient vraiment, elles seraient capables de s'excuser par elles-mêmes. Si je fais une bétise, c'est pas mon Créateur qui doit se sentir coupable
1  1 
Avatar de totozor
Membre expert https://www.developpez.com
Le 06/09/2021 à 12:18
Citation Envoyé par apicus Voir le message
[...]
je ne suis pas vraiment d'accord avec ce raisonnement.
Argumentation éditée parce que peu pertinente

Citation Envoyé par apicus Voir le message
Moi cela ne m'inspire qu'un haussement d'épaules quand on compare ça à tout ce que fait Facebook par ailleurs...

Salut les primates !
Je suis assez d'accord avec ça.
0  2