IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

USA : un nouveau projet de loi va sonder la partialité des algorithmes des entreprises
L'IA étant de plus en plus impliquée dans la prise de décision

Le , par Stan Adkens

184PARTAGES

12  0 
Les champs d’études de l’intelligence artificielle dont l’apprentissage machine et la vision par ordinateur sont de plus en plus à l'origine d'un large éventail de processus et d'outils cruciaux comme la reconnaissance faciale, les voitures autonomes, le ciblage publicitaire, le service à la clientèle, la modération de contenu, les services de police et l'embauche, pour ne citer que ceux-là. Il convient donc de vérifier si les algorithmes utilisés par les entreprises dans l’élaboration de ces outils décisionnels sont exempts de tous préjugés raciaux, sexistes et autres. C’est pour appliquer cette logique que les législateurs américains ont présenté un projet de loi qui, lorsqu’il sera adopté, obligerait les entreprises de technologie à mettre à l'essai des prototypes de leurs algorithmes afin de déceler d’éventuels biais.

Les entreprises concernées devraient évaluer un large éventail d'algorithmes, y compris tout ce qui affecte les droits légaux des consommateurs, prédit et analyse leur comportement, implique de grandes quantités de données sensibles, ou « surveille systématiquement de grands espaces physiques accessibles au public ». Théoriquement, la future loi viserait essentiellement, les entreprises de la technologie, vu qu’elle implique les algorithmes. Et dès lors qu’un risque important de discrimination, de problèmes de protection de la vie privée ou d'autres problèmes est détecté, l'entreprise concernée est censée les régler dans les meilleurs délais afin d’assurer la transparence et la responsabilité technologique.


Sénateur Cory Booker


L'Algorithmic Accountability Act a été rédigée par deux sénateurs démocrates – Cory Booker, sénateur pour le New Jersey et Ron Wyden, sénateur de l'Oregon. La députée démocrate Yvette Clarke a présenté un projet de loi équivalent à la Chambre des représentants. Si le projet de loi est adopté, il demanderait à la Commission fédérale du commerce de créer des règles pour évaluer les systèmes automatisés « très sensibles » des grandes entreprises.

Sont concernées par la loi algorithmique sur la responsabilité, les grandes entreprises qui ont accès à une grande quantité d'information. Elle s'appliquerait aux entreprises qui gagnent plus de 50 millions de dollars par année, qui détiennent des renseignements sur au moins un million de personnes ou d'appareils, ou dont l’activité principale consiste à acheter et vendent des données de consommateurs.

Une loi similaire a été adoptée pour la première fois aux Etats-Unis par le conseil municipal de New York en 2017. En effet, vu des grandes et importantes décisions relatives à la vie des Américains que les algorithmes prennent quotidiennement depuis ces dernières années, le conseil municipal de New York a adopté une loi qui devrait permettre de créer un groupe de travail pour vérifier que les algorithmes utilisés par la police de New York, les tribunaux et une dizaine d’autres institutions ne sont pas biaisés. Le groupe de travail a été chargé de faire des essais sur ces algorithmes, mais aussi de trouver un moyen pour que les citoyens puissent comprendre les décisions de ces algorithmes quand elles ne leur conviennent pas.

Les sénateurs veulent faire adopter cette loi par le gouvernement fédéral des Etats-Unis afin d’obliger les entreprises à effectuer des « évaluations d'impact » des systèmes décisionnels automatisés ainsi que les données de formation « pour déterminer leurs répercussions sur l'exactitude, l'équité, la partialité, la discrimination, la confidentialité et la sécurité ».

M. Wyden, l’un des sénateurs qui parrainent le projet de loi, a déclaré lors d’une entrevue accordée à la presse : « Les ordinateurs participent de plus en plus à un grand nombre des décisions importantes que prennent les Américains dans leur vie quotidienne, qu'il s'agisse d'acheter une maison, d'obtenir un emploi ou même d'aller en prison ».

« Mais au lieu d'éliminer les préjugés, ces algorithmes dépendent trop souvent de suppositions ou de données biaisées qui peuvent en fait renforcer la discrimination à l'égard des femmes et des personnes de couleur », a-t-il ajouté.


Les sénateurs ont présenté ce projet de loi de contrôle des algorithmes environ deux semaines après que Facebook ait été accusé d'avoir procédé à une discrimination dans la diffusion d'annonces de logements, en violation de la Fair Housing Act. La poursuite du ministère du Logement et du Développement urbain allègue que le système de ciblage publicitaire du réseau social limite injustement le nombre de personnes qui voient des annonces de logement en fonction de la race, de la religion ou de la nationalité.

Une situation similaire de discrimination s’est produite l’an dernier avec l’un des systèmes informatiques d’Amazon. Le géant américain de la technologie, l'un des leaders mondiaux de l'intelligence artificielle, s'est servi de l’intelligence artificielle pour décider des candidats qu'il devait interviewer pour des emplois. Le système expérimental basé sur l’IA attribuait aux postulants un score situé entre une et cinq étoiles. Il avait commencé à pénaliser les candidatures contenant les mots clés « pour femmes », selon Reuters.

Des personnes proches du dossier ont même déclaré que l’intelligence artificielle en est même venue à déclasser deux diplômées d’écoles exclusivement « pour femmes ». Après deux ans de conception, Amazon a constaté que tout candidat féminin était automatiquement éjecté de la liste et a décidé de suspendre son système de recrutement.

La députée démocrate Yvette Clarke, à propos du projet de loi qu’elle a présenté à la Chambre des représentants, a déclaré :

« En exigeant des grandes entreprises qu'elles ne ferment pas les yeux sur les impacts involontaires de leurs systèmes automatisés, l'Algorithmic Accountability Act garantit que les technologies du XXIe siècle sont des outils d'autonomisation plutôt que de marginalisation, tout en renforçant la sécurité et la confidentialité de tous les consommateurs ».

Toutefois, le projet de loi ne fait pas l’unanimité. Daniel Castro, porte-parole du groupe industriel de la Fondation de la technologie de l'information et de l'innovation a déclaré que la loi ne ferait que « stigmatiser » l'IA et décourager son utilisation. Dans un communiqué, il a déclaré :

« Tenir les algorithmes à un niveau plus élevé que les décisions humaines implique que les décisions automatisées sont intrinsèquement moins fiables ou plus dangereuses que les décisions humaines, ce qui n'est pas le cas ».

Le dépôt de ce projet de loi Algorithmic Accountability Act a suscité des débats sur les médias sociaux sur les biais dans les systèmes décisionnels. Selon un utilisateur, la solution qui consiste à essayer de réparer les systèmes biaisés à l'aide des algorithmes d'apprentissage n’améliorera pas ces systèmes. Les données introduites dans une stratégie d'apprentissage automatique vont tout simplement essayer d'imiter le système sur lequel elles sont alimentées. En général, nous manquons de moyens simples pour «ajuster» de tels algorithmes, a-t-il écrit.

Source : Algorithmic Accountability Act, BBC News

Et vous ?

Que pensez-vous de ce nouveau projet de loi ? Voyez-vous cette loi comme un outil de transparence ?
Ne va-t-elle décourager les initiatives IA ?
Peut-on réparer des biais avec des données de formation existantes ?

Lire aussi

Facebook accusé d'avoir procédé à une discrimination dans la diffusion d'annonces de logements, en violation de la Fair Housing Act
Amazon révèle que son outil automatique de recrutement exerce une discrimination contre les femmes, et décide de le suspendre
La proposition de San Francisco interdirait l'utilisation de la reconnaissance faciale par le gouvernement dans la ville, créant un précédent aux USA
La reconnaissance faciale comme méthode de sécurité est inutile pour 4 smartphones sur 10, d'après une étude
Amazon annonce qu'il continuera de vendre sa technologie de reconnaissance faciale aux forces de l'ordre, malgré les protestations

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 13/04/2019 à 18:15
Plutôt que de faire des lois spécifiques aux IAs, des doublons de lois déjà existantes pour les humains, il suffit de rendre l'utilisateur de l'IA responsable de son utilisation (e.g. le recruteur responsable de l'utilisation de l'IA dans son processus de recrutement). De là, les lois qui s'appliquent aux humains s'appliquent d'office à l'usage de l'IA. C'est alors à l'humain de se rendre compte des limitations de son outil et de l'utiliser de manière raisonnée, l'excuse de la délégation à l'IA ne lui enlevant pas sa responsabilité.
3  0