
Lorsque la firme de Jeff Bezos concevait son outil, elle a fait en sorte que les nouvelles candidatures soient examinées en observant les modèles de CV reçus par l’entreprise au cours des dix dernières années. Le piège était là. Puisque la majorité des candidats étaient des hommes, l’intelligence artificielle a développé une sorte de comportement discriminatoire consistant à mieux noter les candidatures masculines que celles féminines. En autodidacte, le système a donc appris que les candidatures masculines étaient plus dignes d’intérêt que celles féminines.
Il avait commencé à pénaliser les candidatures contenant les mots clés « pour femmes ». Des personnes proches du dossier ont même déclaré que l’intelligence artificielle en est même venue à déclasser deux diplômées d’écoles exclusivement « pour femmes ». Peu après, l’entreprise de Jeff Bezos a fait quelques ajustements sur le système afin que ces mots clés ne soient plus ciblés, mais absolument rien ne garantit que le programme soit devenu et resté entièrement neutre après ces ajustements.
En dehors de la discrimination basée sur le genre, le système était également extrêmement peu précis dans ses résultats, ce qui aboutissait sur des recommandations « hasardeuses ». Des candidats pas ou peu qualifiés étaient donc proposés pour pourvoir à des postes souvent au-delà ou en dehors de leurs champs de compétences. Le projet semblant donc se diriger vers une impasse, Amazon a décidé d’y mettre fin. L’entreprise n’a pas souhaité s’étendre en commentaires sur le projet avorté mais a tenu à réaffirmer son engagement en faveur de la diversité et de l’égalité sur les lieux de travail.
Cela ne veut cependant pas dire qu’on doive définitivement tirer un trait sur le recrutement assisté par intelligence artificielle. En effet, selon un sondage de 2017 réalisé par CareerBuilder, une entreprise de recrutement en ligne , 55 % des directeurs des ressources humaines aux USA sont fermement convaincus que l’intelligence artificielle finirait par s’intégrer à leur travail quotidien. Néanmoins, bien que les opinions souvent subjectives des recruteurs puissent représenter un problème pour les employeurs, il y a encore un long chemin à parcourir avant que ces opinions puissent être remplacées par des analyses froides et pragmatiques d’intelligences artificielles. Cela, l’informaticien Nihar Shah l’exprime clairement lorsqu’il se demande « comment être sûr que l’algorithme est juste » et « comment s’assurer qu’il est vraiment interprétable et explicable ». Il conclut que le moment ou l’intelligence artificielle pourra gérer efficacement des recrutements avec une infime marge d’erreur admise est encore « assez loin ».
Les internautes se sont prononcés sur la question. Ils expliquent que ceci est encore une preuve que l’apprentissage automatique était encore largement perfectible. Cependant, un petit groupe d’internautes a présenté la situation sous un nouvel angle. Ils expliquent que par essence, un système de recrutement est censé faire une discrimination, recommandant les meilleurs candidats au détriment de tous les autres. Ils expliquent également qu’il peut arriver qu’un groupe soit plus représenté que tous les autres parmi les meilleurs et que cela ne résultait pas nécessairement d’une discrimination. Pour eux, tout ce qui peut être perçu comme un comportement discriminatoire du système peut ne pas nécessairement en être un.
Source : Reuters
Et vous ?


Voir aussi




