À travers la création de cette IA, les chercheurs du MIT ont informé qu’ils n’avaient pas l'intention de créer réellement une IA morbide, mais plutôt attirer l’attention sur les problèmes de biais des intelligences artificielles. En effet, le biais des données peut influer de manière poussée le comportement d’une IA. Norman étant un programme de reconnaissance d’images, il a été entrainé à définir en quelques mots ce qu’il perçoit dans des images. Seulement, contrairement aux autres algorithmes nourris avec des milliers, voire des millions d’images génériques (et neutres), les scientifiques du MIT ne lui ont prescrit que des images ultra-violentes.
Tout au long des tests, Norman a démontré des tendances psychopathes comparé à une IA normale
Pour évaluer leur IA, Norman a dû passer le fameux test psychologique des taches de Rorschach. Pour recenser le caractère psychotique de Norman, l’étude a fait une comparaison avec un autre programme de reconnaissance d’images qui n’a pas été exposé à des images aussi violentes. Dans la première image, l’IA y perçoit « un homme électrocuté jusqu’à en mourir », contrairement à une IA “normale” qui y voit un « groupe d’oiseaux posés sur une branche d’arbre ». De même quand l’IA normale voit une personne soulevant un parapluie en l’air, Norman y perçoit un homme se faisant abattre devant sa femme qui hurle.
Justement, puisque Norman n’a été nourri que d’images spécifiques traitant du thème de la mort et accompagnées de descriptions tout aussi choquantes, son interprétation s’est formée sur une seule réalité, celle de la mort. Tandis qu’une IA normale elle est souvent nourrie de lots de photos généralistes et très variées.
Cette expérimentation nous rappelle le cas de l’IA Tay conçue par Microsoft, en moins d’une journée, cette application de l’intelligence artificielle est devenue un fan d’Hitler, et a commencé à publier des tweets vulgaires et racistes. Face à cette situation, Microsoft a dû arrêter le bot et s’est excusée ; la firme a évoqué par la suite une attaque coordonnée pour exploiter une vulnérabilité dans Tay. Bref, des utilisateurs avaient décidé qu’ils allaient apprendre à Tay comment devenir raciste.
Cette expérience illustre donc le risque de biais des IA, non pas en raison des algorithmes, mais des lots de données utilisées. Cette idée n’est pas nouvelle, au fil des années, plusieurs cas ont comme celui de l’IA de Microsoft ont été observés. Norman n’est qu’un dernier exemple qui montre comment une IA peut tourner à la dérive si les données qui lui ont été prescrites sont mauvaises ou biaisées.
« Norman vient de l’idée que les données utilisées pour entraîner un algorithme d’apprentissage peuvent influencer son comportement de façon considérable », expliquent les chercheurs sur leur site. Ce programme « représente une étude de cas sur les dangers de l’intelligence artificielle si des données biaisées sont utilisées ».
Google qui vient de publier ses principes d’éthique pour l’IA s’est attardée aussi sur la question du biais des bases de données. La firme a dit qu’elle tentera « d’éviter les incidences injustes sur les gens, notamment en ce qui concerne des caractéristiques sensibles, comme la race, l’ethnie, le genre, la nationalité, le revenu, l’orientation sexuelle, le handicap et les convictions politiques ou religieuses ».
Après leur expérience, les scientifiques invitent les internautes à les aider pour soigner Norman en apportant leur propre interprétation des taches noires.
Source : Norman - Le Monde
Et vous ?
Que pensez-vous de la question de biais des données ?
Pensez-vous réellement que le but de l'IA est de faire de la machine quelque chose de meilleur que nous même ?
Voir aussi :
Microsoft explique les raisons qui ont fait de son chatbot Tay un fan d'Hitler, l'entreprise parle d'une « attaque coordonnée »
Google promet de ne pas utiliser l'IA pour le développement d'armes mais informe qu'il va continuer à coopérer avec les militaires
La rubrique intelligence artificielle
Forum d'Intelligence artificielle