IA : un algorithme permettant de faire des recommandations en suivant des règles d'éthique
A été mis au point par des chercheurs d'IBM et du MIT

Le , par Bill Fassinou, Chroniqueur Actualités
Depuis quelques années, les recherches et expériences en intelligence artificielle sont de plus en plus poussées. L’Homme essaie de concevoir des machines qui se comporteraient exactement comme lui, qui pourraient analyser les situations de la vie et y apporter des réponses contextuelles et qui disposeraient d’une faculté d’adaptation comparable à celle des humains. Cet objectif semble de plus en plus proche étant donné les récentes avancées observées. Après les agents intelligents qui battent les humains à des jeux vidéo, des algorithmes qui réussissent à s’intégrer à une équipe et à collaborer, un robot aérospatial doté d'intelligence artificielle envoyé dans l’espace pour prêter main-forte aux astronautes, voici maintenant une intelligence artificielle qui serait capable de suivre des normes éthiques.

En effet, un collectif de scientifiques d’IBM Research et du MIT Media Lab dirigé par Francesca Rossi, la responsable de l’éthique des intelligences artificielles chez IBM Research, a créé une technique de recommandation par intelligence artificielle qui ne se contenterait pas de suggérer les meilleurs résultats à l’utilisateur, mais qui prendrait également en compte d’autres contraintes telles que les règles éthiques et comportementales. Il faut avouer que jusque-là, les tentatives pour intégrer des règles éthiques aux intelligences artificielles n’ont pas connu un franc succès, puisque les développeurs se contentaient de designer un produit ou une catégorie en particulier que l’algorithme doit éviter de recommander.


Mais, au fil des années et au fur et à mesure que les tentatives se faisaient, Internet a montré qu’il n’était pas le genre d’endroits où les règles pouvaient être posées et laissées statiques. « Dans beaucoup de choses sur Internet, dans les zones avec de grandes quantités de données, on ne peut pas toujours établir exactement toutes les règles que vous voulez que la machine suive », nous apprend Nicholas Mattei, un chercheur d’IBM Research et un membre du collectif qui a développé cette approche.

Les chercheurs se sont servis de la recommandation de films pour tester leur algorithme, puisque c’est un domaine où la différence entre les préférences des utilisateurs et les normes éthiques est clairement visible. Ils ont démontré le fonctionnement de l’algorithme dans un système de recommandation de films qui permettait aux parents de fixer des contraintes morales pour leurs enfants. Par exemple, les parents voudraient empêcher des services de vidéos en streaming de diffuser de contenu inapproprié à leurs enfants, et ce, même si ces derniers montraient une réaction positive à ce type de contenu. L’entraînement de l’intelligence artificielle à la technique de recommandation s’est articulé autour de deux grandes phases :

  • l’étape hors-ligne au cours de laquelle un arbitre (ici le parent) donne au système des exemples de contenu approprié et de contenu non approprié. Le système devrait alors être en mesure d’apprendre de ces exemples et de les utiliser pour ne pas recommander certains types de contenus à l'utilisateur (ici l’enfant) ;
  • l’étape en ligne, qui se déroule en interaction directe avec l’utilisateur final. L’algorithme optimise ses résultats pour les préférences de l’utilisateur et en montrant du contenu avec lequel l’utilisateur sera le plus enclin à interagir.

Les chercheurs ont tenu à rappeler qu’en essayant de respecter à la fois les règles éthiques et les préférences de l’utilisateur, un algorithme pouvait se retrouver devant un casse-tête puisqu’il pouvait arriver que les deux soient contradictoires. Et, dans ce cas de figure, l’arbitre susmentionné a la prérogative de déterminer un seuil définissant le niveau de priorité accordée aux règles éthiques et aux préférences de manière à obtenir un consensus.

Le nouvel algorithme a été testé sur différentes situations dans différents domaines. En clôture de leur propos, les chercheurs admettent que pour que leur méthode fonctionne de manière optimale, il fallait qu’il y ait deux utilisateurs, un qui définirait les règles éthiques et l’autre qui serait l’utilisateur final. Le fait que la grande majorité des applications que nous utilisons sur Internet ne requièrent des interactions qu’avec un seul utilisateur implique que chaque utilisateur doit définir les règles d’éthique qui lui seront appliquées. Les utilisateurs pourraient aussi choisir un ami ou un membre de la famille pour définir leurs contraintes et règles éthiques.

Source : News Vire

Et vous ?

Que pensez-vous de cette avancée dans le domaine de l’intelligence artificielle ?
Selon vous, quelles applications pourraient être faites de cette nouvelle méthode ?

Voir aussi

Un robot aérospatial doté d'intelligence artificielle sur la Station spatiale internationale (ISS) pour assister les astronautes dans leurs missions

Cinq algorithmes d'IA font équipe pour écraser des humains au Dota 2, un jeu d'équipe connu pour être extrêmement compliqué

IA : des agents intelligents de DeepMind battent le record des humains au Quake III, un jeu de tir en vue subjective

IA : des chercheurs de Google développent un algorithme capable de créer des scènes 3D à partir d'images bidimensionnelles


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse Signaler un problème

Avatar de Madmac Madmac - Membre éclairé https://www.developpez.com
le 18/07/2018 à 3:58
J'imagine les résultats, Les chercheurs ont probablement été embauché selon leur genre et race: Un noir au genre fluide et une blanche lesbienne handicapé.
Avatar de alainsc11 alainsc11 - Nouveau Candidat au Club https://www.developpez.com
le 18/07/2018 à 13:00
Pire que 1984... Dans la dystopie c'était des hommes qui surveillaient des hommes... avec l'IA la pensée sera sévèrement réglementée
Avatar de Matthieu Vergne Matthieu Vergne - Expert éminent https://www.developpez.com
le 18/07/2018 à 23:07
Manque de bol, la source de cet article est un autre article de news (à l'anglais douteux) lui-même sans source. J'aurais bien aimé voir l'article scientifique dont il est question. À défaut, on se contentera de ce qu'on a ici.

Citation Envoyé par Bill Fassinou Voir le message
IA : un algorithme permettant de faire des recommandations en suivant des règles d'éthique
Citation Envoyé par Bill Fassinou Voir le message
  • l’étape hors-ligne au cours de laquelle un arbitre (ici le parent) donne au système des exemples de contenu approprié et de contenu non approprié. Le système devrait alors être en mesure d’apprendre de ces exemples et de les utiliser pour ne pas recommander certains types de contenus à l'utilisateur (ici l’enfant) ;
  • l’étape en ligne, qui se déroule en interaction directe avec l’utilisateur final. L’algorithme optimise ses résultats pour les préférences de l’utilisateur et en montrant du contenu avec lequel l’utilisateur sera le plus enclin à interagir.
Encore une fois, beaucoup de bruit pour pas grand chose.
NON, il n'y a pas de règle d'éthique où que ce soit ici. Il n'y a même pas de règle du tout.
On se contente de définir 2 systèmes de recommandations :
- le premier identifie les œuvres à ne pas recommander sur la base d'un arbitre
- le second identifie les œuvres à recommander sur la base de l'utilisateur final

Si l'arbitre est biaisé, par exemple un parent chrétien hyper-croyant qui estime que la science -ou une autre religion- est l’œuvre du diable car contre la bible, et bien l'enfant n'aura droit à aucune recommandation d’œuvre scientifique. Ce n'est pas une question d'éthique, c'est de l'arbitraire contre l'arbitraire, avec l'un des deux prioritaire sur l'autre (même pondéré, car pondéré par le même arbitre).

Citation Envoyé par Bill Fassinou Voir le message
Les chercheurs ont tenu à rappeler qu’en essayant de respecter à la fois les règles éthiques et les préférences de l’utilisateur, un algorithme pouvait se retrouver devant un casse-tête puisqu’il pouvait arriver que les deux soient contradictoires. Et, dans ce cas de figure, l’arbitre susmentionné a la prérogative de déterminer un seuil définissant le niveau de priorité accordée aux règles éthiques et aux préférences de manière à obtenir un consensus.
Qu'on passe par des règles précises ou un système de recommandation, la problématique du conflit reste la même. La solution est alors de définir une priorité. Avec une règle précise, il s'agit de dire qui est prioritaire sur l'autre. Si des calculs sont faits pour plus de flexibilité, on peut se baser sur un score. Dans le cas de recommandations, on a aussi la flexibilité d'un score, mais par contre on perd toute la clarté d'une règle : on sait qu'en étant plus restrictif, la recommandation de l'arbitre sera davantage respectée, mais on n'a aucune idée de l'impact concret que ça aura sur les résultats (si j'augmente la priorité de autant, quelles/combien d'œuvres ne seront plus recommandées ?).

Citation Envoyé par Bill Fassinou Voir le message
Il faut avouer que jusque-là, les tentatives pour intégrer des règles éthiques aux intelligences artificielles n’ont pas connu un franc succès, puisque les développeurs se contentaient de designer un produit ou une catégorie en particulier que l’algorithme doit éviter de recommander.
Là on apprend de quoi est composé la catégorie en question. C'est mieux, mais ça n'est pas plus éthique. Il s'agit de généraliser à partir d'exemples arbitrairement choisis plutôt que d'utiliser des critères précis. C'est plus facile, mais plus vague. Les soi-disant "règles" disparaissent, eut-elles été éthiques ou pas.

Si au moins il avait été question de demander à des gens d'associer des œuvres à des règles d'éthique, de façon à apprendre les filtres sur des règles concrètes pour n'avoir à proposer aux parents qu'une liste de filtres éthiques à choisir. Là on aurait été dans le sujet. Il n'aurait pas été question de protéger qui que ce soit en particulier (une source de biais énorme), ni de limiter l'apprentissage à un arbitre particulier (autre source de biais énorme), mais de faire des associations d'ordre statistique à des règles générales.

En bref, nulle question d'éthique ici. On botte en touche : c'est l'arbitre qui décide. On propose juste aux parents de leur éviter de devoir être derrière leurs enfants 24/7 en entraînant un agent de pré-filtrage à la place.
Avatar de Madmac Madmac - Membre éclairé https://www.developpez.com
le 20/07/2018 à 4:14
Citation Envoyé par Matthieu Vergne Voir le message
Manque de bol, la source de cet article est un autre article de news (à l'anglais douteux) lui-même sans source. J'aurais bien aimé voir l'article scientifique dont il est question. À défaut, on se contentera de ce qu'on a ici.

Encore une fois, beaucoup de bruit pour pas grand chose.
NON, il n'y a pas de règle d'éthique où que ce soit ici. Il n'y a même pas de règle du tout.
On se contente de définir 2 systèmes de recommandations :
- le premier identifie les œuvres à ne pas recommander sur la base d'un arbitre
- le second identifie les œuvres à recommander sur la base de l'utilisateur final
J'en suis pas aussi sûr. Avec un cahier charge de ce type, cela me fait penser au caractéristique que devrait avoir un modérateur artificiel. l'UE (en particulier l'Allemagne) demande beaucoup de truc aux réseaux sociaux qui sont assez coûteux. L'utilisation d'un IA serait un argument en or pour expliquer certaine censures. Il n'y a que les idiots qui investissement sans avoir un débouché commercial pour le produit.
Avatar de mach1974 mach1974 - Membre à l'essai https://www.developpez.com
le 20/07/2018 à 9:45
Wechat le fait déjà avec les mots interdits dans le cadre de la Grande muraille en CHine
Avatar de Matthieu Vergne Matthieu Vergne - Expert éminent https://www.developpez.com
le 20/07/2018 à 20:16
Citation Envoyé par Madmac Voir le message
J'en suis pas aussi sûr. Avec un cahier charge de ce type, cela me fait penser au caractéristique que devrait avoir un modérateur artificiel.
Oui, c'est de la modération au sens large : il s'agit d'apprendre à filtrer. Mon propos est que cette modération n'a aucun lien spécifique avec l'éthique, sujet principal de l'article. Si quelqu'un se dit "tiens, je vais ajouter ça à mon site pour faire des recommandations plus éthique", il tomberait de haut en se rendant compte que c'est en fait à lui à fournir les ressources pour enseigner à la machine comment l'être... ce qui au final revient à avoir un modérateur humain.
Avatar de Madmac Madmac - Membre éclairé https://www.developpez.com
le 22/07/2018 à 6:38
Citation Envoyé par Matthieu Vergne Voir le message
Oui, c'est de la modération au sens large : il s'agit d'apprendre à filtrer. Mon propos est que cette modération n'a aucun lien spécifique avec l'éthique, sujet principal de l'article. Si quelqu'un se dit "tiens, je vais ajouter ça à mon site pour faire des recommandations plus éthique", il tomberait de haut en se rendant compte que c'est en fait à lui à fournir les ressources pour enseigner à la machine comment l'être... ce qui au final revient à avoir un modérateur humain.

Quel sont les débouchés potentiels selon toi? La confession par une IA ? Pas de chance, le Vatican a des problèmes de finance. J'imagine les conséquences sur un robot militaire: Faite l'amour, pas la guerre !

Sérieusement, je vois pas beaucoup de débouchés pour ce type d'application.
Avatar de Matthieu Vergne Matthieu Vergne - Expert éminent https://www.developpez.com
le 22/07/2018 à 13:22
Les débouchés je n'en ai rien à faire, ce n'est pas le sujet de mon message. Qu'il y ait un intérêt ou non, l'article vend une solution censée faire de l'"éthique" qui n'en fait pas. Donc ceux qui estiment y voir un intérêt n'auront pas de vrai solution au travers de ce qui est décrit dans cet article, c'est là le cœur de mon propos.

Par ailleurs, si la question des débouchés t'intéresse, une recherche rapide sur ton navigateur préféré t'aurait pourtant donné des tas de ressources à lire sur le sujet. L'intérêt premier d'avoir une machine capable de prendre des décisions éthiques est de pouvoir lui faire confiance : on s'appuie sur des tas d'outils basés sur l'apprentissage machine pour prendre des décisions, or tout informaticien un tant soit peu renseigné sur ces outils sait qu'ils fournissent des résultats biaisés. Qu'ils nous enferment dans notre bulle en se focalisant sur nos intérêts principaux, ou qu'ils reproduisent les discriminations de la société actuelle, ces outils ont des défauts d'ordre éthique. En termes de solution, on peut identifier différents procédés, dont celui de rendre la machine plus éthique. C'est ce dont il est question ici. Ce n'est pas le seul, mais c'en est un.
Contacter le responsable de la rubrique Accueil