IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

IA : un algorithme permettant de faire des recommandations en suivant des règles d'éthique
A été mis au point par des chercheurs d'IBM et du MIT

Le , par Bill Fassinou

646PARTAGES

14  0 
Depuis quelques années, les recherches et expériences en intelligence artificielle sont de plus en plus poussées. L’Homme essaie de concevoir des machines qui se comporteraient exactement comme lui, qui pourraient analyser les situations de la vie et y apporter des réponses contextuelles et qui disposeraient d’une faculté d’adaptation comparable à celle des humains. Cet objectif semble de plus en plus proche étant donné les récentes avancées observées. Après les agents intelligents qui battent les humains à des jeux vidéo, des algorithmes qui réussissent à s’intégrer à une équipe et à collaborer, un robot aérospatial doté d'intelligence artificielle envoyé dans l’espace pour prêter main-forte aux astronautes, voici maintenant une intelligence artificielle qui serait capable de suivre des normes éthiques.

En effet, un collectif de scientifiques d’IBM Research et du MIT Media Lab dirigé par Francesca Rossi, la responsable de l’éthique des intelligences artificielles chez IBM Research, a créé une technique de recommandation par intelligence artificielle qui ne se contenterait pas de suggérer les meilleurs résultats à l’utilisateur, mais qui prendrait également en compte d’autres contraintes telles que les règles éthiques et comportementales. Il faut avouer que jusque-là, les tentatives pour intégrer des règles éthiques aux intelligences artificielles n’ont pas connu un franc succès, puisque les développeurs se contentaient de designer un produit ou une catégorie en particulier que l’algorithme doit éviter de recommander.


Mais, au fil des années et au fur et à mesure que les tentatives se faisaient, Internet a montré qu’il n’était pas le genre d’endroits où les règles pouvaient être posées et laissées statiques. « Dans beaucoup de choses sur Internet, dans les zones avec de grandes quantités de données, on ne peut pas toujours établir exactement toutes les règles que vous voulez que la machine suive », nous apprend Nicholas Mattei, un chercheur d’IBM Research et un membre du collectif qui a développé cette approche.

Les chercheurs se sont servis de la recommandation de films pour tester leur algorithme, puisque c’est un domaine où la différence entre les préférences des utilisateurs et les normes éthiques est clairement visible. Ils ont démontré le fonctionnement de l’algorithme dans un système de recommandation de films qui permettait aux parents de fixer des contraintes morales pour leurs enfants. Par exemple, les parents voudraient empêcher des services de vidéos en streaming de diffuser de contenu inapproprié à leurs enfants, et ce, même si ces derniers montraient une réaction positive à ce type de contenu. L’entraînement de l’intelligence artificielle à la technique de recommandation s’est articulé autour de deux grandes phases :

  • l’étape hors-ligne au cours de laquelle un arbitre (ici le parent) donne au système des exemples de contenu approprié et de contenu non approprié. Le système devrait alors être en mesure d’apprendre de ces exemples et de les utiliser pour ne pas recommander certains types de contenus à l'utilisateur (ici l’enfant) ;
  • l’étape en ligne, qui se déroule en interaction directe avec l’utilisateur final. L’algorithme optimise ses résultats pour les préférences de l’utilisateur et en montrant du contenu avec lequel l’utilisateur sera le plus enclin à interagir.

Les chercheurs ont tenu à rappeler qu’en essayant de respecter à la fois les règles éthiques et les préférences de l’utilisateur, un algorithme pouvait se retrouver devant un casse-tête puisqu’il pouvait arriver que les deux soient contradictoires. Et, dans ce cas de figure, l’arbitre susmentionné a la prérogative de déterminer un seuil définissant le niveau de priorité accordée aux règles éthiques et aux préférences de manière à obtenir un consensus.

Le nouvel algorithme a été testé sur différentes situations dans différents domaines. En clôture de leur propos, les chercheurs admettent que pour que leur méthode fonctionne de manière optimale, il fallait qu’il y ait deux utilisateurs, un qui définirait les règles éthiques et l’autre qui serait l’utilisateur final. Le fait que la grande majorité des applications que nous utilisons sur Internet ne requièrent des interactions qu’avec un seul utilisateur implique que chaque utilisateur doit définir les règles d’éthique qui lui seront appliquées. Les utilisateurs pourraient aussi choisir un ami ou un membre de la famille pour définir leurs contraintes et règles éthiques.

Source : News Vire

Et vous ?

Que pensez-vous de cette avancée dans le domaine de l’intelligence artificielle ?
Selon vous, quelles applications pourraient être faites de cette nouvelle méthode ?

Voir aussi

Un robot aérospatial doté d'intelligence artificielle sur la Station spatiale internationale (ISS) pour assister les astronautes dans leurs missions

Cinq algorithmes d'IA font équipe pour écraser des humains au Dota 2, un jeu d'équipe connu pour être extrêmement compliqué

IA : des agents intelligents de DeepMind battent le record des humains au Quake III, un jeu de tir en vue subjective

IA : des chercheurs de Google développent un algorithme capable de créer des scènes 3D à partir d'images bidimensionnelles

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 18/07/2018 à 23:07
Manque de bol, la source de cet article est un autre article de news (à l'anglais douteux) lui-même sans source. J'aurais bien aimé voir l'article scientifique dont il est question. À défaut, on se contentera de ce qu'on a ici.

Citation Envoyé par Bill Fassinou Voir le message
IA : un algorithme permettant de faire des recommandations en suivant des règles d'éthique
Citation Envoyé par Bill Fassinou Voir le message
  • l’étape hors-ligne au cours de laquelle un arbitre (ici le parent) donne au système des exemples de contenu approprié et de contenu non approprié. Le système devrait alors être en mesure d’apprendre de ces exemples et de les utiliser pour ne pas recommander certains types de contenus à l'utilisateur (ici l’enfant) ;
  • l’étape en ligne, qui se déroule en interaction directe avec l’utilisateur final. L’algorithme optimise ses résultats pour les préférences de l’utilisateur et en montrant du contenu avec lequel l’utilisateur sera le plus enclin à interagir.
Encore une fois, beaucoup de bruit pour pas grand chose.
NON, il n'y a pas de règle d'éthique où que ce soit ici. Il n'y a même pas de règle du tout.
On se contente de définir 2 systèmes de recommandations :
- le premier identifie les œuvres à ne pas recommander sur la base d'un arbitre
- le second identifie les œuvres à recommander sur la base de l'utilisateur final

Si l'arbitre est biaisé, par exemple un parent chrétien hyper-croyant qui estime que la science -ou une autre religion- est l’œuvre du diable car contre la bible, et bien l'enfant n'aura droit à aucune recommandation d’œuvre scientifique. Ce n'est pas une question d'éthique, c'est de l'arbitraire contre l'arbitraire, avec l'un des deux prioritaire sur l'autre (même pondéré, car pondéré par le même arbitre).

Citation Envoyé par Bill Fassinou Voir le message
Les chercheurs ont tenu à rappeler qu’en essayant de respecter à la fois les règles éthiques et les préférences de l’utilisateur, un algorithme pouvait se retrouver devant un casse-tête puisqu’il pouvait arriver que les deux soient contradictoires. Et, dans ce cas de figure, l’arbitre susmentionné a la prérogative de déterminer un seuil définissant le niveau de priorité accordée aux règles éthiques et aux préférences de manière à obtenir un consensus.
Qu'on passe par des règles précises ou un système de recommandation, la problématique du conflit reste la même. La solution est alors de définir une priorité. Avec une règle précise, il s'agit de dire qui est prioritaire sur l'autre. Si des calculs sont faits pour plus de flexibilité, on peut se baser sur un score. Dans le cas de recommandations, on a aussi la flexibilité d'un score, mais par contre on perd toute la clarté d'une règle : on sait qu'en étant plus restrictif, la recommandation de l'arbitre sera davantage respectée, mais on n'a aucune idée de l'impact concret que ça aura sur les résultats (si j'augmente la priorité de autant, quelles/combien d'œuvres ne seront plus recommandées ?).

Citation Envoyé par Bill Fassinou Voir le message
Il faut avouer que jusque-là, les tentatives pour intégrer des règles éthiques aux intelligences artificielles n’ont pas connu un franc succès, puisque les développeurs se contentaient de designer un produit ou une catégorie en particulier que l’algorithme doit éviter de recommander.
Là on apprend de quoi est composé la catégorie en question. C'est mieux, mais ça n'est pas plus éthique. Il s'agit de généraliser à partir d'exemples arbitrairement choisis plutôt que d'utiliser des critères précis. C'est plus facile, mais plus vague. Les soi-disant "règles" disparaissent, eut-elles été éthiques ou pas.

Si au moins il avait été question de demander à des gens d'associer des œuvres à des règles d'éthique, de façon à apprendre les filtres sur des règles concrètes pour n'avoir à proposer aux parents qu'une liste de filtres éthiques à choisir. Là on aurait été dans le sujet. Il n'aurait pas été question de protéger qui que ce soit en particulier (une source de biais énorme), ni de limiter l'apprentissage à un arbitre particulier (autre source de biais énorme), mais de faire des associations d'ordre statistique à des règles générales.

En bref, nulle question d'éthique ici. On botte en touche : c'est l'arbitre qui décide. On propose juste aux parents de leur éviter de devoir être derrière leurs enfants 24/7 en entraînant un agent de pré-filtrage à la place.
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 22/07/2018 à 13:22
Les débouchés je n'en ai rien à faire, ce n'est pas le sujet de mon message. Qu'il y ait un intérêt ou non, l'article vend une solution censée faire de l'"éthique" qui n'en fait pas. Donc ceux qui estiment y voir un intérêt n'auront pas de vrai solution au travers de ce qui est décrit dans cet article, c'est là le cœur de mon propos.

Par ailleurs, si la question des débouchés t'intéresse, une recherche rapide sur ton navigateur préféré t'aurait pourtant donné des tas de ressources à lire sur le sujet. L'intérêt premier d'avoir une machine capable de prendre des décisions éthiques est de pouvoir lui faire confiance : on s'appuie sur des tas d'outils basés sur l'apprentissage machine pour prendre des décisions, or tout informaticien un tant soit peu renseigné sur ces outils sait qu'ils fournissent des résultats biaisés. Qu'ils nous enferment dans notre bulle en se focalisant sur nos intérêts principaux, ou qu'ils reproduisent les discriminations de la société actuelle, ces outils ont des défauts d'ordre éthique. En termes de solution, on peut identifier différents procédés, dont celui de rendre la machine plus éthique. C'est ce dont il est question ici. Ce n'est pas le seul, mais c'en est un.
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 17/11/2018 à 18:53
Je ne t'inviterai pas à poursuivre, du moins pas de suite, mais plutôt à retravailler ton discours pour le rendre accessible à la majorité. Car jusque là, je n'arrive pas à donner beaucoup de sens à tes posts. Autant je n'ai rien contre un discours aux termes très précis, autant dans un espace grand public, tel que celui-ci, il faut savoir compromettre sa précision au profit d'une meilleure accessibilité (compréhension pour une audience plus large). Sinon mieux vaut chercher les forums spécialisés sur lesdits sujets.
1  0 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 20/07/2018 à 4:14
Citation Envoyé par Matthieu Vergne Voir le message
Manque de bol, la source de cet article est un autre article de news (à l'anglais douteux) lui-même sans source. J'aurais bien aimé voir l'article scientifique dont il est question. À défaut, on se contentera de ce qu'on a ici.

Encore une fois, beaucoup de bruit pour pas grand chose.
NON, il n'y a pas de règle d'éthique où que ce soit ici. Il n'y a même pas de règle du tout.
On se contente de définir 2 systèmes de recommandations :
- le premier identifie les œuvres à ne pas recommander sur la base d'un arbitre
- le second identifie les œuvres à recommander sur la base de l'utilisateur final

J'en suis pas aussi sûr. Avec un cahier charge de ce type, cela me fait penser au caractéristique que devrait avoir un modérateur artificiel. l'UE (en particulier l'Allemagne) demande beaucoup de truc aux réseaux sociaux qui sont assez coûteux. L'utilisation d'un IA serait un argument en or pour expliquer certaine censures. Il n'y a que les idiots qui investissement sans avoir un débouché commercial pour le produit.
0  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 20/07/2018 à 9:45
Wechat le fait déjà avec les mots interdits dans le cadre de la Grande muraille en CHine
0  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 20/07/2018 à 20:16
Citation Envoyé par Madmac Voir le message
J'en suis pas aussi sûr. Avec un cahier charge de ce type, cela me fait penser au caractéristique que devrait avoir un modérateur artificiel.
Oui, c'est de la modération au sens large : il s'agit d'apprendre à filtrer. Mon propos est que cette modération n'a aucun lien spécifique avec l'éthique, sujet principal de l'article. Si quelqu'un se dit "tiens, je vais ajouter ça à mon site pour faire des recommandations plus éthique", il tomberait de haut en se rendant compte que c'est en fait à lui à fournir les ressources pour enseigner à la machine comment l'être... ce qui au final revient à avoir un modérateur humain.
0  0 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 22/07/2018 à 6:38
Citation Envoyé par Matthieu Vergne Voir le message
Oui, c'est de la modération au sens large : il s'agit d'apprendre à filtrer. Mon propos est que cette modération n'a aucun lien spécifique avec l'éthique, sujet principal de l'article. Si quelqu'un se dit "tiens, je vais ajouter ça à mon site pour faire des recommandations plus éthique", il tomberait de haut en se rendant compte que c'est en fait à lui à fournir les ressources pour enseigner à la machine comment l'être... ce qui au final revient à avoir un modérateur humain.

Quel sont les débouchés potentiels selon toi? La confession par une IA ? Pas de chance, le Vatican a des problèmes de finance. J'imagine les conséquences sur un robot militaire: Faite l'amour, pas la guerre !

Sérieusement, je vois pas beaucoup de débouchés pour ce type d'application.
0  0 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 13/10/2018 à 0:24
Citation Envoyé par Matthieu Vergne Voir le message
Les débouchés je n'en ai rien à faire, ce n'est pas le sujet de mon message. Qu'il y ait un intérêt ou non, l'article vend une solution censée faire de l'"éthique" qui n'en fait pas. Donc ceux qui estiment y voir un intérêt n'auront pas de vrai solution au travers de ce qui est décrit dans cet article, c'est là le cœur de mon propos.
.
Ça devrait intéresser pourtant l’intéressé parce que cela va être le talon d’Achille pour presque touts les domaines pour laquelle ont pourrait être tenté d'utiliser l' applications d'intelligences artificielle. Imagine la situation suivantes. une voiture Uber dérape sur une route verglacé, l'analyse de la situation lui permet seulement deux options:

- La première lui permet de sauver son passager, mais en tuant 2 personnes.
- Et la seconde permet de sauver 2 personnes, mais tue le client.

Même les tâches qui ne traitent pas éthique ou de morale vont probablement être confronté à contraintes qui relèvent d'éthique ou de morale. Ôtant dire que pour ces tâches l'IA n'est une solution viable. C'est pour cela que les débouchés doivent être évaluer sous cet angle afin de voir si il existe des risques d'être confronté à ce type de problème.

Et le second problème, est de définir si on travail avec un ensemble fermée de problèmes et de solutions. Tous les programmes de AI ont ce problème: Ils ne sont en mesure de répondre que pour les questions pour laquelle ils ont une solution. Il existe bien la méthode qui utilise des 'cadres' qui permet des solutions, Mais cela suppose que le contexte accepte des suppositions.

Le modèle par cadre fonctionne par similitudes. Plus le nombre de similitudes est élevé, plus supposition a des chances d'être exacte. Imaginons le cas ou nous devons nourrir un ours blanc. Mais que nous avons de la documentation sur les ours noir et brun. À partir de cette documentation, il est possible de faire une supposition avec un degré de certitude acceptable.

Mais avec des questions qui relèvent de morale ou éthique les suppositions acceptables sont en nombres infinies. Donc déterminé la meilleure est impossible parce c'est du domaine de l'arbitraire.

Je sais que ce fil est vieux, mais j'étais dans la rénovation jusqu'au coup.
0  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 13/10/2018 à 1:12
Je sais très bien que l'éthique est un des talons d'Achille (et non le seul) en IA. Évidemment que le sujet lui-même est intéressant et qu'il mérite toute notre attention. Mais l'article qui nous intéresse ici n'est pas sur le sujet de l'éthique, mais sur un moyen de le couvrir. Il s'agit donc de ne pas faire un hors sujet. Et ton dilemme du tramway ne change rien à l'affaire.

L'apprentissage machine, c'est du copier-coller de l'humain (et plus généralement du vivant) vers la machine. Construire sur ce genre de solution, ça revient à dire "j'ai une solution technique pour reproduire, reste à savoir quoi reproduire". La plupart des articles d'IA se focalisent là dessus, sur la solution technique, mais ils sont à côté de la plaque. Si on parle de machine qui doivent pouvoir faire une chose spécifique, alors tout le travail est non pas sur l'apprentissage lui-même, mais sur la construction du jeu d'apprentissage à lui fournir en entrée : comment faire pour s'assurer que ce jeu est représentatif du comportement souhaité (ici un comportement éthique) ? Quand on lit un article qui parle de faire X avec une IA, c'est sur cette construction du jeu qu'il faut se focaliser. Les techniques de reproduction, on en a, aucun soucis avec ça. C'est évidemment améliorable, mais indépendamment de ce qu'on lui met en entrée. La question doit se focaliser sur la construction du jeu d'apprentissage. Or, ici, le jeu fournit n'apporte aucune garantie d'un point de vue éthique. Tout au plus ça fait des hypothèses bancales en faisant le raccourci "papa maman a dit = éthique". La solution proposée est un filtre parental, pas une IA éthique.

Ceux qui pourront faire des IA éthiques sont ceux qui se focaliseront sur ce que sont les propriétés d'un comportement éthique et sur comment les maximiser au sein d'un jeu d'apprentissage. Pas ceux qui tourneront en rond sur la partie technique comme des papillons de nuit autour d'un lampadaire. C'est de la recherche fondamentale qu'il nous faut ici, pas appliquée.
0  0 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 02/11/2018 à 3:00
Citation Envoyé par Matthieu Vergne Voir le message
Je sais très bien que l'éthique est un des talons d'Achille (et non le seul) en IA. Évidemment que le sujet lui-même est intéressant et qu'il mérite toute notre attention. Mais l'article qui nous intéresse ici n'est pas sur le sujet de l'éthique, mais sur un moyen de le couvrir. Il s'agit donc de ne pas faire un hors sujet. Et ton dilemme du tramway ne change rien à l'affaire.

L'apprentissage machine, c'est du copier-coller de l'humain (et plus généralement du vivant) vers la machine. Construire sur ce genre de solution, ça revient à dire "j'ai une solution technique pour reproduire, reste à savoir quoi reproduire". La plupart des articles d'IA se focalisent là dessus, sur la solution technique, mais ils sont à côté de la plaque. Si on parle de machine qui doivent pouvoir faire une chose spécifique, alors tout le travail est non pas sur l'apprentissage lui-même, mais sur la construction du jeu d'apprentissage à lui fournir en entrée : comment faire pour s'assurer que ce jeu est représentatif du comportement souhaité (ici un comportement éthique) ? Quand on lit un article qui parle de faire X avec une IA, c'est sur cette construction du jeu qu'il faut se focaliser. Les techniques de reproduction, on en a, aucun soucis avec ça. C'est évidemment améliorable, mais indépendamment de ce qu'on lui met en entrée. La question doit se focaliser sur la construction du jeu d'apprentissage. Or, ici, le jeu fournit n'apporte aucune garantie d'un point de vue éthique. Tout au plus ça fait des hypothèses bancales en faisant le raccourci "papa maman a dit = éthique". La solution proposée est un filtre parental, pas une IA éthique.

Ceux qui pourront faire des IA éthiques sont ceux qui se focaliseront sur ce que sont les propriétés d'un comportement éthique et sur comment les maximiser au sein d'un jeu d'apprentissage. Pas ceux qui tourneront en rond sur la partie technique comme des papillons de nuit autour d'un lampadaire. C'est de la recherche fondamentale qu'il nous faut ici, pas appliquée.

Ok, je met de coté le problème d'établir ce qui acceptable et ce qui n'est pas acceptable qui peut varier selon chaque individu. Le seconde difficulté est d'établir un algorithme qui permet une compréhension réelle d'un texte. Des artifices à la façon d'éliza ne suffiront pas pour ce type de tâche. Et à ma connaissance cela n'a pas été réaliser. Donc si cette solution est inexistante, leur solution doit reposer sur la reconnaissance de pattern style réseaux de neurones. À différence que l'entrainement ne repose pas sur des reconnaissances de formes. Mais sur la reconnaissance de combinaisons de mot-clés .

Le nouvel algorithme a été testé sur différentes situations dans différents domaines. En clôture de leur propos, les chercheurs admettent que pour que leur méthode fonctionne de manière optimale, il fallait qu’il y ait deux utilisateurs, un qui définirait les règles éthiques et l’autre qui serait l’utilisateur final. Le fait que la grande majorité des applications que nous utilisons sur Internet ne requièrent des interactions qu’avec un seul utilisateur implique que chaque utilisateur doit définir les règles d’éthique qui lui seront appliquées. Les utilisateurs pourraient aussi choisir un ami ou un membre de la famille pour définir leurs contraintes et règles éthiques.
Cette partie de ton introduction me suggère que le mécanisme central de ce projet est un système-expert avec une couche qui permet de transformer des recommandations de l'arbitre en règle d'inférence. d'une façon interactive. L'utilisateur final sert sans doute à étoffer les réponses, si je questionne 3 personnes et que je reçois trois réponses différentes. Il y a une forte chance que les personnes ont considéré la réponse avec un facteur non énoncé. Et que de fait ma banque de règles soit incomplète.
0  0