IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Conférence Beneficial AI 2017 : les « 23 principes d'Asilomar » adoptés par les spécialistes
Pour encadrer le développement éthique de l'IA

Le , par Malick

13PARTAGES

6  1 
Depuis quelque temps, les initiatives et les collectifs œuvrant pour le développement éthique de l'intelligence artificielle (IA) ne cessent de se multiplier. Parmi ces derniers nous pouvons citer l'exemple du collectif dénommé « Partnership on AI » formé par Google, Microsoft, Facebook, IBM et Amazon afin de promouvoir et faire avancer les discussions sur l'IA. Apple a récemment rejoint ladite alliance en tant que membre fondateur. L'objectif de cette alliance est d'étudier et formuler les meilleures pratiques sur les technologies d'IA, pour faire avancer la compréhension de l'IA par le public, et servir de plateforme ouverte pour la discussion et l'engagement autour de l'intelligence artificielle et de son impact sur les personnes et la société. Rappelons également que Microsoft a annoncé en septembre dernier la création d'une nouvelle division pour le développement de l'intelligence artificielle.

Toutefois, force est de constater qu'à ce jour, il n'existe aucun guide commun encadrant le domaine de l'intelligence artificielle notamment en édictant les bonnes pratiques en la matière. C'est donc dans l'optique de mettre en place ce guide que plusieurs spécialistes de l'IA et de la robotique se sont réunis lors de la conférence dénommée Beneficial AI 2017 organisée par le Future of Life Institute (FLI, institut pour l'avenir de la vie). La conférence s'est tenue à Asilomar, en Californie au mois de janvier dernier.

Pour rappel, le Future of Life Institute (FLI) est une association de volontaires basée dans la région de Boston, cherchant à diminuer les risques existentiels menaçant l’humanité, en particulier ceux provenant de l’intelligence artificielle (IA).

Aux termes de la rencontre, les spécialistes ont procédé à l'adoption de vingt-trois (23) principes baptisés « 23 principes d’Asilomar » et dont l'objectif est d'encadrer le développement de l'intelligence artificielle. D'après les informations recueillies, les principes ont été signés par 846 chercheurs spécialisés dans l'IA et la Robotique et par 1 270 autres spécialistes dans divers domaines. Les « 23 principes d’Asilomar » se présentent comme suit :
  1. Objectif des recherches : le but visé par les recherches en IA devrait être la création d'une intelligence artificielle bénéfique, et non une intelligence artificielle incontrôlable ;
  2. Investissements : les investissements dans l'IA devraient être accompagnés par un financement des recherches afin de garantir son usage bénéfique. Cela prend en compte les questions épineuses en matière d’informatique, d’économie, de loi, d’éthique et de sciences sociales telles que :
    • comment pouvons-nous rendre les futures IA suffisamment robustes afin qu'elles puissent exécuter les ordres qui leur sont donnés sans dysfonctionnement ou sans risque d’être piratées ?
    • comment pouvons-nous accroître notre prospérité grâce à l'automatisation tout en conservant les ressources humaines ?
    • comment pouvons-nous mettre à jour nos systèmes juridiques pour les rendre plus équitables et plus efficaces dans la gestion des risques associés à l'IA ?

  3. Relations entre les scientifiques et les juridictions : il devrait y avoir un échange constructif et sain entre les chercheurs et les décideurs de l'intelligence articificielle ;
  4. Culture ou esprit de recherche : une culture de la coopération, la confiance et la transparence devrait être encouragée entre les chercheurs et les développeurs de l'IA ;
  5. Prévention : les équipes de développement des systèmes d'IA doivent coopérer activement pour éviter d'être en porte à faux avec les normes de sécurité ;
  6. Sécurité : les IA devraient être sécurisées durant tout le long de leur durée de vie opérationnelle grâce à des caractéristiques vérifiables et applicables.
  7. Transparence s'il y a des dommages : lorsqu'un système d'IA cause des dommages, il devrait être possible de déterminer la cause ;
  8. Transparence judiciaire : l'implication d'un système autonome dans une quelconque prise de décision judiciaire doit être corroborée par des explications satisfaisantes et susceptibles d'être auditées par une autorité humaine compétente ;
  9. Responsabilité : les concepteurs et les constructeurs de systèmes d'IA avancés sont responsables des conséquences morales découlant de leurs utilisations abusives et de leurs agissements. ;
  10. Concordance de valeurs : les systèmes d'IA autonomes devraient être conçus de manière à ce que leurs objectifs et les comportements soient conformes aux valeurs humaines ;
  11. Valeurs humaines : les systèmes d'IA devraient être conçus et exploités de manière à être compatibles avec les idéaux de la dignité humaine, les droits, les libertés et la diversité culturelle ;
  12. Données personnelles : chaque personne devrait avoir le droit d'accéder, de gérer et de contrôler ses données personnelles, compte tenu de la puissance des systèmes d'IA à analyser et utiliser ces données ;
  13. Liberté et vie privée : l'application de l'IA aux données personnelles ne doit pas restreindre indûment la liberté réelle ou perçue des personnes ;
  14. Bénéfice partagé : les technologies basées sur l'IA devraient bénéficier à autant de personnes que possible. La valorisation de ces dernières devrait également s'ensuivre ;
  15. Prospérité partagée : la prospérité économique créée par l'IA devrait être largement partagée, cela au bénéfice de toute l'humanité ;
  16. Contrôle humain : les humains devraient être en mesure de choisir s'ils veulent oui ou non déléguer des tâches aux systèmes IA pour atteindre les objectifs qu'ils se sont fixés ;
  17. Anti-renversement : les pouvoirs qui sont conférés à quelqu'un du fait qu'il contrôle des systèmes d'IA très avancés devraient respecter et améliorer les processus sociaux et civiques sur lesquelles le bien-être de la société repose
  18. Course aux IA d’armement : une course armements dans les armes autonomes mortelles basées sur l'IA devrait être évitée ;
  19. Alerte sur les capacités : s'il n'y a pas de consensus, il est vivement conseillé d'éviter de faire des hypothèses fortes concernant les limites supérieures des capacités des futures IA ;
  20. Importance : les systèmes d'IA avancés pourraient favoriser un important changement dans l’histoire de la vie sur Terre ; en cela ils devraient donc être gérés avec soin et avec de gros moyens ;
  21. Risques : les risques susceptibles d'être causés par les IA, en particulier les risques catastrophiques ou existentiels, doivent faire l'objet de prévision afin d'atténuer leur impact ;
  22. Auto-développement : les systèmes d'IA conçus pour s’autoaméliorer ou s’autorépliquer, au risque de devenir très nombreux ou très avancés, doivent faire l’objet d’un contrôle de sécurité rigoureux ;
  23. Bien commun : les IA super intelligentes ne doivent être développées que pour participer à des idéaux éthiques largement partagés, et pour le bien-être de l'humanité. Par conséquent, elles ne devraient pas être destinées à un État ou à une entreprise.



Toutefois, en marge de ses « 23 principes d’Asilomar », il est important de rappeler les trois (3) lois de la robotique qui ont été créées dans les années 1940 par l'écrivain russe Isaac Asimov. Il s'agit de :
  • un robot ne peut porter atteinte à un être humain ni, en restant passif, permettre qu'un être humain soit exposé au danger ;
  • un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  • un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.

« L'intelligence artificielle a déjà fourni des outils utiles qui sont utilisés tous les jours par des gens du monde entier. Son développement continu, guidé par les principes ci-dessus, offrira des opportunités incroyables pour aider et responsabiliser les gens dans les décennies et les siècles à venir. », a rapporté le Future of Life Institute (FLI).

Source : Le Future of Life Institute (FLI)

Et vous ?

Que pensez-vous de ces principes ?

Pensez-vous que tous les acteurs de l'IA vont s'y conformer ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 02/02/2017 à 7:09
Citation Envoyé par Malick SECK Voir le message
Toutefois, en marge de ses « 23 principes d’Asilomar », il est important de rappeler les trois (3) lois de la robotique qui ont été créées dans les années 1940 par l'écrivain russe Isaac Asimov.
Je n'en vois pas l'intérêt, non. Ces lois viennent de l'imaginaire d'un écrivain et ont déjà montré leurs limites depuis longtemps, y compris par l'écrivain lui-même si je ne m'abuse. Comparer cela à une initiative scientifique me semble inadapté. Quoi que vu les principes, on reste dans le même genre. Plus de détails au point suivant.

Citation Envoyé par Malick SECK Voir le message
Que pensez-vous de ces principes ?
Que c'est une bonne initiative mais encore trop préliminaire. Les interprétations peuvent aller dans tous les sens. En l'occurrence, dès le premier point ça tombe à l'eau : on parle de faire de la "beneficial intelligence", or beneficial veut simplement dire de produire quelque chose qui nous apporte un bénéfice. Question : qui produit une chose pour laquelle il ne tire aucun bénéfice ? Personne. Même si on est forcé de faire quelque chose, on le fait car c'est dans notre intérêt de le faire (pour éviter un pire traitement par exemple). D'ailleurs, qui irait critiquer quelqu'un d'avoir fait une IA malveillante car il était séquestré dans un bunker avec sa famille prise en otage ? Qui lui jettera la première pierre en affirmant qu'il aurait du choisir la mort de lui et sa famille plutôt que de développer une telle IA ? Ces principes sont déjà friables dès le départ. Ceux qui signent ça le font parce qu'ils peuvent en tirer une interprétation qui leur va, en sachant que ça n'engage à rien (je développe plus loin).

Ensuite, les principes c'est bien joli, mais rien n'empêchera quelqu'un de mal intentionné de faire une IA malveillante. Or le second point espère faire des "AI systems highly robust, so that they do what we want without malfunctioning or getting hacked". En mettant de côté l'utopisme d'une IA parfaite (à moins qu'elle soit intégralement formulable de manière formelle, et encore avec un formalisme assez restreint pour que ça reste prouvable, autrement dit une IA finalement assez réduite en fonctionnalités et donc pas si utile), on n'envisage ici que les usages positifs, ce qui ne me semble pas souhaitable. Si c'est quelqu'un de mal intentionné qui l'utilise, voudra-t-on vraiment que l'IA soit inattaquable ? Pour éviter cela, il faudrait que l'IA soit suffisamment autonome avec un biais envers des bénéfices supérieurs (je laisse à chacun le soin de mettre ce qu'ils veulent derrière ces termes), ce qui revient à dire que finalement cette IA ne devrait pas faire ce qu'on veut d'elle... à moins que ce ne soit un "nous" d'ordre général, après tout le point 10 demande à ce que l'autonomie d'une IA soit alignée sur les valeurs humaines... sauf que des valeurs humaines, il y en a des tonnes et toutes ne sont pas partagées. On pourrait parler des droits de l'Homme (si au moins c’était dit explicitement), mais avant de garantir que l'IA les respectent il faudrait arriver à formaliser ces droits. Bref, je pense qu'il va encore falloir compter sur l'éthique de l'utilisateur pendant un bon moment, et perso je doute que ça change. Surtout qu'on parle ici de principes, et non d'engagements.

Parlons d'engagement justement : par exemple les points 5 et 18, qui parlent du manque de respect des normes de sécurité et de la course aux armements qui devraient être évités (should be avoided), et non pas qui doivent être condamnés, amenant les signataires à refuser d'en produire. Donc si on s'autorise à le faire quand même, après tout ça peut tout à fait être considéré comme "beneficial" en fonction des valeurs humaines qu'on place en haut de liste, finalement ces principes n'ont pas grand chose à dire. Est-ce que la charte de Munich dit qu'un journaliste devrait éviter de déformer la vérité ou éviter de révéler ses sources ? Non, il doit "Respecter la vérité, quelles qu’en puissent être les conséquences pour lui-même". Est-ce que le serment d’Archimède parle d'éviter d'utiliser ses connaissances à des fins destructrices ? Non, il l'interdit. Quid du serment d'Hippocrate pour les médecins ?

Bref, je ne vais pas critiquer chaque point : cette liste s'est construite en rassemblant des tas de propositions, puis en ne gardant que celles qui obtenaient 90% de pour (quid des abstentions ? j'en sais rien). Du coup, il n'y a pas vraiment de fil rouge dans ces principes, qui permettrait de garantir une certaine vision avec une certaine cohérence. C'est juste un fourre-tout fait via un sondage de popularité. En politique on parlerait d'un programme populiste, où on met ce qui plaît sans vraiment chercher à savoir ce que ça implique. Donc je salue l'initiative, mais pour moi il y a encore beaucoup de boulot.

Citation Envoyé par Malick SECK Voir le message
Pensez-vous que tous les acteurs de l'IA vont s'y conformer ?
Non, et cela pour une raison simple : je suis postdoc en IA, on m'a proposé de le signer et j'ai refusé. Le pourquoi devrait être clair à la vue du point précédent. Je signerais le jour où ça stipulera des engagements en lesquels je crois. D'ici là, pour moi ça reste de la pub pour les collectifs concernés.
6  1 
Avatar de lulu7
Inactif https://www.developpez.com
Le 02/02/2017 à 14:12
On as un exemple typique de conférence inutile. On paye des "chercheurs" pour faire du bullshit et une conclusion vague qui n'apporte rien de concret, reste floue, manque de rigueur (un comble pour des chercheurs).

J'ai lu le résumé de leurs blabla en VO et franchement a part y voir des humanistes en PLS y'a rien d’intéressant à en retirer.

Je remet en doute ce genre d'initiative, car il s'agit que de paroles : pas d'algo, pas de code et encore moins de lois.
C'est l'équivalent d'un discours Miss France.
2  0