
Toutefois, force est de constater qu'à ce jour, il n'existe aucun guide commun encadrant le domaine de l'intelligence artificielle notamment en édictant les bonnes pratiques en la matière. C'est donc dans l'optique de mettre en place ce guide que plusieurs spécialistes de l'IA et de la robotique se sont réunis lors de la conférence dénommée Beneficial AI 2017 organisée par le Future of Life Institute (FLI, institut pour l'avenir de la vie). La conférence s'est tenue à Asilomar, en Californie au mois de janvier dernier.
Pour rappel, le Future of Life Institute (FLI) est une association de volontaires basée dans la région de Boston, cherchant à diminuer les risques existentiels menaçant l’humanité, en particulier ceux provenant de l’intelligence artificielle (IA).
Aux termes de la rencontre, les spécialistes ont procédé à l'adoption de vingt-trois (23) principes baptisés « 23 principes d’Asilomar » et dont l'objectif est d'encadrer le développement de l'intelligence artificielle. D'après les informations recueillies, les principes ont été signés par 846 chercheurs spécialisés dans l'IA et la Robotique et par 1 270 autres spécialistes dans divers domaines. Les « 23 principes d’Asilomar » se présentent comme suit :
- Objectif des recherches : le but visé par les recherches en IA devrait être la création d'une intelligence artificielle bénéfique, et non une intelligence artificielle incontrôlable ;
- Investissements : les investissements dans l'IA devraient être accompagnés par un financement des recherches afin de garantir son usage bénéfique. Cela prend en compte les questions épineuses en matière d’informatique, d’économie, de loi, d’éthique et de sciences sociales telles que :
- comment pouvons-nous rendre les futures IA suffisamment robustes afin qu'elles puissent exécuter les ordres qui leur sont donnés sans dysfonctionnement ou sans risque d’être piratées ?
- comment pouvons-nous accroître notre prospérité grâce à l'automatisation tout en conservant les ressources humaines ?
- comment pouvons-nous mettre à jour nos systèmes juridiques pour les rendre plus équitables et plus efficaces dans la gestion des risques associés à l'IA ?
- Relations entre les scientifiques et les juridictions : il devrait y avoir un échange constructif et sain entre les chercheurs et les décideurs de l'intelligence articificielle ;
- Culture ou esprit de recherche : une culture de la coopération, la confiance et la transparence devrait être encouragée entre les chercheurs et les développeurs de l'IA ;
- Prévention : les équipes de développement des systèmes d'IA doivent coopérer activement pour éviter d'être en porte à faux avec les normes de sécurité ;
- Sécurité : les IA devraient être sécurisées durant tout le long de leur durée de vie opérationnelle grâce à des caractéristiques vérifiables et applicables.
- Transparence s'il y a des dommages : lorsqu'un système d'IA cause des dommages, il devrait être possible de déterminer la cause ;
- Transparence judiciaire : l'implication d'un système autonome dans une quelconque prise de décision judiciaire doit être corroborée par des explications satisfaisantes et susceptibles d'être auditées par une autorité humaine compétente ;
- Responsabilité : les concepteurs et les constructeurs de systèmes d'IA avancés sont responsables des conséquences morales découlant de leurs utilisations abusives et de leurs agissements. ;
- Concordance de valeurs : les systèmes d'IA autonomes devraient être conçus de manière à ce que leurs objectifs et les comportements soient conformes aux valeurs humaines ;
- Valeurs humaines : les systèmes d'IA devraient être conçus et exploités de manière à être compatibles avec les idéaux de la dignité humaine, les droits, les libertés et la diversité culturelle ;
- Données personnelles : chaque personne devrait avoir le droit d'accéder, de gérer et de contrôler ses données personnelles, compte tenu de la puissance des systèmes d'IA à analyser et utiliser ces données ;
- Liberté et vie privée : l'application de l'IA aux données personnelles ne doit pas restreindre indûment la liberté réelle ou perçue des personnes ;
- Bénéfice partagé : les technologies basées sur l'IA devraient bénéficier à autant de personnes que possible. La valorisation de ces dernières devrait également s'ensuivre ;
- Prospérité partagée : la prospérité économique créée par l'IA devrait être largement partagée, cela au bénéfice de toute l'humanité ;
- Contrôle humain : les humains devraient être en mesure de choisir s'ils veulent oui ou non déléguer des tâches aux systèmes IA pour atteindre les objectifs qu'ils se sont fixés ;
- Anti-renversement : les pouvoirs qui sont conférés à quelqu'un du fait qu'il contrôle des systèmes d'IA très avancés devraient respecter et améliorer les processus sociaux et civiques sur lesquelles le bien-être de la société repose
- Course aux IA d’armement : une course armements dans les armes autonomes mortelles basées sur l'IA devrait être évitée ;
- Alerte sur les capacités : s'il n'y a pas de consensus, il est vivement conseillé d'éviter de faire des hypothèses fortes concernant les limites supérieures des capacités des futures IA ;
- Importance : les systèmes d'IA avancés pourraient favoriser un important changement dans l’histoire de la vie sur Terre ; en cela ils devraient donc être gérés avec soin et avec de gros moyens ;
- Risques : les risques susceptibles d'être causés par les IA, en particulier les risques catastrophiques ou existentiels, doivent faire l'objet de prévision afin d'atténuer leur impact ;
- Auto-développement : les systèmes d'IA conçus pour s’autoaméliorer ou s’autorépliquer, au risque de devenir très nombreux ou très avancés, doivent faire l’objet d’un contrôle de sécurité rigoureux ;
- Bien commun : les IA super intelligentes ne doivent être développées que pour participer à des idéaux éthiques largement partagés, et pour le bien-être de l'humanité. Par conséquent, elles ne devraient pas être destinées à un État ou à une entreprise.
Toutefois, en marge de ses « 23 principes d’Asilomar », il est important de rappeler les trois (3) lois de la robotique qui ont été créées dans les années 1940 par l'écrivain russe Isaac Asimov. Il s'agit de :
- un robot ne peut porter atteinte à un être humain ni, en restant passif, permettre qu'un être humain soit exposé au danger ;
- un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
- un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.
« L'intelligence artificielle a déjà fourni des outils utiles qui sont utilisés tous les jours par des gens du monde entier. Son développement continu, guidé par les principes ci-dessus, offrira des opportunités incroyables pour aider et responsabiliser les gens dans les décennies et les siècles à venir. », a rapporté le Future of Life Institute (FLI).
Source : Le Future of Life Institute (FLI)
Et vous ?


Vous avez lu gratuitement 638 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.