Les experts de l'Union européenne publient le premier draft sur les lignes directrices d'une IA éthique
La version finale est attendue en mars 2019

Le , par Stéphane le calme

81PARTAGES

13  0 
Mi-juin 2018, la Commission européenne a nommé 52 experts au sein du nouveau groupe de haut niveau sur l'intelligence artificielle (le High Level Expert Group on Artificial Intelligence). Le groupe, composé de représentants du monde universitaire, des entreprises et de la société civile, avait pour vocation de soutenir la mise en œuvre de la communication de l'UE sur l'intelligence artificielle publiée en avril 2018.

Citation Envoyé par Bruxelles
Le groupe d'experts de haut niveau formulera des recommandations sur la manière de relever les défis et les opportunités à moyen et à long terme liés à l'intelligence artificielle. Les recommandations alimenteront le processus d'élaboration des politiques, le processus d'évaluation législative et l'élaboration d'une stratégie numérique de prochaine génération. Le groupe préparera également un projet de lignes directrices sur l'éthique qui s'appuiera sur les travaux du groupe européen d'éthique des sciences et des nouvelles technologies et de l'Agence des droits fondamentaux de l'Union européenne dans ce domaine. Les lignes directrices couvriront des questions telles que l'équité, la sécurité, la transparence, l'avenir du travail et plus largement l'impact sur le respect des droits fondamentaux, y compris la protection de la vie privée et des données personnelles, la dignité, la protection des consommateurs et la non-discrimination. Le projet de lignes directrices sera finalisé d'ici la fin de l'année et présenté à la Commission au début de 2019.
C’est donc dans le cadre de ses fonctions, mais également des délais imposés par Bruxelles, que le AI HLEG (High Level Group on Artificial Intelligence) a publié le premier draft sur les lignes directrices sur l'éthique pour une IA de confiance.

Définitions

Avant d’aller dans le vif du sujet, ils ont commencé par donner quelques définitions, notamment :

Intelligence artificielle ou IA:

L’intelligence artificielle (IA) fait référence à des systèmes conçus par des humains qui, face à un objectif complexe, agissent dans le monde physique ou numérique en percevant leur environnement, en interprétant les données collectées, données structurées ou non structurées, raisonnant sur les connaissances tirées de ces données et décidant de la (des) meilleure (s) mesure (s) à prendre (selon des paramètres prédéfinis) pour atteindre l’objectif. Les systèmes d'intelligence artificielle peuvent également être conçus pour apprendre à adapter leur comportement en analysant la manière dont l'environnement est affecté par leurs actions précédentes.

En tant que discipline scientifique, l'intelligence artificielle comprend plusieurs approches et techniques, telles que l'apprentissage automatique (dont l'apprentissage en profondeur et l'apprentissage par renforcement sont des exemples spécifiques), le raisonnement automatique (planification, ordonnancement, représentation et raisonnement des connaissances, recherche et optimisation), et la robotique (qui comprend le contrôle, la perception, les capteurs et les actionneurs, ainsi que l'intégration de toutes les autres techniques dans des systèmes cyberphysiques).

Partialité (bias):

Une partialité est un préjudice pour ou contre quelque chose ou quelqu'un qui peut entraîner des décisions injustes. On sait que les humains sont biaisés dans leur prise de décision. Comme les systèmes d'IA sont conçus par des humains, il est possible que les humains leur injectent leurs préjugés, même de manière non intentionnelle. De nombreux systèmes d'IA actuels reposent sur des techniques d'apprentissage automatique. Par conséquent, un moyen prédominant d’injecter de la partialité peut être la collecte et la sélection de données d’entraînement. Si les données de formation ne sont pas assez complètes et équilibrées, le système pourrait apprendre à prendre des décisions injustes. En même temps, l'IA peut aider les humains à identifier leurs partialités et les aider à prendre des décisions moins biaisées.

But éthique:

Dans ce document, le but éthique est utilisé pour indiquer le développement, le déploiement et l'utilisation de l'intelligence artificielle garantissant le respect des droits fondamentaux et de la réglementation applicable, ainsi que le respect des principes et valeurs fondamentaux. C’est l’un des deux éléments essentiels pour parvenir à une IA digne de confiance.


IA centrée sur l'homme:

L’approche centrée sur l’être humain vis-à-vis de l’IA s’efforce de faire en sorte que les valeurs humaines soient toujours au premier rang des préoccupations et nous oblige à garder à l’esprit que le développement et l’utilisation de l’IA ne doivent pas être considérés comme un moyen en soi, mais dans le but bien-être.

IA digne de confiance:

Une IA digne de confiance comporte deux éléments: (1) son développement, son déploiement et son utilisation doivent respecter les droits fondamentaux et la réglementation applicable, ainsi que les principes et valeurs fondamentaux garantissant un «objectif éthique», et (2) être robustes et fiables sur le plan technique.

Constitution du draft

Chaque chapitre des directives fournit des conseils sur la réalisation d'une IA digne de confiance, adressés à toutes les parties prenantes concernées développant, déployant ou utilisant une IA, résumé ci-dessous:

Chapitre I: Principales lignes directrices pour garantir un objectif éthique
  • Veiller à ce que l'IA soit centrée sur l'humain : l'IA devrait être développée, déployée et utilisée dans un « but éthique », fondé sur les droits fondamentaux, les valeurs sociales et les principes éthiques de bienfaisance (faire le bien), de non-malfaisance (ne pas nuire), autonomie des humains, justice et explicabilité. Ceci est crucial pour aller vers une IA digne de confiance.
  • S'appuyer sur les droits fondamentaux , les principes éthiques et les valeurs pour évaluer de manière prospective les effets possibles de l'IA sur l'homme et le bien commun. Porter une attention particulière aux situations impliquant des groupes plus vulnérables tels que les enfants, les personnes handicapées ou des minorités, ou aux situations d'asymétrie de pouvoir ou d'information, telles qu'entre employeurs et employés, ou entre entreprises et consommateurs.
  • Reconnaître et être conscient du fait que, tout en apportant des avantages substantiels aux individus et à la société, l'IA peut également avoir un impact négatif. Rester vigilant pour les domaines critiques.

Chapitre II: Conseils clés pour réaliser une IA digne de confiance
  • Intégrer les exigences relatives à l'IA de confiance dès la première phase de conception: responsabilité, gouvernance des données, conception pour tous, gouvernance de l'autonomie de l'IA (surveillance humaine), non-discrimination, respect de l'autonomie humaine, respect de la vie privée, robustesse, sécurité, transparence.
  • Envisager des méthodes techniques et non techniques pour assurer la mise en œuvre de ces exigences dans le système d'IA. De plus, tenir compte de ces exigences lors de la constitution d’une équipe chargée de travailler sur le système, le système lui-même, l’environnement de test et les applications potentielles du système.



La réaction de Bruxelles à ce premier draft

Le vice-président de la Commission pour le marché unique numérique, Andrus Ansip, et la commissaire en charge de l'économie et de la société numériques, Mariya Gabriel, ont remercié le groupe pour leur travail.

Andrus Ansip, vice-président de la Commission pour le marché unique numérique, a déclaré :

Citation Envoyé par Andrus Ansip
L'intelligence artificielle peut apporter d'importants avantages à nos sociétés, qu'il s'agisse de diagnostiquer et de guérir le cancer ou de réduire la consommation d'énergie. Mais pour que les gens acceptent et utilisent des systèmes basés sur l'IA, ils doivent leur faire confiance, savoir que leur vie privée est respectée, que leurs décisions ne sont pas biaisées. Le travail du groupe d’experts est très important à cet égard et j’encourage tout le monde à faire part de ses commentaires pour aider à la finalisation des directives.
La commissaire à l'économie et à la société numériques, Mariya Gabriel, a ajouté:

Citation Envoyé par Mariya Gabriel
L’utilisation de l’intelligence artificielle, comme l’utilisation de toutes les technologies, doit toujours être alignée sur nos valeurs fondamentales et respecter les droits fondamentaux. Le but des directives en matière d’éthique est de garantir cela dans la pratique. Étant donné que ce défi concerne tous les secteurs de notre société, il est important que tout le monde puisse commenter et contribuer au travail en cours. Joignez-vous à l’Alliance européenne IA et laissez-nous vos commentaires !
Le draft sur les principes directeurs en matière d’éthique sur l’IA est maintenant ouvert aux débats jusqu’au 18 janvier et des discussions sont en cours au sein de l’Alliance européenne sur l’IA, la plateforme multipartite de l’UE sur l’intelligence artificielle.

En mars 2019, le groupe d'experts va présenter la version finale de ces lignes directrices à la Commission, qui les analysera et lui proposera des moyens de faire progresser ces travaux. L'ambition est alors de faire passer l'approche éthique de l'Europe sur la scène mondiale. La Commission assure qu’elle ouvre actuellement sa coopération à tous les pays non membres de l'UE souhaitant partager les mêmes valeurs.

Sources : draft (au format PDF), réaction de Bruxelles, annonce de la constitution de l'équipe AI HLEG

Et vous ?

Qu'en pensez-vous ?

Voir aussi :

Quelles sont les avantages et les inconvénients de l'Intelligence artificielle ? Noodle.ai, spécialiste de l'IA, donne son point de vue
UE : les États membres vont collaborer pour stimuler l'intelligence artificielle « fabriquée en Europe », pour combler le retard pris sur les USA
La France dévoile son plan sur l'Intelligence artificielle pour 665 millions d'euros, quelles en sont les grandes lignes ?
L'ICLR, une importante conférence sur l'intelligence artificielle se tiendra en Afrique en 2020 à cause de problèmes de visas
Chef de l'ONU : « La militarisation de l'intelligence artificielle est un grave danger », Guterres met en garde contre l'impact de la technologie

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de JackIsJack
Membre actif https://www.developpez.com
Le 21/12/2018 à 4:26
Une IA me semble être un outil parmis d'autres utilisables par les entreprises, et qu'à ce titre elles doivent déjà se plier aux lois et ne pas causer de dommages à autrui.

Il faudrait éviter les doublons de lois et ne pas réécrire tout uniquement pour les IA, sinon dans quel intérêt ?

Depuis longtemps, il y a déjà des machines industrielles qui fonctionnent de manière 'autonome', et qui peuvent causer des dommages à autrui, intentionnellement ou non. Lorsque cela arrive, j'imagine qu'il y a des analyses de responsabilité. Pourquoi les IA ne suivraient pas le même chemin juridique ?

 
Contacter le responsable de la rubrique Accueil

Partenaire : Hébergement Web