IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les experts de l'Union européenne publient le premier draft sur les lignes directrices d'une IA éthique
La version finale est attendue en mars 2019

Le , par Stéphane le calme

649PARTAGES

13  0 
Mi-juin 2018, la Commission européenne a nommé 52 experts au sein du nouveau groupe de haut niveau sur l'intelligence artificielle (le High Level Expert Group on Artificial Intelligence). Le groupe, composé de représentants du monde universitaire, des entreprises et de la société civile, avait pour vocation de soutenir la mise en œuvre de la communication de l'UE sur l'intelligence artificielle publiée en avril 2018.

Citation Envoyé par Bruxelles
Le groupe d'experts de haut niveau formulera des recommandations sur la manière de relever les défis et les opportunités à moyen et à long terme liés à l'intelligence artificielle. Les recommandations alimenteront le processus d'élaboration des politiques, le processus d'évaluation législative et l'élaboration d'une stratégie numérique de prochaine génération. Le groupe préparera également un projet de lignes directrices sur l'éthique qui s'appuiera sur les travaux du groupe européen d'éthique des sciences et des nouvelles technologies et de l'Agence des droits fondamentaux de l'Union européenne dans ce domaine. Les lignes directrices couvriront des questions telles que l'équité, la sécurité, la transparence, l'avenir du travail et plus largement l'impact sur le respect des droits fondamentaux, y compris la protection de la vie privée et des données personnelles, la dignité, la protection des consommateurs et la non-discrimination. Le projet de lignes directrices sera finalisé d'ici la fin de l'année et présenté à la Commission au début de 2019.
C’est donc dans le cadre de ses fonctions, mais également des délais imposés par Bruxelles, que le AI HLEG (High Level Group on Artificial Intelligence) a publié le premier draft sur les lignes directrices sur l'éthique pour une IA de confiance.

Définitions

Avant d’aller dans le vif du sujet, ils ont commencé par donner quelques définitions, notamment :

Intelligence artificielle ou IA:

L’intelligence artificielle (IA) fait référence à des systèmes conçus par des humains qui, face à un objectif complexe, agissent dans le monde physique ou numérique en percevant leur environnement, en interprétant les données collectées, données structurées ou non structurées, raisonnant sur les connaissances tirées de ces données et décidant de la (des) meilleure (s) mesure (s) à prendre (selon des paramètres prédéfinis) pour atteindre l’objectif. Les systèmes d'intelligence artificielle peuvent également être conçus pour apprendre à adapter leur comportement en analysant la manière dont l'environnement est affecté par leurs actions précédentes.

En tant que discipline scientifique, l'intelligence artificielle comprend plusieurs approches et techniques, telles que l'apprentissage automatique (dont l'apprentissage en profondeur et l'apprentissage par renforcement sont des exemples spécifiques), le raisonnement automatique (planification, ordonnancement, représentation et raisonnement des connaissances, recherche et optimisation), et la robotique (qui comprend le contrôle, la perception, les capteurs et les actionneurs, ainsi que l'intégration de toutes les autres techniques dans des systèmes cyberphysiques).

Partialité (bias):

Une partialité est un préjudice pour ou contre quelque chose ou quelqu'un qui peut entraîner des décisions injustes. On sait que les humains sont biaisés dans leur prise de décision. Comme les systèmes d'IA sont conçus par des humains, il est possible que les humains leur injectent leurs préjugés, même de manière non intentionnelle. De nombreux systèmes d'IA actuels reposent sur des techniques d'apprentissage automatique. Par conséquent, un moyen prédominant d’injecter de la partialité peut être la collecte et la sélection de données d’entraînement. Si les données de formation ne sont pas assez complètes et équilibrées, le système pourrait apprendre à prendre des décisions injustes. En même temps, l'IA peut aider les humains à identifier leurs partialités et les aider à prendre des décisions moins biaisées.

But éthique:

Dans ce document, le but éthique est utilisé pour indiquer le développement, le déploiement et l'utilisation de l'intelligence artificielle garantissant le respect des droits fondamentaux et de la réglementation applicable, ainsi que le respect des principes et valeurs fondamentaux. C’est l’un des deux éléments essentiels pour parvenir à une IA digne de confiance.


IA centrée sur l'homme:

L’approche centrée sur l’être humain vis-à-vis de l’IA s’efforce de faire en sorte que les valeurs humaines soient toujours au premier rang des préoccupations et nous oblige à garder à l’esprit que le développement et l’utilisation de l’IA ne doivent pas...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de JackIsJack
Membre éclairé https://www.developpez.com
Le 21/12/2018 à 4:26
Une IA me semble être un outil parmis d'autres utilisables par les entreprises, et qu'à ce titre elles doivent déjà se plier aux lois et ne pas causer de dommages à autrui.

Il faudrait éviter les doublons de lois et ne pas réécrire tout uniquement pour les IA, sinon dans quel intérêt ?

Depuis longtemps, il y a déjà des machines industrielles qui fonctionnent de manière 'autonome', et qui peuvent causer des dommages à autrui, intentionnellement ou non. Lorsque cela arrive, j'imagine qu'il y a des analyses de responsabilité. Pourquoi les IA ne suivraient pas le même chemin juridique ?
0  0