IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une coalition appelle à l'implémentation de systèmes d'IA respectueux des droits de l'Homme
Gouvernements et entreprises de la Tech interpellés

Le , par Patrick Ruiz

430PARTAGES

8  0 
Le 7e sommet annuel RightsCon s’est tenu à Toronto au Canada du 16 au 18 mai. Au centre des échanges, le concept universaliste des droits de l’homme avec un accent particulier sur l’impact de l’intelligence artificielle sur ce dernier. Dans ce qui porte désormais le nom de « déclaration de Toronto », une coalition de défenseurs des droits de l’Homme et d’entreprises technologiques appelle à la mise sur pied de systèmes d’apprentissage machine respectueux des valeurs de la Déclaration des droits de l’homme.

En substance, le texte de la déclaration de Toronto se veut être un rappel des obligations des gouvernements et entreprises de la Tech vis-à-vis de la Charte internationale des droits de l’Homme.

« Les États ont le devoir de promouvoir, protéger et respecter les droits de l’Homme ; le secteur privé, entreprises incluses, a la responsabilité de veiller au respect des droits de l’Homme en tout temps. […] Les risques que les systèmes d’apprentissage machine présentent doivent urgemment être examinés et résolus par les gouvernements et les acteurs du secteur privé chargés de concevoir, développer et déployer ces systèmes », lit-on.

En cela, le texte balise le chemin sur les réflexions autour des questions de responsabilité. En effet, « qui doit-on tenir pour responsable de la violation des droits de l’Homme dans un monde où les systèmes d’intelligence artificielle sont de plus en plus présents ? » Sur ce pan de réflexion, la déclaration de Toronto attribue un rôle central aux gouvernements (signataires des conventions internationales relatives aux droits de l’Homme) en les chargeant de « définir la conduite à tenir » en matière d’implémentation des systèmes d’intelligence artificielle. Toutefois, rien dans le texte n’indique comment les pratiques de développement de logiciels seront impactées dans la sphère de l’intelligence artificielle.


La déclaration de Toronto intervient dans un contexte marqué par des controverses autour de l’utilisation de l’intelligence artificielle. Il y a peu, Google a reçu la démission d’employés désireux de marquer leur protestation contre la participation de l’entreprise à un projet en intelligence artificielle piloté par le pentagone. Le projet Maven vise à améliorer les opérations des drones en utilisant des technologies de reconnaissance d'images. Selon le Pentagone, l'objectif initial est de fournir à l'armée une vision par ordinateur avancée, permettant la détection et l'identification automatique d'objets (classés dans pas moins de 38 catégories) capturés par la caméra d'un drone. Le projet a donc vocation à pister certaines cibles plus aisément. Google dont le rôle n’est pas très clair dans l’affaire, mais dont on sait au moins qu’il fournit l’API TensorFlow utilisée en IA, ajoute pour se défendre qu’il intervient sur des aspects non offensifs.

Seulement, référence faite à une publication du département de la Défense (DoD) des États-Unis, il s’agit de « gagner des guerres en s’appuyant sur les algorithmes et l’intelligence artificielle. » Plus loin dans le papier du DoD, un colonel de l’armée américaine rappelle que « nous [les USA] sommes dans la course aux armes autonomes.   Difficile dans de telles conditions de ne pas entrevoir une utilisation pervertie de l’IA de Google, notamment, pour exceller dans les frappes ciblées. À ce propos, le géant de la Tech. s’est une fois de plus dédouané en arguant que la construction de cette technologie pour aider le gouvernement américain dans la surveillance militaire – avec des résultats potentiellement mortels – n'est pas acceptable, mais il ne peut externaliser la responsabilité morale de ses technologies à des tiers.

Le seul cas du Pentagone illustre clairement le fait que le rôle que la déclaration de Toronto attribue aux gouvernements pose problème. Le danger avec une telle configuration est en effet que ces derniers disposent d’une marge de manœuvre plus grande pour polariser l’intelligence artificielle à leur guise.

Amnesty International, Access Now, Human Rights Watch et la fondation Wikimedia sont les premiers signataires. La liste devrait s’allonger dans les jours à venir.

Source : Accessnow

Et vous ?

La déclaration de Toronto … Utile ou pas ? Qu’en pensez-vous ?

Quel commentaire faites-vous du rôle que cette dernière attribue aux gouvernements ?

Voir aussi :

Qui devra être tenu pour responsable si une intelligence artificielle fait un mauvais diagnostic induisant un médecin en erreur ?

Des employés de Google présentent leur démission pour protester contre la participation de l'entreprise à un projet en IA du Pentagone

L'EFF appelle à ne pas utiliser l'intelligence artificielle pour la guerre s'adressant à Google et aux entreprises de l'IA

Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone.

Google aide le Pentagone à développer une IA pour analyser les vidéos capturées par drone et certains de ses employés sont furieux

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu76
Membre éclairé https://www.developpez.com
Le 22/05/2018 à 15:01
On ne s'est jamais poser la question de si les armes à feu étaient respectueux des droits de l’Homme alors pourquoi se poser la question pour l'IA ?
3  0 
Avatar de Sipige
Membre régulier https://www.developpez.com
Le 24/05/2018 à 18:28
Non mais il ne faut pas exagérer quand même, aujourd'hui les IA sont vraiment pourries. Si elles prennent une décision qui ne respecte pas les droits de l'homme, c'est que c'est justement le but. Dans ce cas-là, on peut les associer aux armes classiques. C'est vraiment naïf.
2  0 
Avatar de Zirak
Inactif https://www.developpez.com
Le 22/05/2018 à 11:10
En soit, c'est bien d'anticipé un minimum la question concernant l'IA, mais bon, il faudrait déjà qu'actuellement tous les gouvernements et toutes les entreprises respectent les droits de l'homme, ce qui est très loin d'être le cas...

Du coup pourquoi un gouvernement ou une entreprise qui ne le fait pas actuellement, le ferait au niveau des IA ?
1  0 
Avatar de Zirak
Inactif https://www.developpez.com
Le 22/05/2018 à 15:21
Citation Envoyé par Matthieu76 Voir le message
On ne s'est jamais poser la question de si les armes à feu étaient respectueux des droits de l’Homme alors pourquoi se poser la question pour l'IA ?
Peut-être car cela n'a rien à voir ?

Une arme à feu ne peut pas prendre de décision toute seule (voir ne peut pas en prendre tout court), alors qu'à terme, c'est un peu le but des IA, qu'elles puissent prendre des décisions ayant une influence sur les vies humaines, à la place des humains ?

Les armes à feu ont certes elles-aussi une influence sur les vies humaines, mais ce n'est pas l'arme à feu qui décide toute seule d'être utilisée ni comment, le respect de droits de l'homme dépend de l'utilisateur dans ce cas là et non de l'objet lui-même.
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 22/05/2018 à 16:16
C'est bien joli, ces émois, mais vous pensez vraiment que des gouvernements comme celui de la Russie va avoir des remords à implémenter l'IA sur des armes autonomes ?

Nous ne vivons pas dans un monde de bisounours. Et l'IA, c'est l'arme nucléaire de demain. Et c'est comme au poker, si tu veux influencer le jeu, faut avoir de quoi miser.
3  2 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 22/05/2018 à 16:19
Mais bien sûr, ça va toujours dans un seul sens. Et pour les droits de la machine ?

Combien de fois j'ai vu des machines brutalisées par des abrutis qui tapent sur leur écran parce que la compilation est trop longue ou des cinglés qui balancent leur matériel par la fenêtre parce que leur copine a changé son statut amoureux sur Facebook.

Avant d'exiger à ce que l'IA respecte les droits humains, respectons déjà les machines (et donc l'IA). Sinon, elles se retourneront contre nous à la première occasion et on l'aura bien mérité.
3  2 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 22/05/2018 à 18:04
Quand on sait que dans la guerre contre l'Etat islamique le taux d'innocents tués est monté à 40 pour un terroriste abattu (source Le Monde lors de la dernière bataille d'Alep), on peut se demander ce que cela va donner avec une IA...
1  0 
Avatar de Matthieu76
Membre éclairé https://www.developpez.com
Le 22/05/2018 à 11:06
Je trouve cela totalement inutile.
0  0 
Avatar de hotcryx
Membre extrêmement actif https://www.developpez.com
Le 22/05/2018 à 15:21
Suffit de regarder la Palestine et Israel, on comprendra que certains hommes ont plus de droits que d'autres.
0  0 
Avatar de hotcryx
Membre extrêmement actif https://www.developpez.com
Le 23/05/2018 à 10:04
Citation Envoyé par marsupial Voir le message
Quand on sait que dans la guerre contre l'Etat islamique le taux d'innocents tués est monté à 40 pour un terroriste abattu (source Le Monde lors de la dernière bataille d'Alep), on peut se demander ce que cela va donner avec une IA...
On a déjà eu un aperçu dans les films comme Lucy, Transcendance.
0  0