
En substance, le texte de la déclaration de Toronto se veut être un rappel des obligations des gouvernements et entreprises de la Tech vis-à-vis de la Charte internationale des droits de l’Homme.
« Les États ont le devoir de promouvoir, protéger et respecter les droits de l’Homme ; le secteur privé, entreprises incluses, a la responsabilité de veiller au respect des droits de l’Homme en tout temps. […] Les risques que les systèmes d’apprentissage machine présentent doivent urgemment être examinés et résolus par les gouvernements et les acteurs du secteur privé chargés de concevoir, développer et déployer ces systèmes », lit-on.
En cela, le texte balise le chemin sur les réflexions autour des questions de responsabilité. En effet, « qui doit-on tenir pour responsable de la violation des droits de l’Homme dans un monde où les systèmes d’intelligence artificielle sont de plus en plus présents ? » Sur ce pan de réflexion, la déclaration de Toronto attribue un rôle central aux gouvernements (signataires des conventions internationales relatives aux droits de l’Homme) en les chargeant de « définir la conduite à tenir » en matière d’implémentation des systèmes d’intelligence artificielle. Toutefois, rien dans le texte n’indique comment les pratiques de développement de logiciels seront impactées dans la sphère de l’intelligence artificielle.
La déclaration de Toronto intervient dans un contexte marqué par des controverses autour de l’utilisation de l’intelligence artificielle. Il y a peu, Google a reçu la démission d’employés désireux de marquer leur protestation contre la participation de l’entreprise à un projet en intelligence artificielle piloté par le pentagone. Le projet Maven vise à améliorer les opérations des drones en utilisant des technologies de reconnaissance d'images. Selon le Pentagone, l'objectif initial est de fournir à l'armée une vision par ordinateur avancée, permettant la détection et l'identification automatique d'objets (classés dans pas moins de 38 catégories) capturés par la caméra d'un drone. Le projet a donc vocation à pister certaines cibles plus aisément. Google dont le rôle n’est pas très clair dans l’affaire, mais dont on sait au moins qu’il fournit l’API TensorFlow utilisée en IA, ajoute pour se défendre qu’il intervient sur des aspects non offensifs.
Seulement, référence faite à une publication du département de la Défense (DoD) des États-Unis, il s’agit de « gagner des guerres en s’appuyant sur les algorithmes et l’intelligence artificielle. » Plus loin dans le papier du DoD, un colonel de l’armée américaine rappelle que « nous [les USA] sommes dans la course aux armes autonomes. Difficile dans de telles conditions de ne pas entrevoir une utilisation pervertie de l’IA de Google, notamment, pour exceller dans les frappes ciblées. À ce propos, le géant de la Tech. s’est une fois de plus dédouané en arguant que la construction de cette technologie pour aider le gouvernement américain dans la surveillance militaire – avec des résultats potentiellement mortels – n'est pas acceptable, mais il ne peut externaliser la responsabilité morale de ses technologies à des tiers.
Le seul cas du Pentagone illustre clairement le fait que le rôle que la déclaration de Toronto attribue aux gouvernements pose problème. Le danger avec une telle configuration est en effet que ces derniers disposent d’une marge de manœuvre plus grande pour polariser l’intelligence artificielle à leur guise.
Amnesty International, Access Now, Human Rights Watch et la fondation Wikimedia sont les premiers signataires. La liste devrait s’allonger dans les jours à venir.
Source : Accessnow
Et vous ?


Voir aussi :




