
qui sera responsable lorsqu’une machine va décider de prendre une vie humaine ?
La question de l'utilisation de l'IA pour le développement des armes autonomes agite de plus en plus le monde scientifique et militaire. Et c'est d'autant plus sérieux à cause des tentatives de développement d'armes autonomes de la part des industriels. En août 2016 déjà, les États-Unis d'Amérique et l'armée irakienne testaient leurs prototypes d'arme autonome. De même, les experts de l'IA n'hésitent pas à s'opposer au développement de ces armes. En 2017, un groupe d'experts de l'IA a appelé le Canada et l'Australie à lutter pour l'interdiction des robots tueurs autonomes. L'ONU aussi ne cesse de militer contre ces armes. Il y a quelques mois, plus de 2400 professionnels de l’intelligence artificielle et de la robotique représentant 150 entreprises de 90 pays à travers le monde ont signé un engagement contre le développement des armes autonomes.
En effet, à la Conférence mixte internationale sur l’intelligence artificielle de 2018 à Stockholm, un engagement a été signé pour exiger des gouvernements, des industries et des universités, la création « de normes, régulations et lois internationales contre les armes létales autonomes ». Le Future of Life Institute, organisateur de la Conférence, définit les armes létales autonomes, ou robots tueurs, comme des armes capables d’identifier, de cibler et de tuer une personne. « Ceci étant dit, aucun humain ne prend la décision finale d’autoriser la force létale », ajoute l’institut.
« L’intelligence artificielle a un immense potentiel pour aider le monde si nous empêchons qu’on en abuse. Les armes contrôlées par intelligence artificielle qui décident en toute indépendance de tuer des gens sont aussi répugnantes et déstabilisantes que les armes biologiques, et donc, devraient être traitées de la même manière », avait alors déclaré Max Tegmark, le président de l’institut.
En septembre dernier, le Parlement européen a adopté une résolution demandant une interdiction internationale des robots soi-disant tueurs. Il vise à anticiper le développement et l'utilisation de systèmes d'armes autonomes capables de tuer sans intervention humaine.
Une position affirmée qui peut être expliquée par le fait que les négociations à l’ONU n’ont pas abouti à un consensus, certains pays ayant déclaré que les avantages des armes autonomes devaient être explorés.
Néanmoins l’Europe n’est pas encore unanime. En effet, certains députés craignent que la législation ne limite les progrès scientifiques de l'intelligence artificielle. D’autres ont déclaré que cela pouvait devenir un problème de sécurité si certains pays autorisaient de telles armes alors que d’autres ne le faisaient pas.
« Je sais que cela pourrait ressembler à un débat sur un futur lointain ou sur la science-fiction. Ce n'est pas le cas », a déclaré Federica Mogherini, chef de la politique étrangère et de sécurité de l'UE lors du débat au Parlement européen.
Au tour des scientifiques d'exprimer leurs craintes
Un groupe de scientifiques a appelé à l'interdiction du développement d'armes contrôlées par l'intelligence artificielle. Le groupe insiste sur le fait que les armes autonomes peuvent mal fonctionner de manière imprévisible et tuer des innocents. Les experts en éthique soutiennent également que permettre à des systèmes boostés par une IA de tuer sans aucune intervention humaine ne relève pas de la morale.
Ces commentaires ont été faits lors de la réunion de l’Association américaine pour le progrès de la science à Washington DC.
Human Rights Watch (HRW) est l'une des 89 organisations non gouvernementales de 50 pays qui ont formé la Campagne pour arrêter le développement des robots tueurs, afin de faire pression pour un traité international.
Mary Wareham, de HRW, fait partie des principaux acteurs de l'interdiction mondiale.
« Nous ne parlons pas de robots Terminator en marche qui parlent et qui sont sur le point de conquérir le monde; ce qui nous inquiète est beaucoup plus imminent: des systèmes d'armes classiques, mais qui disposent d’une autonomie », a-t-elle déclaré à BBC News.
« Ils commencent à s’infiltrer. Les drones en sont un exemple évident, mais il existe également des avions militaires qui décollent, volent et atterrissent par eux-mêmes; des sentinelles robotiques capables d’identifier les mouvements. Ce sont des précurseurs d’armes autonomes ».
Ryan Gariepy, directeur des technologies chez Clearpath Robotics, soutient la proposition d'interdiction.
Son entreprise accepte des contrats militaires, mais elle a dénoncé les systèmes d'IA pour la guerre et déclaré qu'elle ne les développerait pas.
« Quand ils échouent, ils échouent de manière imprévisible », a-t-il déclaré à BBC News.
« Aussi avancés que nous soyons, l’état de l’intelligence artificielle est vraiment limité par la reconnaissance d’image. C’est bien, mais elle n’a ni les détails ni le contexte pour être juge, jury et bourreau sur un champ de bataille. Un système autonome ne peut pas prendre la décision de tuer ou de ne pas tuer en vase clos. La décision a été prise de facto par des développeurs, des programmeurs et des scientifiques qui n'ont aucune idée de la situation dans laquelle l'arme est déployée ».
Qui est responsable lorsqu’une machine décide de prendre une vie humaine ?
Une autre grande question se pose: qui est responsable lorsqu'une machine décide de prendre une vie humaine ? Est-ce la personne qui a fabriqué la machine ?
Selon Peter Asaro, de la New School à New York, un tel scénario soulève des problèmes de responsabilité juridique si le système commet un homicide illégal.
« La délégation de pouvoir de tuer à une machine n'est pas justifiée et constitue une violation des droits de l'homme, car les machines ne sont pas des agents moraux et ne peuvent donc pas être tenues pour prendre des décisions de vie ou de mort. Il se peut donc que les personnes qui ont fabriqué l'arme autonome en soient responsables ».
Mais tout le monde n'est pas prêt à dénoncer pleinement l'utilisation de systèmes d'armes contrôlés par l'IA. Les États-Unis et la Russie faisaient partie des pays qui se sont opposés à une interdiction totale des armes autonomes après une semaine de négociations à Genève en septembre.
Une campagne pour demander l’arrêt du développement des robots tueurs
Dans une campagne, les défenseurs des droits essayent de sensibiliser le public pour l'amener à faire pression sur les dirigeants et changer de direction.
Ils identifient les problèmes :
[LIST][*]Des armes entièrement autonomes décideraient qui vit et meurt, sans autre intervention humaine, ce qui dépasse un seuil moral. En tant que machines, ils n'auraient pas les caractéristiques humaines intrinsèques, telles que la compassion, nécessaire pour faire des choix éthiques complexes.[*]Les États-Unis, la Chine, Israël, la Corée du Sud, la Russie et le Royaume-Uni développent des systèmes d'armes dotés d'une grande autonomie dans les fonctions critiques de sélection et d'attaque de cibles. Si rien n'était fait, le monde pourrait se lancer dans une course aux armements robotique déstabilisante.[*]Le remplacement des troupes par des machines pourrait faciliter la décision d'entrer en guerre et faire porter le fardeau du conflit encore plus loin aux civils. Des armes entièrement autonomes feraient des erreurs tragiques aux conséquences imprévues qui pourraient attiser les tensions.[*]Les armes entièrement autonomes manqueraient du jugement humain nécessaire pour évaluer la proportionnalité d'une attaque, distinguer les civils des combattants et se conformer aux autres principes fondamentaux du droit de la guerre. L'histoire montre que leur utilisation ne serait pas limitée à certaines circonstances.[*]Il est difficile de savoir qui, le[/*]...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.