Le département de police de San Francisco demande actuellement au conseil de surveillance de la ville l'autorisation de déployer des robots pour tuer des suspects que les forces de l'ordre considèrent comme une menace suffisante pour que « le risque de mort pour les membres du public ou les officiers soit imminent et l'emporte sur toute autre force option à la disposition de SFPD ».
Cette proposition s'est d'abord heurtée à une forte opposition tant à l'intérieur qu'à l'extérieur du conseil de direction. Puis, le comité des règles composé de trois membres, présidé par Aaron Peskin, a approuvé à l'unanimité le projet et l'a soumis à l'ensemble du conseil de surveillance pour un vote le 29 novembre. Peskin a tenu à noter « qu'il pourrait y avoir des scénarios où l'utilisation de la force meurtrière serait la seule option ».
Le département de police de San Francisco propose une nouvelle politique qui donnerait aux robots le droit de tuer. Le brouillon de cette politique, qui décrit comment le SFPD (San Francisco Police Department) peut utiliser des armes de type militaire, stipule que les robots peuvent être « utilisés comme une option de force meurtrière lorsque le risque de mort pour des membres du public ou des officiers est imminent et l'emporte sur toute autre option de force ».
Les membres du comité des règles du conseil de surveillance de la ville examinent la nouvelle politique d'équipement depuis plusieurs semaines. La version originale du projet n'incluait aucun langage entourant l'utilisation de la force meurtrière par les robots jusqu'à ce qu'Aaron Peskin, le doyen du conseil de surveillance de la ville, ait initialement ajouté que « les robots ne doivent pas être utilisés comme recours à la force contre qui que ce soit ».
Cependant, le SFPD a renvoyé le brouillon avec une ligne rouge barrant l'ajout de Peskin, le remplaçant par la ligne qui donne aux robots le pouvoir de tuer des suspects. Selon un média, Peskin a finalement décidé d'accepter le changement, car « il pourrait y avoir des scénarios où le déploiement d'une force létale est la seule option ». Le comité des règles de San Francisco a approuvé à l'unanimité une version du projet la semaine dernière, qui sera soumise au conseil de surveillance le 29 novembre.
Comme indiqué dans la politique d'équipement, la SFPD dispose actuellement de 17 robots télépilotés, mais seuls 12 sont fonctionnels. En plus d'accorder aux robots la capacité d'utiliser la force meurtrière, la proposition les autorise également à être utilisés dans « la formation et les simulations, les arrestations criminelles, les incidents critiques, les circonstances urgentes, l'exécution d'un mandat ou lors d'évaluations d'appareils suspects ».
Alors que la plupart des robots répertoriés dans l'inventaire du SFPD sont principalement utilisés pour désamorcer des bombes ou traiter des matières dangereuses, les nouveaux modèles Remotec ont un système d'armes en option, et le F5A existant du département dispose d'un outil appelé le disrupteur PAN qui peut charger un fusil de chasse de calibre 12. Il est généralement utilisé pour faire exploser des bombes à distance. Le QinetiQ Talon du département peut également être modifié pour contenir diverses armes (une version armée du robot est actuellement utilisée par l'armée américaine et peut être équipée de lance-grenades, de mitrailleuses ou même d'un fusil antimatériel de calibre 50).
« La SFPD a toujours eu la capacité d'utiliser la force létale lorsque le risque de mort pour des membres du public ou des officiers est imminent et l'emporte sur toute autre option de force disponible », a déclaré l'officier du SFPD Eve Laokwansathitaya. « La SFPD n'a aucune sorte de plan spécifique en place, car les opérations inhabituellement dangereuses ou spontanées où le besoin de la SFPD de fournir une force mortelle grâce à un robot seraient une circonstance rare et exceptionnelle ».
Le département de police de Dallas a utilisé un robot pour exercer une force meurtrière pour la première fois en 2016. Il a utilisé un robot de déminage (le même modèle Remotec F5A appartenant au SFPD) armé d'un engin explosif pour tuer un suspect qui a tué cinq policiers et en a blessé plusieurs autres. À l'époque, le chef de la police de Dallas, David Brown, a déclaré que le département « n'avait pas d'autre choix que d'utiliser notre robot de déminage et de placer un appareil sur son extension pour qu'il explose là où se trouvait le suspect ».
Le mois dernier, un rapport a révélé que le département de police d'Oakland en Californie envisageait également de laisser les robots Remotec F5A équipés de fusils de chasse utiliser une force mortelle. Peu de temps après la publication du rapport, le département de police d'Oakland a annoncé sur Facebook qu'il avait décidé de ne pas ajouter de « véhicules télécommandés armés au département » :
« Le département de police d'Oakland (OPD) n'ajoute pas de véhicules armés à distance au département. L'OPD a participé aux discussions du comité ad hoc avec la commission de police d'Oakland et les membres de la communauté pour explorer toutes les utilisations possibles du véhicule. Cependant, après d'autres discussions avec le chef et l'équipe de direction, le département a décidé qu'il ne voulait plus explorer cette option particulière ».
Pendant ce temps, un groupe de fabricants de robots, dont Boston Dynamics, a signé un engagement de ne pas armer leurs robots plus tôt cette année.
Alors que San Francisco n'a jamais explicitement autorisé les robots à prendre des vies humaines, les armes létales autonomes sont de plus en plus courantes dans la guerre moderne. Les mines antipersonnel, l'une des premières itérations d'armes automatisées, sont interdites depuis 1997 (mais dites-le aux mines déjà dans le sol) et des défenses entièrement automatisées comme les systèmes Phalanx à bord des navires sont utilisées depuis les années 1970. Les systèmes offensifs autonomes, tels que les drones et les drones de combat, sont utilisés depuis des années, mais ont toujours exigé qu'un « humain au courant » assume la responsabilité de faire feu sur un ennemi. Maintenant, la SFPD (le même département qui coûte régulièrement à la ville des montants à six chiffres pour son usage excessif de la force et s'oppose activement aux enquêtes sur son affinité pour les passages à tabac à la matraque) veut exercer ce même pouvoir de vie ou de mort sur les civils de San Francisco.
Des scientifiques demandent l'interdiction du développement d'armes contrôlées par l'IA
La question de l'utilisation de l'IA pour le développement des armes autonomes agite de plus en plus le monde scientifique et militaire. Et c'est d'autant plus sérieux à cause des tentatives de développement d'armes autonomes de la part des industriels. En août 2016 déjà, les États-Unis d'Amérique et l'armée irakienne testaient leurs prototypes d'arme autonome. De même, les experts de l'IA n'hésitent pas à s'opposer au développement de ces armes. En 2017, un groupe d'experts de l'IA a appelé le Canada et l'Australie à lutter pour l'interdiction des robots tueurs autonomes. L'ONU aussi ne cesse de militer contre ces armes. Fin 2018, plus de 2400 professionnels de l’intelligence artificielle et de la robotique représentant 150 entreprises de 90 pays à travers le monde ont signé un engagement contre le développement des armes autonomes.
Durant la conférence mixte internationale sur l’intelligence artificielle de 2018 à Stockholm, un engagement a été signé pour exiger des gouvernements, des industries et des universités, la création « de normes, régulations et lois internationales contre les armes létales autonomes ». Le Future of Life Institute, organisateur de la conférence, définit les armes létales autonomes, ou robots tueurs, comme des armes capables d’identifier, de cibler et de tuer une personne. « Ceci étant dit, aucun humain ne prend la décision finale d’autoriser la force létale », ajoute l’institut.
« L’intelligence artificielle a un immense potentiel pour aider le monde si nous empêchons qu’on en abuse. Les armes contrôlées par intelligence artificielle qui décident en toute indépendance de tuer des gens sont aussi répugnantes et déstabilisantes que les armes biologiques, et donc, devraient être traitées de la même manière », avait alors déclaré Max Tegmark, le président de l’institut.
En septembre 2018, le Parlement européen a adopté une résolution demandant une interdiction internationale des robots soi-disant tueurs. Il vise à anticiper le développement et l'utilisation de systèmes d'armes autonomes capables de tuer sans intervention humaine.
Une position affirmée qui peut être expliquée par le fait que les négociations à l’ONU n’ont pas abouti à un consensus, certains pays ayant déclaré que les avantages des armes autonomes devaient être explorés.
Néanmoins, l’Europe n’est pas encore unanime. En effet, certains députés craignent que la législation ne limite les progrès scientifiques de l'intelligence artificielle. D’autres ont déclaré que cela pouvait devenir un problème de sécurité si certains pays autorisaient de telles armes alors que d’autres ne le faisaient pas.
« Je sais que cela pourrait ressembler à un débat sur un futur lointain ou sur la science-fiction. Ce n'est pas le cas », a déclaré Federica Mogherini, chef de la politique étrangère et de sécurité de l'UE lors du débat au Parlement européen.
En février 2019, un groupe de scientifiques a appelé à l'interdiction du développement d'armes contrôlées par l'intelligence artificielle. Le groupe insiste sur le fait que les armes autonomes peuvent mal fonctionner de manière imprévisible et tuer des innocents. Les experts en éthique soutiennent également que permettre à des systèmes boostés par une IA de tuer sans aucune intervention humaine ne relève pas de la morale.
Ces commentaires ont été faits lors de la réunion de l’Association américaine pour le progrès de la science à Washington DC.
Human Rights Watch (HRW) est l'une des 89 organisations non gouvernementales de 50 pays qui ont formé la Campagne pour arrêter le développement des robots tueurs, afin de faire pression pour un traité international.
« Robots tueurs » : le « non, mais » du comité d'éthique de l'armée
« Non » aux systèmes d’armes létaux pleinement autonomes (SALA), parfois résumés sous l’appellation « robots tueurs », mais la porte reste ouverte aux armes robotisées pilotées par l’homme. C’est en substance le contenu d’un avis rendu le 29 avril 2021 par le comité d’éthique de la défense, une structure de réflexion adossée au ministère français des Armées pour le conseiller sur les sujets les plus sensibles. Les membres de cette structure indépendante approuvent ainsi l’introduction d’une certaine dose d’autonomie dans les systèmes d’armes, mais pas question d'entériner le principe de « robots tueurs », qui excluent tout contrôle humain. Ces robots, boostés par l’intelligence artificielle, utilisent eux-mêmes un logiciel intégré pour trouver et frapper des cibles.
Les conclusions du Comité sont claires : l'emploi par les forces armées de systèmes d'armes létales autonomes serait « absolument contraire au principe constitutionnel de nécessaire libre disposition de la force armée et au principe de continuité de la chaîne de commandement ». Par conséquent, l'emploi des SALA ne peut qu’être refusé tout comme la fabrication et l’exportation.
Soit le rejet de l’utilisation, sur un théâtre de guerre, de toute forme d’arme programmée dont l’homme n’aurait pas la maîtrise complète. Ces systèmes sont acceptables à condition qu'ils soient toujours supervisés par l'Homme. En revanche, les systèmes d'armes létales complètement autonomes, qui excluent tout contrôle humain, pourraient donc se révéler dangereux et doivent être interdits. « La France confirme qu’elle ne développera et n’emploiera pas » de SALA, écrivent ainsi les dix-huit membres civils et militaires de ce comité où siège notamment l’ancien chef d’état-major des armées, le général Henri Bentégeat.
Sources : brouillon de la politique du SFPD (1, 2), séance du comité du SFPD, annonce du département de police d'Oakland
Et vous ?
Pour ou contre les robots tueurs utilisés par la police ? Dans quelle mesure ?
Que pourrait-il se passer si les robots tueurs venaient à être piratés ? Un risque suffisant pour repenser l'éthique autour de l'armement des robots ou un risque qui peut être classé comme celui de perdre son arme ?
Voir aussi :
Intelligence artificielle : Amazon, Microsoft ou Intel seraient en bonne place pour la création potentielle de "Skynet", d'après une étude
Que se passera-t-il si des robots tueurs sont piratés ou détournés ? La question fait débat au sein de la communauté scientifique
« Robots tueurs » : le « non, mais » du comité d'éthique de l'armée. Jusqu'où la France est-elle prête à aller ?
L'armée américaine veut transformer les chars d'assaut en machines à tuer alimentées par l'IA, à travers son projet ATLAS, selon un rapport
Les robots de la police de San Francisco sont autorisés à tuer dans des situations dangereuses
Selon un projet de politique approuvé à l'unanimité par le conseil de surveillance de la ville
Les robots de la police de San Francisco sont autorisés à tuer dans des situations dangereuses
Selon un projet de politique approuvé à l'unanimité par le conseil de surveillance de la ville
Le , par Stéphane le calme
Une erreur dans cette actualité ? Signalez-nous-la !