IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les robots de la police de San Francisco sont autorisés à tuer dans des situations dangereuses
Selon un projet de politique approuvé à l'unanimité par le conseil de surveillance de la ville

Le , par Stéphane le calme

186PARTAGES

12  0 
Le département de police de San Francisco demande actuellement au conseil de surveillance de la ville l'autorisation de déployer des robots pour tuer des suspects que les forces de l'ordre considèrent comme une menace suffisante pour que « le risque de mort pour les membres du public ou les officiers soit imminent et l'emporte sur toute autre force option à la disposition de SFPD ».

Cette proposition s'est d'abord heurtée à une forte opposition tant à l'intérieur qu'à l'extérieur du conseil de direction. Puis, le comité des règles composé de trois membres, présidé par Aaron Peskin, a approuvé à l'unanimité le projet et l'a soumis à l'ensemble du conseil de surveillance pour un vote le 29 novembre. Peskin a tenu à noter « qu'il pourrait y avoir des scénarios où l'utilisation de la force meurtrière serait la seule option ».


Le département de police de San Francisco propose une nouvelle politique qui donnerait aux robots le droit de tuer. Le brouillon de cette politique, qui décrit comment le SFPD (San Francisco Police Department) peut utiliser des armes de type militaire, stipule que les robots peuvent être « utilisés comme une option de force meurtrière lorsque le risque de mort pour des membres du public ou des officiers est imminent et l'emporte sur toute autre option de force ».

Les membres du comité des règles du conseil de surveillance de la ville examinent la nouvelle politique d'équipement depuis plusieurs semaines. La version originale du projet n'incluait aucun langage entourant l'utilisation de la force meurtrière par les robots jusqu'à ce qu'Aaron Peskin, le doyen du conseil de surveillance de la ville, ait initialement ajouté que « les robots ne doivent pas être utilisés comme recours à la force contre qui que ce soit ».

Cependant, le SFPD a renvoyé le brouillon avec une ligne rouge barrant l'ajout de Peskin, le remplaçant par la ligne qui donne aux robots le pouvoir de tuer des suspects. Selon un média, Peskin a finalement décidé d'accepter le changement, car « il pourrait y avoir des scénarios où le déploiement d'une force létale est la seule option ». Le comité des règles de San Francisco a approuvé à l'unanimité une version du projet la semaine dernière, qui sera soumise au conseil de surveillance le 29 novembre.

Comme indiqué dans la politique d'équipement, la SFPD dispose actuellement de 17 robots télépilotés, mais seuls 12 sont fonctionnels. En plus d'accorder aux robots la capacité d'utiliser la force meurtrière, la proposition les autorise également à être utilisés dans « la formation et les simulations, les arrestations criminelles, les incidents critiques, les circonstances urgentes, l'exécution d'un mandat ou lors d'évaluations d'appareils suspects ».

Alors que la plupart des robots répertoriés dans l'inventaire du SFPD sont principalement utilisés pour désamorcer des bombes ou traiter des matières dangereuses, les nouveaux modèles Remotec ont un système d'armes en option, et le F5A existant du département dispose d'un outil appelé le disrupteur PAN qui peut charger un fusil de chasse de calibre 12. Il est généralement utilisé pour faire exploser des bombes à distance. Le QinetiQ Talon du département peut également être modifié pour contenir diverses armes (une version armée du robot est actuellement utilisée par l'armée américaine et peut être équipée de lance-grenades, de mitrailleuses ou même d'un fusil antimatériel de calibre 50).


« La SFPD a toujours eu la capacité d'utiliser la force létale lorsque le risque de mort pour des membres du public ou des officiers est imminent et l'emporte sur toute autre option de force disponible », a déclaré l'officier du SFPD Eve Laokwansathitaya. « La SFPD n'a aucune sorte de plan spécifique en place, car les opérations inhabituellement dangereuses ou spontanées où le besoin de la SFPD de fournir une force mortelle grâce à un robot seraient une circonstance rare et exceptionnelle ».

Le département de police de Dallas a utilisé un robot pour exercer une force meurtrière pour la première fois en 2016. Il a utilisé un robot de déminage (le même modèle Remotec F5A appartenant au SFPD) armé d'un engin explosif pour tuer un suspect qui a tué cinq policiers et en a blessé plusieurs autres. À l'époque, le chef de la police de Dallas, David Brown, a déclaré que le département « n'avait pas d'autre choix que d'utiliser notre robot de déminage et de placer un appareil sur son extension pour qu'il explose là où se trouvait le suspect ».

Le mois dernier, un rapport a révélé que le département de police d'Oakland en Californie envisageait également de laisser les robots Remotec F5A équipés de fusils de chasse utiliser une force mortelle. Peu de temps après la publication du rapport, le département de police d'Oakland a annoncé sur Facebook qu'il avait décidé de ne pas ajouter de « véhicules télécommandés armés au département » :

« Le département de police d'Oakland (OPD) n'ajoute pas de véhicules armés à distance au département. L'OPD a participé aux discussions du comité ad hoc avec la commission de police d'Oakland et les membres de la communauté pour explorer toutes les utilisations possibles du véhicule. Cependant, après d'autres discussions avec le chef et l'équipe de direction, le département a décidé qu'il ne voulait plus explorer cette option particulière ».


Pendant ce temps, un groupe de fabricants de robots, dont Boston Dynamics, a signé un engagement de ne pas armer leurs robots plus tôt cette année.

Alors que San Francisco n'a jamais explicitement autorisé les robots à prendre des vies humaines, les armes létales autonomes sont de plus en plus courantes dans la guerre moderne. Les mines antipersonnel, l'une des premières itérations d'armes automatisées, sont interdites depuis 1997 (mais dites-le aux mines déjà dans le sol) et des défenses entièrement automatisées comme les systèmes Phalanx à bord des navires sont utilisées depuis les années 1970. Les systèmes offensifs autonomes, tels que les drones et les drones de combat, sont utilisés depuis des années, mais ont toujours exigé qu'un « humain au courant » assume la responsabilité de faire feu sur un ennemi. Maintenant, la SFPD (le même département qui coûte régulièrement à la ville des montants à six chiffres pour son usage excessif de la force et s'oppose activement aux enquêtes sur son affinité pour les passages à tabac à la matraque) veut exercer ce même pouvoir de vie ou de mort sur les civils de San Francisco.

Des scientifiques demandent l'interdiction du développement d'armes contrôlées par l'IA

La question de l'utilisation de l'IA pour le développement des armes autonomes agite de plus en plus le monde scientifique et militaire. Et c'est d'autant plus sérieux à cause des tentatives de développement d'armes autonomes de la part des industriels. En août 2016 déjà, les États-Unis d'Amérique et l'armée irakienne testaient leurs prototypes d'arme autonome. De même, les experts de l'IA n'hésitent pas à s'opposer au développement de ces armes. En 2017, un groupe d'experts de l'IA a appelé le Canada et l'Australie à lutter pour l'interdiction des robots tueurs autonomes. L'ONU aussi ne cesse de militer contre ces armes. Fin 2018, plus de 2400 professionnels de l’intelligence artificielle et de la robotique représentant 150 entreprises de 90 pays à travers le monde ont signé un engagement contre le développement des armes autonomes.

Durant la conférence mixte internationale sur l’intelligence artificielle de 2018 à Stockholm, un engagement a été signé pour exiger des gouvernements, des industries et des universités, la création « de normes, régulations et lois internationales contre les armes létales autonomes ». Le Future of Life Institute, organisateur de la conférence, définit les armes létales autonomes, ou robots tueurs, comme des armes capables d’identifier, de cibler et de tuer une personne. « Ceci étant dit, aucun humain ne prend la décision finale d’autoriser la force létale », ajoute l’institut.

« L’intelligence artificielle a un immense potentiel pour aider le monde si nous empêchons qu’on en abuse. Les armes contrôlées par intelligence artificielle qui décident en toute indépendance de tuer des gens sont aussi répugnantes et déstabilisantes que les armes biologiques, et donc, devraient être traitées de la même manière », avait alors déclaré Max Tegmark, le président de l’institut.

En septembre 2018, le Parlement européen a adopté une résolution demandant une interdiction internationale des robots soi-disant tueurs. Il vise à anticiper le développement et l'utilisation de systèmes d'armes autonomes capables de tuer sans intervention humaine.

Une position affirmée qui peut être expliquée par le fait que les négociations à l’ONU n’ont pas abouti à un consensus, certains pays ayant déclaré que les avantages des armes autonomes devaient être explorés.

Néanmoins, l’Europe n’est pas encore unanime. En effet, certains députés craignent que la législation ne limite les progrès scientifiques de l'intelligence artificielle. D’autres ont déclaré que cela pouvait devenir un problème de sécurité si certains pays autorisaient de telles armes alors que d’autres ne le faisaient pas.

« Je sais que cela pourrait ressembler à un débat sur un futur lointain ou sur la science-fiction. Ce n'est pas le cas », a déclaré Federica Mogherini, chef de la politique étrangère et de sécurité de l'UE lors du débat au Parlement européen.

En février 2019, un groupe de scientifiques a appelé à l'interdiction du développement d'armes contrôlées par l'intelligence artificielle. Le groupe insiste sur le fait que les armes autonomes peuvent mal fonctionner de manière imprévisible et tuer des innocents. Les experts en éthique soutiennent également que permettre à des systèmes boostés par une IA de tuer sans aucune intervention humaine ne relève pas de la morale.

Ces commentaires ont été faits lors de la réunion de l’Association américaine pour le progrès de la science à Washington DC.

Human Rights Watch (HRW) est l'une des 89 organisations non gouvernementales de 50 pays qui ont formé la Campagne pour arrêter le développement des robots tueurs, afin de faire pression pour un traité international.

« Robots tueurs » : le « non, mais » du comité d'éthique de l'armée

« Non » aux systèmes d’armes létaux pleinement autonomes (SALA), parfois résumés sous l’appellation « robots tueurs », mais la porte reste ouverte aux armes robotisées pilotées par l’homme. C’est en substance le contenu d’un avis rendu le 29 avril 2021 par le comité d’éthique de la défense, une structure de réflexion adossée au ministère français des Armées pour le conseiller sur les sujets les plus sensibles. Les membres de cette structure indépendante approuvent ainsi l’introduction d’une certaine dose d’autonomie dans les systèmes d’armes, mais pas question d'entériner le principe de « robots tueurs », qui excluent tout contrôle humain. Ces robots, boostés par l’intelligence artificielle, utilisent eux-mêmes un logiciel intégré pour trouver et frapper des cibles.

Les conclusions du Comité sont claires : l'emploi par les forces armées de systèmes d'armes létales autonomes serait « absolument contraire au principe constitutionnel de nécessaire libre disposition de la force armée et au principe de continuité de la chaîne de commandement ». Par conséquent, l'emploi des SALA ne peut qu’être refusé tout comme la fabrication et l’exportation.

Soit le rejet de l’utilisation, sur un théâtre de guerre, de toute forme d’arme programmée dont l’homme n’aurait pas la maîtrise complète. Ces systèmes sont acceptables à condition qu'ils soient toujours supervisés par l'Homme. En revanche, les systèmes d'armes létales complètement autonomes, qui excluent tout contrôle humain, pourraient donc se révéler dangereux et doivent être interdits. « La France confirme qu’elle ne développera et n’emploiera pas » de SALA, écrivent ainsi les dix-huit membres civils et militaires de ce comité où siège notamment l’ancien chef d’état-major des armées, le général Henri Bentégeat.

Sources : brouillon de la politique du SFPD (1, 2), séance du comité du SFPD, annonce du département de police d'Oakland

Et vous ?

Pour ou contre les robots tueurs utilisés par la police ? Dans quelle mesure ?
Que pourrait-il se passer si les robots tueurs venaient à être piratés ? Un risque suffisant pour repenser l'éthique autour de l'armement des robots ou un risque qui peut être classé comme celui de perdre son arme ?

Voir aussi :

Intelligence artificielle : Amazon, Microsoft ou Intel seraient en bonne place pour la création potentielle de "Skynet", d'après une étude
Que se passera-t-il si des robots tueurs sont piratés ou détournés ? La question fait débat au sein de la communauté scientifique
« Robots tueurs » : le « non, mais » du comité d'éthique de l'armée. Jusqu'où la France est-elle prête à aller ?
L'armée américaine veut transformer les chars d'assaut en machines à tuer alimentées par l'IA, à travers son projet ATLAS, selon un rapport

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 25/11/2022 à 18:22
Que les forces de police soient autorisées à tuer en dehors du cadre de la légitime défense me suffit pour ne jamais mettre les pieds aux USA.
6  1 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 25/11/2022 à 17:53
Robocop.
4  0 
Avatar de sirthie
Membre éprouvé https://www.developpez.com
Le 26/11/2022 à 10:33
Citation Envoyé par marsupial Voir le message
Robocop.
Terminator.
3  0 
Avatar de Leruas
Membre éclairé https://www.developpez.com
Le 26/11/2022 à 19:33
L'algorithme du robot aura des biais ethniques aussi ?
3  1 
Avatar de GLDavid
Expert confirmé https://www.developpez.com
Le 01/12/2022 à 8:53
Citation Envoyé par sirthie Voir le message
Terminator.
Non, pire, ED-209 (du film Robocop d'ailleurs).

Ah, San Francisco, auparavant, capitale des hippies, connue pour son Summer Of Love...
Maintenant, régie par les grandes sociétés de technologie qui imposent aux gouvernants leurs choix...

@++
1  0 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 26/11/2022 à 20:39
De pire en pire aux États-Unis. Et pas uniquement dans les états républicains, n’en déplaise à certains. La dérive autoritaire et sécuritaire semble avoir lieu dans les deux bords politiques.

Je rappelle d’ailleurs que les grandes villes de Californie sont les villes avec la ségrégation parmi la plus forte au monde.

https://books.openedition.org/pupo/2147
https://www.nouvelles-du-monde.com/l...e-segregation/
https://courrierdesameriques.com/202...ux-etats-unis/
https://www.francetvinfo.fr/monde/us...e_3723791.html
https://www.rtl.fr/actu/internationa...ues-7795661404
1  1 
Avatar de totozor
Membre expert https://www.developpez.com
Le 28/11/2022 à 8:43
Citation Envoyé par Stéphane le calme Voir le message
« le risque de mort pour les membres du public ou les officiers soit imminent et l'emporte sur toute autre force option à la disposition de SFPD ».
« qu'il pourrait y avoir des scénarios où l'utilisation de la force meurtrière serait la seule option »
« utilisés comme une option de force meurtrière lorsque le risque de mort pour des membres du public ou des officiers est imminent et l'emporte sur toute autre option de force ».
« il pourrait y avoir des scénarios où le déploiement d'une force létale est la seule option »
On parle de scénarios mais on en identifie aucun.
Citation Envoyé par Stéphane le calme Voir le message
« La SFPD n'a aucune sorte de plan spécifique en place car les opérations inhabituellement dangereuses ou spontanées où le besoin de la SFPD de fournir une force mortelle via un robot seraient une circonstance rare et exceptionnelle ».
Ils reconnaissent donc que c'est compliqué d'en identifier donc on va autorisé le plus en priant pour que tout se passe bien?
La question n'est pas si une bavure arrivera mais quand (et pourquoi).
Donc ne pas limiter les scénarios est une grave erreur de mon point de vue.
Citation Envoyé par Stéphane le calme Voir le message
Le département de police de Dallas a utilisé un robot pour exercer une force meurtrière pour la première fois en 2016. Il a utilisé un robot de déminage (le même modèle Remotec F5A appartenant au SFPD) armé d'un engin explosif pour tuer un suspect qui a tué cinq policiers et en a blessé plusieurs autres. À l'époque, le chef de la police de Dallas, David Brown, a déclaré que le département « n'avait pas d'autre choix que d'utiliser notre robot explosif et de placer un appareil sur son extension pour qu'il explose là où se trouvait le suspect ».
Ce cas est très différent, pour moi.
On a pas programmé un robot pour qu'il puisse tuer.
Un humain a pris la décision de détourner un robot de son utilisation nominale pour résoudre une situation. La responsabilité est explicitement celle de la personne.

La mise en place de ce genre de robot est l'ouverture vers de nombreuses bavures.
Combien de scénarios pouvons-nous écrire où le robot abat une personne sans que ça soit justifié? (Combien impliquent qu'un policier a été mal identifié et a été abattu par celui censé le protéger?)
1  1 
Avatar de BleAcheD
Membre confirmé https://www.developpez.com
Le 01/12/2022 à 9:31
Quelle bonne idée ! ... (non)
0  0 
Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 01/12/2022 à 10:22
La police de San Francisco entend déployer des robots équipés de charges explosives « pour entrer en contact, neutraliser ou désorienter un suspect violent, armé ou dangereux
Ce n'est pas différent d'un missile/torpille/drone kamikaze/obus guidé par GPS. Du déjà vu.
Mettez des pattes à un missile et ca devient un robot tueur... donc immorale...LOL

La décision de "neutraliser"(tuer) reste prise par un humain.

Le cap sera franchi quand cette décision sera autonome

Par contre j'avoue que j'aurais les boules de me faire contrôler/interpellé par un robot ...
0  0 
Avatar de
https://www.developpez.com
Le 01/12/2022 à 11:23
C'est juste l'extension de l'arme donc je ne vois pas le problème de son utilisation, pour sauver la vie ou les vies des agents, c'est pas comme si il prenait ses décisions tout seul.
0  4