Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La résistance contre les robots tueurs grandit : des militants de 35 pays à Berlin pour s'opposer à ces armes
Et réclamer une initiative allemande

Le , par Stan Adkens

252PARTAGES

6  0 
La résistance contre les robots tueurs animés par l’intelligence artificielle continue difficilement, mais de façon engagée afin d’emmener le maximum de pays, surtout ceux qui sont impliqués dans la recherche et le développement pour concevoir ces armes meurtrières, à rejoindre le mouvement. Selon un article publié hier par Deutsche Welle, le service international de diffusion de l’Allemagne, des militants de 35 pays s’étaient réunis à Berlin la semaine dernière pour demander l'interdiction des armes autonomes meurtrières. Ces militants engagés contre l’utilisation des armes autonomes veulent attirer l’attention des pays non encore engagés et surtout l’Allemagne dans la perspective de nouvelles négociations sur ces armes à Genève.

Noel Sharkey, l'une des figures de proue de la campagne pour arrêter les robots tueurs était présent à Berlin pour participer à la réunion internationale de la Campagne pour arrêter les robots tueurs qui s'est terminée vendredi. Noel Sharkey est un professeur émérite de l'université de Sheffield, aussi un spécialiste reconnu de la robotique et de l'intelligence artificielle. « Je peux vous construire un robot tueur en seulement deux semaines », a-t-il dit lors du rassemblement avec un regard avertisseur.

Sharkey s'oppose à l'idée de parler de « systèmes d'armes autonomes mortels » comme s'il s'agissait d'un roman de science-fiction, d’après Deutsche Welle. Le militant des droits de l’homme dit que, les systèmes d'armes entièrement autonomes sont une réalité bien établie. Pour lui, il n'est pas nécessaire de discuter de leur définition qui est déjà assez connue comme étant des armes qui cherchent, sélectionnent et attaquent des cibles par leurs propres moyens. C'est, par ailleurs, la définition que le Comité international de la Croix-Rouge (CICR) leur donne.


En effet, les soldats n'ont plus besoin d’appuyer sur la détente avec de telles armes. Ces robots, boostés par l’intelligence artificielle, utilisent eux-mêmes un logiciel intégré pour trouver et frapper des cibles. Ces armes peuvent prendre la forme de missiles, de véhicules terrestres sans pilote, de sous-marins ou d'essaims de mini-drones. 28 pays réclament actuellement l'interdiction des systèmes d'armes autonomes meurtrières, mais de nombreux pays s’y opposent encore.

Les premières discussions formelles visant à limiter ou interdire l’utilisation des systèmes d’armes létales autonomes (SALA) ou des robots de guerre, pour faire simple, se sont tenues au cours des derniers mois de l’année 2017 à Genève sous l’égide de L’ONU. Ces discussions axées autour de la convention sur certaines armes classiques (CCAC) devraient permettre de soumettre ces dispositifs de guerre au droit international en identifiant les « SALA illicites » en fonction du niveau de contrôle attribué à l’homme.

À ce sujet, la France a proposé d’approfondir la distinction entre les systèmes dotés « d’automatismes » de complexité variable et les systèmes « autonomes » qui ne font appel à aucune mesure de supervision humaine. Le gouvernement russe est resté fermement opposé à toute interdiction visant à limiter ou interdire le développement des SALA ou des technologies liées à l’IA à des fins militaires qui serait prise au niveau de l’ONU.

Selon un rapport fourni par le site DefenceOne.com le 10 novembre 2017, la Fédération de Russie soutenait que « l’absence de réglementation claire sur de tels systèmes d’armement reste le principal problème dans la discussion sur les lois », mais « il est difficilement acceptable que l’encadrement des SALA restreigne la liberté de profiter des avantages des technologies autonomes qui représentent l’avenir de l’humanité. » Les États-Unis de leur côté, ont estimé qu’il est encore « prématuré » d’envisager une interdiction des SALA, même si l’administration Trump dit soutenir le processus de la CCAC.

Dans une série de réunions qui se sont tenues à Genève en fin août 2018, les discussions sur l'opportunité d'amener les négociations sur les armes entièrement autonomes dotées d'IA à un niveau formel qui pourrait déboucher sur un traité qui les interdit n’a aboutit qu’à une liste de recommandations non contraignantes. Les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie auraient en effet empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs. C'est à la fin de 2013 que les Nations Unies ont mis le sujet à l'ordre du jour, mais depuis lors, peu de choses se sont produites. L'organisation n'a même pas été en mesure de s'entendre sur une définition des armes létales entièrement autonomes. Les militants des droits de l’homme devraient davantage s’armer de courage pour continuer le combat.

Un certain nombre d'organisations non gouvernementales (ONG) se sont jointes à la Campagne mondiale pour arrêter les robots tueurs à Berlin pour demander à l'Allemagne d’exiger que les systèmes d'armes autonomes qui violent le droit international soient interdits. En effet, pour ces militants, si l'Allemagne prenait l'initiative de se joindre au mouvement de l’interdiction, d'autres pays suivraient. Selon Deutsche Welle, le gouvernement allemand actuel a affirmé l’interdiction dans ses négociations de coalition en 2018, mais n'a prononcé que des déclarations politiques non contraignantes à l'ONU à Genève.

Selon Thomas Küchenmeister de l'ONG Facing Finance, « ce n'est pas suffisant pour établir une interdiction ». Selon lui, le gouvernement allemand devrait se joindre aux 28 pays qui réclament actuellement l'interdiction des systèmes d'armes autonomes meurtriers.

Le Secrétaire général de l'ONU, Antonio Guterres, et le Parlement européen sont également en faveur d'une interdiction. Le Parlement européen a adopté une résolution demandant une interdiction internationale des robots soi-disant tueurs qui vise à anticiper le développement et l'utilisation de systèmes d'armes autonomes capables de tuer sans intervention humaine. Le CICR affirme que l'utilisation de ces armes constitue une violation manifeste du droit international.

Récemment, la Société allemande d'informatique (GI), une organisation de chercheurs en informatique, ainsi que l'influente Association fédérale de l'industrie allemande (BDI), ont également appelé à une interdiction juridiquement contraignante. Mais l’Allemagne, dont les fabricants d’armes ont vendu en février dernier avec enthousiasme leurs nouvelles armes aux fonctions autonomes lors de la plus grande foire aux armes du Moyen-Orient à IDEX à Abu Dhabi, a toujours une position indécise quant à l’interdiction formelle des robots tueurs.


Les déclarations politiques non contraignantes du gouvernement allemand fournissent une « couverture parfaite » aux pays opposés à une interdiction

Selon Deutsche Welle, bien que des pays comme les États-Unis et la Chine soient en tête de l'utilisation de l'IA dans le monde, une grande partie de la recherche dont dépendent ces systèmes vient d'Europe. Cela donne beaucoup de poids aux voix européennes dans le débat en cours. Selon Noel Sharkey, « Si l'Allemagne prend la tête, d'autres suivront ». M. Sharkey prévient également que les déclarations politiques non contraignantes, comme celles que le gouvernement allemand défend actuellement, fournissent une « couverture parfaite » aux pays opposés à une interdiction. Ces pays comprennent la Russie, Israël et les États-Unis, selon le rapport de Deutsche Welle.

Cependant, le gouvernement allemand soutient qu'il est essentiellement en faveur d'une interdiction, mais qu'il avait fait pression sur la déclaration politique nettement plus faiblement pour des raisons tactiques. En effet, selon le gouvernement allemand, son approche consiste à maintenir un dialogue avec des pays comme les États-Unis, plutôt que de les aliéner complètement.

Toutefois, la lauréate du prix Nobel de la paix Jody Williams n'est pas du tout convaincue par cet argument. S'exprimant à Berlin, elle a appelé le ministre allemand des Affaires étrangères Heiko Maas à reconsidérer sa position. M. Williams a fait valoir que quiconque attend que les États-Unis se prononcent en faveur d'une interdiction attendra éternellement.

Des discussions internationales sur la façon de réglementer les droits de l'homme se tiendront à Genève, en Suisse, du 25 au 29 mars. Espérons qu’elles aboutiront à des recommandations contraignantes afin que les prédictions d’Elon Musk et d’une centaine de spécialistes de l'IA et de la robotique, selon lesquelles « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre », ne se réalisent pas.

Source : Deutsche Welle

Et vous ?

Que pensez-vous de cette résistance ?
Pensez-vous que c’est un combat crédible ou Don Quichotte qui se bat contre des moulins à vent ?
Pensez-vous que ce combat aboutira un jour à une interdiction effective des robots tueurs ?

Lire aussi

L'Armée américaine rassure le public sur ses chars d'assaut alimentés par l'IA, en précisant qu'ils resteront toujours sous contrôle humain
Google promet de ne pas utiliser l'IA pour le développement d'armes, mais informe qu'il va continuer à coopérer avec les militaires
Des scientifiques demandent l'interdiction du développement d'armes contrôlées par l'IA, en évoquant de nombreux problèmes sous-jacents
Elon Musk appelle les Nations Unies à bannir les robots tueurs dans une lettre ouverte, signée par 116 spécialistes de l'IA et la robotique
Que se passera-t-il si des robots tueurs sont piratés ou détournés ? La question fait débat au sein de la communauté scientifique

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de SoyouzH2
Membre régulier https://www.developpez.com
Le 20/01/2020 à 14:39
"si elles sont bien développées, peuvent rendre la guerre plus humaine, a rapporté Bhalla"

Lol.
4  0 
Avatar de fodger
Membre habitué https://www.developpez.com
Le 20/01/2020 à 16:48
Je ne comprends même pas qu'on puisse travailler sur de tels sujets.
3  0 
Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 20/01/2020 à 17:19
Citation Envoyé par fodger Voir le message
Je ne comprends même pas qu'on puisse travailler sur de tels sujets.
c'est assez simple en fait, si toi dans ton pays tu décides de ne pas le faire, ton voisin lui le fera peut-être, et pourra alors avoir un avantage stratégique/technologique et éventuellement menacer ton pays.
c'est tristement logique, et l'application directe de la sélection naturelle, si tu ne veux pas être en position d'être menacé, alors tu dois être dans le peloton de tête dans la course à l'armement dissuasif.
2  0 
Avatar de gallima
Membre actif https://www.developpez.com
Le 22/01/2020 à 9:12
Est ce qu'il est humain de déployer des troupes humaines face à des robots tueurs ?

C'est la question qui a été posé l'année dernière par le ministère de la défense.

La réponse consensuelle(état major) semble être de dire qu'il faut être en capacité de développer rapidement ce genre d'arme si un ennemi identifié le fait.
Donc il faut que le travail de recherche soit fait même si l'assemble final ne l'est jamais.

C'est la loi de la guerre: "dura lex sed lex".
1  0 
Avatar de FrostWilson
Membre régulier https://www.developpez.com
Le 20/01/2020 à 15:01
C'est un gros problème, vous voulez dire que c'est comme des militaires mais qui utilisent leur intelligence ?
Rupture totale... "commencer à réfléchir c'est commencer à désobéir".

Ou comme disait Einstein:
"Celui qui est capable de marcher derrière une musique militaire n’a pas besoin de cerveau : une moelle épinière lui suffit."
0  0 
Avatar de eldran64
Membre extrêmement actif https://www.developpez.com
Le 20/01/2020 à 15:31
Soyons optimiste, il y aura un jour un gros massacre de masse avec l'une de ces machines à cause de (choisissez l'option que vous préférez):
- piratage de la dite machine
- bug logiciel
- mauvaise programmation
- simplement volonté de faire un massacre avec

Et dans le meilleur des scénarios, on aura ensuite une prise de conscience qui obligera le monde à légiférer dessus (un peu comme les bombes nucléaires).
0  0 
Avatar de Cpt Anderson
Membre expérimenté https://www.developpez.com
Le 20/01/2020 à 15:41
Qui est étonné ? C'est dans la logique des choses !
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 20/01/2020 à 15:45
Citation Envoyé par Stan Adkens Voir le message
Elles seront plus précises et plus efficaces, ne seront pas la proie d'émotions humaines telles que la peur ou la vengeance et réduiront au minimum les décès de civils et de soldats, ajoutent-ils.
D'un côté ça se tient.
Vous avez déjà vu le film Outrages avec Michael J. Fox ?
Ça parle de soldats US qui ont violés des vietnamiennes, c'est le genre de chose que des robots ne pourront pas faire, donc ça fait moins de victime civil.

Les robots ne feront pas ça non plus :
Torture, humiliations... Les photos qui ont révélé l'horreur d'Abou Ghraib
En avril 2004, le traitement des détenus à la prison d'Abou Ghraib, située à 20 km à l'ouest de Bagdad (Irak), choque le monde entier. Via des clichés pris en octobre, novembre et décembre 2003, on apprend que les prisonniers y sont physiquement et sexuellement abusés, torturés, violés et exécutés.
Il y a des armées qui droguent leur soldats pour qu'ils puissent faire des choses horribles.
L'héroïne fait des ravages dans l'armée américaine (apparemment c'est une news de Septembre 1971 )
Un rapport américain avait conclu, en mai dernier, que de 10 à 15 % des soldats stationnés au Vietnam, soit, à l'époque, de vingt-sept mille à quarante mille hommes, s'adonnaient à l'usage des stupéfiants, en particulier l'héroïne
Pendant la seconde guerre mondiale les anglais avaient la benzédrine, les allemands avaient la pervitine.

=====
Un robot vise mieux et suit les ordres, c'est le soldat parfait.
Le problème ce ne sont pas les robots, les problèmes ce sont les ordres.
Dans le futur peut-être que le gouvernement français enverra des drones armés de fusil d'assaut qui tireront sur les manifestants, on ne sait pas... (un peu des ambiances de Running Man)
Des drones autonome qui bossent pour un gouvernement, ça fait très peur.
0  0 
Avatar de Superzest 76
Membre averti https://www.developpez.com
Le 20/01/2020 à 17:16
Citation Envoyé par Stan Adkens Voir le message
[B][SIZE=4]

L’ex-ingénieur logiciel de Google a averti que ce nouveau type d’armes pourrait accidentellement déclencher une guerre ou provoquer des atrocités de masse.
Bof sur ça la machine à encore du chemin pour dépasser l'humain...
0  0 
Avatar de Citrax
Membre actif https://www.developpez.com
Le 20/01/2020 à 18:17
Rien ni personne ne pourra arrêter les fabricants d'armes
La guerre n'est rien de plus qu'un trait de caractère des êtres humains.
Par contre cet IA tueur seront tôt ou tard invité à réduire la population mondiale. Il ne faut pas se leurrer

On appellera ça des bavures ou des blocs de programmation !
0  0