Les efforts de l'ONU pour réglementer l'usage militaire de l'IA et des SALA pourraient échouer
à cause notamment des positions russes et américaines

Le , par Christian Olivier, Chroniqueur Actualités
Les premières discussions formelles visant à limiter ou interdire l’utilisation des systèmes d’armes létales autonomes (SALA), des robots de guerre pour faire simple, se sont tenues ces derniers mois à Genève sous l’égide de L’ONU. Ces discussions axées autour de la convention sur certaines armes classiques (CCAC) devraient permettre de soumettre ces dispositifs de guerre au droit international en identifiant les « SALA illicites » en fonction du niveau de contrôle attribué à l’homme.

À ce sujet, l’avis de la France est qu’il faudrait approfondir la distinction entre les systèmes dotés « d’automatismes », de complexité variable, et les systèmes « autonomes », qui ne font appel à aucune mesure de supervision humaine. La dernière rencontre officielle en date a eu lieu du 22 au 24 novembre 2017.

Il faut rappeler que des personnalités de renom comme l’astrophysicien britannique Stephen Hawking ou des chefs d’entreprises comme l'américain Elon Musk ont, à plusieurs reprises déjà, appelé à l’interdiction pure et simple des SALA. Dans une lettre ouverte rédigée à l'occasion de la 24e Conférence internationale sur l’IA (intelligence artificielle) en de juillet 2015, ces lanceurs d'alerte ont déclaré :

« Nous croyons que l’intelligence artificielle recèle un grand potentiel pour l’humanité de bien des manières, et cela doit être son objectif. L’utiliser pour se lancer dans une course aux armements est un projet néfaste. Il doit être empêché par une interdiction totale des armes offensives autonomes, qui fonctionnent sans contrôle humain significatif. »

« Si une grande puissance militaire progresse avec le développement d’armes liées à l’intelligence artificielle, une course mondiale aux armements est pratiquement inévitable, et le point final de cette trajectoire technologique est évident : les armes autonomes deviendront les kalachnikovs de demain. »

Tous les signataires de cette lettre ouverte ont estimé que l’absence d’un consensus qui permettrait d’encadrer le développement de l’intelligence artificielle dans le domaine militaire ouvrirait la voie à un scénario catastrophe dans lequel les machines seraient dotées de la capacité de tuer sans qu’il soit nécessaire de faire intervenir obligatoirement l’Homme.

En marge de la dernière réunion qui s’est tenue dans la capitale suisse, Moscou a souhaité envoyer un message fort à tous ceux qui voudraient dissuader la Russie de développer la technologie des robots de guerre, les fameux SALA.

D’après un rapport fourni par le site DefenceOne.com, une déclaration du gouvernement russe datant du 10 novembre dernier fait état de la ferme opposition du Kremlin contre toute interdiction visant à limiter ou interdire le développement des SALA ou des technologies liées à l’IA à des fins militaires qui serait prise au niveau de l’ONU.

Comme l’a expliqué Dmitri Ostaptchouk, le DG de 766 UPTK — l’entreprise militaire russe spécialisée dans la production de robots —, au média russe RT : « Le développement des robots au sein des forces armées est inévitable puisque les systèmes électroniques dépassent déjà l’être humain dans toutes les capacités. » De ce fait, le point de vue de la Russie semble clair et inflexible : quoi qu’il arrive la Russie développera et construira des SALA.

D’après la Fédération de Russie, « l’absence de réglementation claire sur de tels systèmes d’armement reste le principal problème dans la discussion sur les lois », mais « il est difficilement acceptable que l’encadrement des SALA restreigne la liberté de profiter des avantages des technologies autonomes qui représentent l’avenir de l’humanité. »

Il faut également préciser que de leur côté, les États-Unis estiment qu’il est encore « prématuré » d’envisager une interdiction des SALA, même si l’administration Trump dit soutenir le processus de la CCAC.

Le kremlin estime que les SALA représentent une catégorie d’armes extrêmement large et complexe dont la compréhension actuelle de l’humanité est plutôt approximative. Moscou ne comprend donc pas pourquoi des mesures préventives aussi prohibitives et restrictives devraient être envisagées. Sans parler du fait que, par le passé, plusieurs traités internationaux visant à contrôler la prolifération de systèmes d’armements particuliers (chimique, nucléaire ou autre) n’ont pas empêché certains États de développer ou d’utiliser ces armes interdites.

Source : DefenceOne, Publication de la Russie (PDF), Le monde diplomatique, RT

Et vous ?

Qu’en pensez-vous ?

Voir aussi

La Russie se prépare à envoyer un robot capable de tirer avec des pistolets à l'ISS ? Il ne s'agit pas d'un Terminator assure le vice-président russe
Elon Musk appelle les Nations Unies à bannir les robots tueurs dans une lettre ouverte signée par 116 spécialistes de l'IA et la robotique


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse Signaler un problème

Avatar de - https://www.developpez.com
le 01/12/2017 à 9:20
C'est presque la même problématique que d'être d'une certaine religion et de ne pas pouvoir être hôtesse de l'air.
Ou encore avoir des plats Halal dans les avions.

Le droit de conduire est une bonne chose. Un petit coup de pouce vers la confiance.
Avatar de marsupial marsupial - Membre émérite https://www.developpez.com
le 01/12/2017 à 9:26
Tout le monde sait qu'il ne faut pas le faire car la machine sera une arme de destruction massive sans discernement. Mais comme pour les écoutes massives, ils ne pourront pas y résister du fait du pouvoir que cela procure.
Avatar de - https://www.developpez.com
le 01/12/2017 à 10:25
Certains scientifiques pensent que dans 600 ans que l'humain (et animaux ?) devra quitter la Terre...
Pourtant parmi eux il y en a qui sont contre la militarisation des IA alors que d'autres non... ("l'automatisation" est beaucoup moins radical.)
Je pense que le film "interstellaire" est dans les mémoires... Pourtant, dans certains appareils la seule arme était l'autodestruction...
Secourir ou prévenir des dangers la seule place de l'IA dans les armées.
Avatar de rawsrc rawsrc - Modérateur https://www.developpez.com
le 01/12/2017 à 10:30
Citation Envoyé par Christian Olivier Voir le message
Le kremlin estime que les SALA représentent une catégorie d’armes extrêmement large et complexe dont la compréhension actuelle de l’humanité est plutôt approximative. Moscou ne comprend donc pas pourquoi des mesures préventives aussi prohibitives et restrictives devraient être envisagées. Sans parler du fait que, par le passé, plusieurs traités internationaux visant à contrôler la prolifération de systèmes d’armements particuliers (chimique, nucléaire ou autre) n’ont pas empêché certains États de développer ou d’utiliser ces armes interdites.

Une fois que l'on maîtrise une technologie ou qu'on a les moyens matériels de la simuler pour continuer à la développer (en loucedé, bien évidemment), on vote un traité qui interdit la prolifération de machin-chose, histoire de sacrément mettre des bâtons dans les roues des petits comparses qui auraient l'outrecuidance de s'y frotter... Embargos en tous genres, pressions diplomatiques, monétaires...

On est tous égaux, hein ! Mais c'est mieux si je suis quand même au-dessus...
Avatar de - https://www.developpez.com
le 01/12/2017 à 10:41
Citation Envoyé par rawsrc Voir le message

On est tous égaux, hein ! Mais c'est mieux si je suis quand même au-dessus...
Après l'Europe c'est la mondialisation et encore plus de difficulté à trouver du travail dans la liberté de choisir.
Avatar de ztor1 ztor1 - Membre actif https://www.developpez.com
le 01/12/2017 à 12:19
En clair,

Les USA, La Russie, La France, le Royaume-Uni et la Chine sont en train de s'équiper ou sont déjà équipés ...

L'Inde et le Pakistan en train de s'équiper ...

Israel et l'Afrique du Sud en train de s'équiper (mais discrètement)

On signe un traité d'interdiction et ....

On est tous indignés quand la Corée du Nord voudra s'en équiper ....

C'est bizarre, mais cette histoire me dit quelque ... Pas vous ?

@+
Avatar de hotcryx hotcryx - Membre extrêmement actif https://www.developpez.com
le 01/12/2017 à 15:00
"À cause notamment des positions russes et américaines"

Je dirais plutôt: "À cause notamment des positions américaines et russes"

Pourquoi les russes toujours en 1er?!
Ne comprenez-vous pas que les russes ne sont pas forcement méchants.
Perso: je joue avec des russes sur internet, et aucun soucis.
Avatar de laerne laerne - Membre éprouvé https://www.developpez.com
le 01/12/2017 à 17:31
Citation Envoyé par hotcryx Voir le message
Pourquoi les russes toujours en 1er?!
Bien dit.

Citation Envoyé par hotcryx Voir le message
Ne comprenez-vous pas que les russes ne sont pas forcement méchants.
Perso: je joue avec des russes sur internet, et aucun soucis.
Là je comprends plus ? Qui a parlé de “méchant”. Ou que celui qui était en deuxième ne l'était pas ? Ou quel est le lien entre des joueurs russes et le gouvernement russe ?
Avatar de Michael Guilloux Michael Guilloux - Chroniqueur Actualités https://www.developpez.com
le 04/09/2018 à 13:51
Interdiction des robots tueurs : quelques pays, y compris les USA et la Russie, bloquent les négociations
menées au niveau des Nations Unies

« Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre », ont averti Elon Musk et une centaine de spécialistes de l'IA et la robotique, dans une lettre ouverte l'année dernière. Dans cette lettre, ils appelaient les Nations Unies à agir le plus vite possible et bannir les robots tueurs.

Cet avertissement a toute sa raison d'être étant donné qu’aujourd’hui, plus d'une dizaine de pays – y compris les États-Unis, la Chine, Israël, la Corée du Sud, la Russie et la Grande-Bretagne – développent des systèmes d'armes autonomes, selon un rapport de Human Rights Watch. Les Nations Unies travaillent donc sur la question, mais il semble qu'il sera impossible d'arriver un jour à des règles qui interdisent ce type d'armes, ou du moins celles qui sont les plus dangereuses.

La semaine dernière, dans une série de réunions qui se sont tenues à Genève, un groupe de la Convention des Nations Unies sur certaines armes classiques (CCW) a en effet discuté de l'opportunité d'amener les négociations sur les armes entièrement autonomes dotées d'IA à un niveau formel qui pourrait déboucher sur un traité qui les interdit. Mais les réunions se sont terminées sans que les pays participants se rapprochent de règles internationales contraignantes. D'après le quotidien Politico, les pays se sont juste entendus sur une liste de recommandations non contraignantes. Un petit nombre de pays -- notamment les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie -- auraient en effet empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs.

« N’importe quel État peut bloquer un progrès, et c'est ce qui s'est passé ici », a déclaré Mary Wareham, coordinatrice de la campagne pour mettre fin aux robots tueurs (Campaign to Stop Killer Robots). « Bien sûr, il est décevant qu’une petite minorité de grandes puissances militaires puisse freiner la volonté de la majorité », a-t-elle déclaré. Son groupe représente 75 organisations non gouvernementales dans 32 pays qui luttent pour l'interdiction des armes utilisant la technologie de l'IA pour choisir leurs cibles. Elle indique que 26 pays approuvent une interdiction totale de ces armes.


La position des États-Unis est loin d'être surprenante. En 2016, le pays de l'oncle Sam a testé des prototypes de robots militaires dans le Pacifique. N'oublions pas non plus le projet de drone militaire doté d'IA sur lequel le Pentagone travaille avec Google. Si à cela, on ajoute la déclaration du sous-secrétaire US à la défense selon laquelle il est important d'associer l'IA à l'armée, alors on comprend que les USA sont bien engagés dans cette course aux armes autonomes dotées d'IA. La Russie et l'Irak ne semblent pas non plus vouloir rester en marge.

C'est à la fin de 2013 que les Nations Unies ont mis le sujet à l'ordre du jour, mais depuis lors, peu de choses se sont produites. L'organisation n'a même pas été en mesure de s'entendre sur une définition des armes létales entièrement autonomes. Et en même temps, les positions autour de la table de négociation se durcissent, d'après les experts. « Les divergences entre les différentes positions se creusent », a déclaré Frank Sauer, expert en armes autonomes à l'université de la Bundeswehr à Munich.

Pendant les discussions de la semaine dernière, beaucoup de pays ont réitéré leur appel à une réglementation forte, poussant les États-Unis à entamer des négociations formelles l’année prochaine. On pourrait donc espérer se diriger vers des règles internationales contraignantes, mais les opposants à une interdiction étaient fermes dans leur position, d'après Politico. Le document publié à la fin des discussions recommande donc que les pourparlers sur des mesures non contraignantes se poursuivent.

Source : Politico

Et vous ?

Que pensez-vous de ces divergences dans les négociations sur l'interdiction des armes autonomes ?
Avez-vous espoir que les négociations aboutissent à l'interdiction de ces armes ?

Voir aussi :

Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur
Avatar de Danfre Danfre - Nouveau membre du Club https://www.developpez.com
le 04/09/2018 à 14:41
Les intérêts économiques et stratégiques priment, comme d'habitude...
J'imagine qu'il faudra qu'il arrive un accident pour qu'on se décide à bannir ces armes.
Contacter le responsable de la rubrique Accueil