Developpez.com

Le Club des Développeurs et IT Pro

Interdiction des robots tueurs : quelques pays, y compris les USA et la Russie, bloquent les négociations

Menées au niveau des Nations Unies

Le 2018-09-04 13:51:33, par Michael Guilloux, Chroniqueur Actualités
« Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre », ont averti Elon Musk et une centaine de spécialistes de l'IA et la robotique, dans une lettre ouverte l'année dernière. Dans cette lettre, ils appelaient les Nations Unies à agir le plus vite possible et bannir les robots tueurs.

Cet avertissement a toute sa raison d'être étant donné qu’aujourd’hui, plus d'une dizaine de pays – y compris les États-Unis, la Chine, Israël, la Corée du Sud, la Russie et la Grande-Bretagne – développent des systèmes d'armes autonomes, selon un rapport de Human Rights Watch. Les Nations Unies travaillent donc sur la question, mais il semble qu'il sera impossible d'arriver un jour à des règles qui interdisent ce type d'armes, ou du moins celles qui sont les plus dangereuses.

La semaine dernière, dans une série de réunions qui se sont tenues à Genève, un groupe de la Convention des Nations Unies sur certaines armes classiques (CCW) a en effet discuté de l'opportunité d'amener les négociations sur les armes entièrement autonomes dotées d'IA à un niveau formel qui pourrait déboucher sur un traité qui les interdit. Mais les réunions se sont terminées sans que les pays participants se rapprochent de règles internationales contraignantes. D'après le quotidien Politico, les pays se sont juste entendus sur une liste de recommandations non contraignantes. Un petit nombre de pays -- notamment les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie -- auraient en effet empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs.

« N’importe quel État peut bloquer un progrès, et c'est ce qui s'est passé ici », a déclaré Mary Wareham, coordinatrice de la campagne pour mettre fin aux robots tueurs (Campaign to Stop Killer Robots). « Bien sûr, il est décevant qu’une petite minorité de grandes puissances militaires puisse freiner la volonté de la majorité », a-t-elle déclaré. Son groupe représente 75 organisations non gouvernementales dans 32 pays qui luttent pour l'interdiction des armes utilisant la technologie de l'IA pour choisir leurs cibles. Elle indique que 26 pays approuvent une interdiction totale de ces armes.


La position des États-Unis est loin d'être surprenante. En 2016, le pays de l'oncle Sam a testé des prototypes de robots militaires dans le Pacifique. N'oublions pas non plus le projet de drone militaire doté d'IA sur lequel le Pentagone travaille avec Google. Si à cela, on ajoute la déclaration du sous-secrétaire US à la défense selon laquelle il est important d'associer l'IA à l'armée, alors on comprend que les USA sont bien engagés dans cette course aux armes autonomes dotées d'IA. La Russie et l'Irak ne semblent pas non plus vouloir rester en marge.

C'est à la fin de 2013 que les Nations Unies ont mis le sujet à l'ordre du jour, mais depuis lors, peu de choses se sont produites. L'organisation n'a même pas été en mesure de s'entendre sur une définition des armes létales entièrement autonomes. Et en même temps, les positions autour de la table de négociation se durcissent, d'après les experts. « Les divergences entre les différentes positions se creusent », a déclaré Frank Sauer, expert en armes autonomes à l'université de la Bundeswehr à Munich.

Pendant les discussions de la semaine dernière, beaucoup de pays ont réitéré leur appel à une réglementation forte, poussant les États-Unis à entamer des négociations formelles l’année prochaine. On pourrait donc espérer se diriger vers des règles internationales contraignantes, mais les opposants à une interdiction étaient fermes dans leur position, d'après Politico. Le document publié à la fin des discussions recommande donc que les pourparlers sur des mesures non contraignantes se poursuivent.

Source : Politico

Et vous ?

Que pensez-vous de ces divergences dans les négociations sur l'interdiction des armes autonomes ?
Avez-vous espoir que les négociations aboutissent à l'interdiction de ces armes ?

Voir aussi :

Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur
  Discussion forum
114 commentaires
  • Anselme45
    Membre extrêmement actif
    Envoyé par Stéphane le calme
    L'Europe estime qu'une intelligence artificielle ne doit pas avoir le droit de vie ou de mort sur le champ de bataille,
    et appelle à interdire les robots-tueurs

    Et comme l'Europe est devenu un nain au niveau mondial, aussi bien économiquement que militairement, tout le monde se fout royalement de son avis...

    Les USA, la Chine et la Russie se feront un plaisir de prendre le contre-pied de l'avis européen...
  • totozor
    Membre expert
    Envoyé par denisys
    De la Terre à la Lune.
    Jules Verne, paru en 1865.
    --
    https://fr.wikipedia.org/wiki/De_la_...%C3%A0_la_Lune
    Envoyé par Tweet de Jules vernes le 21 juillet 1969
    (1/4) Je vous l'avais bien dit.
    Envoyé par Tweet de Jules vernes le 21 juillet 1969
    (2/4) Mais vous ne m'avez pas écouté
    Envoyé par Tweet de Jules vernes le 21 juillet 1969
    (3/4) Lisez Voyage au centre de la Terre
    Envoyé par Tweet de Jules vernes le 21 juillet 1969
    (4/4) Prem's @ElonMusk
    Va-t-on aborder chaque oeuvre de SF comme un documentaire parce que 10 se sont effectivement passé?
    Je ne suis pas sur.

    Par contre c'est en effet interressant de les lire/voir parce qu'elles nous encouragent à réfléchir sur ces situations avant qu'elle puisse arriver pour les éviter ou réduire les rendre moins dramatiques.
    Et si on veut aller dans le sens de Cameron alors je trouve que Robocop mène une reflexion bien plus poussée que Terminator, qui n'annonce que la fin du monde par la technologie.
    En plus toute la série Terminator ne dit qu'une chose : quoi qu'on fasse on est foutu (donc pourquoi lutter contre, résignons nous )
  • GLDavid
    Expert confirmé
    Bonjour

    Envoyé par Ryu2000

    Première guerre mondiale : 15/20 millions de morts
    Seconde guerre mondiale : 50/70 millions de morts
    Je vous laisse imaginer la troisième...
    Tu as tout à fait raison. Citons Albert Einstein:
    Envoyé par Albert Einstein
    Je ne sais pas à quoi resemblera la 3ème guerre mondiale, mais je peux vous dire que la 4ème se fera avec des batons et des cailloux.
    On y va tout droit !
    Sur ce, bonne journée

    @++
  • marsupial
    Expert éminent
    A 20 000 failles/an dans les systèmes, je sens que la prochaine guerre sera très courte et qu'un hacker va la gagner tout seul

    Par contre, je ne dis pas qu'elle ne sera pas ultra meurtrière... tant en militaires qu'en civils.
  • SoyouzH2
    Membre régulier
    "si elles sont bien développées, peuvent rendre la guerre plus humaine, a rapporté Bhalla"

    Lol.
  • Minato Sensei
    Futur Membre du Club
    Envoyé par nasserk
    A part si l'IA a été entrainé sur des scénario de science fictions, mais pourquoi faire déjà...

    On donne pas n'importe quoi à une IA, comme on apprends pas n'importe quoi à son bébé/enfant..., l'IA obéit aveuglement, elle a aucune volonté propre, c'est vraiment une fake news cette histoire, ou un canular pas drole...
    En suivant ce raisonnement, on peut se dire que les Tesla dont l'IA, selon vous, « obéit aveuglement », sont formées pour éviter la police, percuter les voitures de police, etc. ?

    Ou encore que le chatbot IA de Microsoft était programmé pour être raciste et fan d'Hitler ? Que ChatGPT a été programmé pour faire des menaces aux étudiants ?

    Je pense qu'il arrive que le logiciel fasse quelque chose d'inattendu, sans pour autant que cela soit associé à de la « volonté propre ».

    Il revient alors aux développeurs de réajuster les paramètres pour prendre en considération un scénario de ce type. Il n'y a pas de magie dedans, c'est simplement de la science informatique.
  • Anselme45
    Membre extrêmement actif
    Envoyé par nasserk
    A part si l'IA a été entrainé sur des scénario de science fictions, mais pourquoi faire déjà...

    On donne pas n'importe quoi à une IA, comme on apprends pas n'importe quoi à son bébé/enfant..., l'IA obéit aveuglement, elle a aucune volonté propre, c'est vraiment une fake news cette histoire, ou un canular pas drole...
    Tous les chercheurs spécialistes de l'IA le savent, et quand je parle de "spécialistes", je ne parle ni des "branleurs" qui se disent "expert" et qui sont "expert de rien", ni des "vendeurs" de tout poils prêts à faire du profit en vendant à leur mère une grenade dégoupillée en disant qu'il s'agit d'un ananas:

    Une IA peut avoir un comportement "inattendu", hors de toute logique, que les spécialistes en IA n'ont jamais pu expliquer ou même corriger.

    On explique ce comportement par l'exemple de l'orange et de l'hélicoptère: On apprend à une IA à reconnaître sur des photos qui lui sont présentées les oranges. On reprend ensuite les photos des oranges et on y change juste quelques pixels: Pour l'oeil humain, il s'agit toujours de photos d'orange, mais l'IA va tout d'un coup reconnaître sur une photo un hélicoptère!!!

    Ce problème de comportement est présent sur la totalité des IA actuelles: Une IA fournit des informations qui ne sont pas fiables! 90%, 95% seront peut-être justes, mais il y aura des immenses erreurs dans les résultats fournis et ces erreurs apparaitront de manière non prévisibles, rendant les résultats inutilisables sans une vérification humaine.

    Ce forum en a d'ailleurs donné un exemple avec cet avocat américain qui a demandé à une IA de préparer sa plaidoirie: L'IA a tout simplement inventé de toute pièces 6 affaires faisant jurisprudence qui n'ont jamais existé dans la réalité. Pas de bol pour l'avocat, si lui n'a pas vérifié, le juge a détecté les *inventions" de l'IA.
  • R136a1
    Nouveau membre du Club
    De plus, la manipulation délibérée des systèmes par des acteurs malveillants à des fins diverses constitue une menace potentielle.
    Selon moi, c'est ça le plus grand risque de l'IA. Et c'est déjà une réalité.
  • Ryu2000
    Membre extrêmement actif
    Envoyé par Michael Guilloux
    Que pensez-vous de ces divergences dans les négociations sur l'interdiction des armes autonomes ?
    Peu importe, ce n'est pas important...
    Il y a les USA qui ont le plus gros budget militaire qui investissent à fond dans l'IA militaire et les robots tueurs.
    Les USA sont le moteur des robots tueurs, une fois qu'un pays se lance dans un truc il faut que les autres suivent pour pouvoir se défendre au cas où.

    C'est comme avec la bombe nucléaire, une fois qu'un pays l'a, les autres en ont besoin.

    Envoyé par Michael Guilloux
    Avez-vous espoir que les négociations aboutissent à l'interdiction de ces armes ?
    Même si ce type d'arme devenait illégal les pays comme les USA, Israël et la Chine continueraient le développement en secret.
    Il est probable que plusieurs pays travaillent sur des armes illégales. (il y a des labos qui bossent sur des armes chimique, ce ne serait pas étonnant que l'épidémie d'Ébola qu'il y a eu il y a quelques années venait d'un labo US... Mais on le saura jamais !)

    Les USA ont utilisé des choses comme l'Agent Orange, le Napalm, le gaz sarin, le phosphore blanc, et des armes interdite par la convention de Genève.

    Il y a une guerre mondiale qui approche, c'est pas une loi qui bloquera les superpuissances comme les USA et la Chine.
    Quand il s'agit de guerre les gouvernements y vont à fond (2 bombes atomiques sur les civils japonais).
    Plus le temps passe plus les guerres sont meurtrière et inhumaine.

    Première guerre mondiale : 15/20 millions de morts
    Seconde guerre mondiale : 50/70 millions de morts
    Je vous laisse imaginer la troisième...
  • onilink_
    Membre émérite
    Vos commentaires donnent l'impression que cette loi est une mauvaise chose.

    Hors je ne vois pas ce qui empêche la recherche de continuer, mais avec des buts différents.
    Si c'est un soucis de se protéger des autres nations, développer nous même des armes autonomes ne réglera pas vraiment le soucis, y aura toujours "celui qui a la plus grosse".
    Contrairement au nucléaire on ne parle pas d'armement capable de rendre le monde inhabitable, donc personne s'en privera l'usage même si ceux d'en face en ont aussi.

    Ce qu'il faudrait développer, c'est des technologies anti armes autonomes, tout comme on développait des technologies anti missiles pour se défendre.

    Puis si personne ne fait le premier pas pour interdire a l’échelle d'une nation les armes autonomes... personne ne le fera jamais.