IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Interdiction des robots tueurs : quelques pays, y compris les USA et la Russie, bloquent les négociations
Menées au niveau des Nations Unies

Le , par Michael Guilloux

691PARTAGES

13  0 
« Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre », ont averti Elon Musk et une centaine de spécialistes de l'IA et la robotique, dans une lettre ouverte l'année dernière. Dans cette lettre, ils appelaient les Nations Unies à agir le plus vite possible et bannir les robots tueurs.

Cet avertissement a toute sa raison d'être étant donné qu’aujourd’hui, plus d'une dizaine de pays – y compris les États-Unis, la Chine, Israël, la Corée du Sud, la Russie et la Grande-Bretagne – développent des systèmes d'armes autonomes, selon un rapport de Human Rights Watch. Les Nations Unies travaillent donc sur la question, mais il semble qu'il sera impossible d'arriver un jour à des règles qui interdisent ce type d'armes, ou du moins celles qui sont les plus dangereuses.

La semaine dernière, dans une série de réunions qui se sont tenues à Genève, un groupe de la Convention des Nations Unies sur certaines armes classiques (CCW) a en effet discuté de l'opportunité d'amener les négociations sur les armes entièrement autonomes dotées d'IA à un niveau formel qui pourrait déboucher sur un traité qui les interdit. Mais les réunions se sont terminées sans que les pays participants se rapprochent de règles internationales contraignantes. D'après le quotidien Politico, les pays se sont juste entendus sur une liste de recommandations non contraignantes. Un petit nombre de pays -- notamment les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie -- auraient en effet empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs.

« N’importe quel État peut bloquer un progrès, et c'est ce qui s'est passé ici », a déclaré Mary Wareham, coordinatrice de la campagne pour mettre fin aux robots tueurs (Campaign to Stop Killer Robots). « Bien sûr, il est décevant qu’une petite minorité de grandes puissances militaires puisse freiner la volonté de la majorité », a-t-elle déclaré. Son groupe représente 75 organisations non gouvernementales dans 32 pays qui luttent pour l'interdiction des armes utilisant la technologie de l'IA pour choisir leurs cibles. Elle indique que 26 pays approuvent une interdiction totale de ces armes.


La position des États-Unis est loin d'être surprenante. En 2016, le pays de l'oncle Sam a testé des prototypes de robots militaires dans le Pacifique. N'oublions pas non plus le projet de drone militaire doté d'IA sur lequel le Pentagone travaille avec Google. Si à cela, on ajoute la déclaration du sous-secrétaire US à la défense selon laquelle il est important d'associer l'IA à l'armée, alors on comprend que les USA sont bien engagés dans cette course aux armes autonomes dotées d'IA. La Russie et l'Irak ne semblent pas non plus vouloir rester en marge.

C'est à la fin de 2013 que les Nations Unies ont mis le sujet à l'ordre du jour, mais depuis lors, peu de choses se sont produites. L'organisation n'a même pas été en mesure de s'entendre sur une définition des armes létales entièrement autonomes. Et en même temps, les positions autour de la table de négociation se durcissent, d'après les experts. « Les divergences entre les différentes positions se creusent », a déclaré Frank Sauer, expert en armes autonomes à l'université de la Bundeswehr à Munich.

Pendant les discussions de la semaine dernière, beaucoup de pays ont réitéré leur appel à une réglementation forte, poussant les États-Unis à entamer des négociations formelles l’année prochaine. On pourrait donc espérer se diriger vers des règles internationales contraignantes, mais les opposants à une interdiction étaient fermes dans leur position, d'après Politico. Le document publié à la fin des discussions recommande donc que les pourparlers sur des mesures non contraignantes se poursuivent.

Source : Politico

Et vous ?

Que pensez-vous de ces divergences dans les négociations sur l'interdiction des armes autonomes ?
Avez-vous espoir que les négociations aboutissent à l'interdiction de ces armes ?

Voir aussi :

Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 13/09/2018 à 12:40
Citation Envoyé par Stéphane le calme Voir le message
L'Europe estime qu'une intelligence artificielle ne doit pas avoir le droit de vie ou de mort sur le champ de bataille,
et appelle à interdire les robots-tueurs

Et comme l'Europe est devenu un nain au niveau mondial, aussi bien économiquement que militairement, tout le monde se fout royalement de son avis...

Les USA, la Chine et la Russie se feront un plaisir de prendre le contre-pied de l'avis européen...
5  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 20/07/2023 à 8:03
Citation Envoyé par denisys Voir le message
De la Terre à la Lune.
Jules Verne, paru en 1865.
--
https://fr.wikipedia.org/wiki/De_la_...%C3%A0_la_Lune
Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
(1/4) Je vous l'avais bien dit.
Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
(2/4) Mais vous ne m'avez pas écouté
Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
(3/4) Lisez Voyage au centre de la Terre
Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
(4/4) Prem's @ElonMusk
Va-t-on aborder chaque oeuvre de SF comme un documentaire parce que 10 se sont effectivement passé?
Je ne suis pas sur.

Par contre c'est en effet interressant de les lire/voir parce qu'elles nous encouragent à réfléchir sur ces situations avant qu'elle puisse arriver pour les éviter ou réduire les rendre moins dramatiques.
Et si on veut aller dans le sens de Cameron alors je trouve que Robocop mène une reflexion bien plus poussée que Terminator, qui n'annonce que la fin du monde par la technologie.
En plus toute la série Terminator ne dit qu'une chose : quoi qu'on fasse on est foutu (donc pourquoi lutter contre, résignons nous )
5  0 
Avatar de GLDavid
Expert confirmé https://www.developpez.com
Le 04/09/2018 à 15:54
Bonjour

Citation Envoyé par Ryu2000

Première guerre mondiale : 15/20 millions de morts
Seconde guerre mondiale : 50/70 millions de morts
Je vous laisse imaginer la troisième...
Tu as tout à fait raison. Citons Albert Einstein:
Citation Envoyé par Albert Einstein
Je ne sais pas à quoi resemblera la 3ème guerre mondiale, mais je peux vous dire que la 4ème se fera avec des batons et des cailloux.
On y va tout droit !
Sur ce, bonne journée

@++
4  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 13/09/2018 à 14:22
A 20 000 failles/an dans les systèmes, je sens que la prochaine guerre sera très courte et qu'un hacker va la gagner tout seul

Par contre, je ne dis pas qu'elle ne sera pas ultra meurtrière... tant en militaires qu'en civils.
4  0 
Avatar de SoyouzH2
Membre régulier https://www.developpez.com
Le 20/01/2020 à 14:39
"si elles sont bien développées, peuvent rendre la guerre plus humaine, a rapporté Bhalla"

Lol.
4  0 
Avatar de Minato Sensei
Futur Membre du Club https://www.developpez.com
Le 03/06/2023 à 9:07
Citation Envoyé par nasserk Voir le message
A part si l'IA a été entrainé sur des scénario de science fictions, mais pourquoi faire déjà...

On donne pas n'importe quoi à une IA, comme on apprends pas n'importe quoi à son bébé/enfant..., l'IA obéit aveuglement, elle a aucune volonté propre, c'est vraiment une fake news cette histoire, ou un canular pas drole...
En suivant ce raisonnement, on peut se dire que les Tesla dont l'IA, selon vous, « obéit aveuglement », sont formées pour éviter la police, percuter les voitures de police, etc. ?

Ou encore que le chatbot IA de Microsoft était programmé pour être raciste et fan d'Hitler ? Que ChatGPT a été programmé pour faire des menaces aux étudiants ?

Je pense qu'il arrive que le logiciel fasse quelque chose d'inattendu, sans pour autant que cela soit associé à de la « volonté propre ».

Il revient alors aux développeurs de réajuster les paramètres pour prendre en considération un scénario de ce type. Il n'y a pas de magie dedans, c'est simplement de la science informatique.
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 03/06/2023 à 12:42
Citation Envoyé par nasserk Voir le message
A part si l'IA a été entrainé sur des scénario de science fictions, mais pourquoi faire déjà...

On donne pas n'importe quoi à une IA, comme on apprends pas n'importe quoi à son bébé/enfant..., l'IA obéit aveuglement, elle a aucune volonté propre, c'est vraiment une fake news cette histoire, ou un canular pas drole...
Tous les chercheurs spécialistes de l'IA le savent, et quand je parle de "spécialistes", je ne parle ni des "branleurs" qui se disent "expert" et qui sont "expert de rien", ni des "vendeurs" de tout poils prêts à faire du profit en vendant à leur mère une grenade dégoupillée en disant qu'il s'agit d'un ananas:

Une IA peut avoir un comportement "inattendu", hors de toute logique, que les spécialistes en IA n'ont jamais pu expliquer ou même corriger.

On explique ce comportement par l'exemple de l'orange et de l'hélicoptère: On apprend à une IA à reconnaître sur des photos qui lui sont présentées les oranges. On reprend ensuite les photos des oranges et on y change juste quelques pixels: Pour l'oeil humain, il s'agit toujours de photos d'orange, mais l'IA va tout d'un coup reconnaître sur une photo un hélicoptère!!!

Ce problème de comportement est présent sur la totalité des IA actuelles: Une IA fournit des informations qui ne sont pas fiables! 90%, 95% seront peut-être justes, mais il y aura des immenses erreurs dans les résultats fournis et ces erreurs apparaitront de manière non prévisibles, rendant les résultats inutilisables sans une vérification humaine.

Ce forum en a d'ailleurs donné un exemple avec cet avocat américain qui a demandé à une IA de préparer sa plaidoirie: L'IA a tout simplement inventé de toute pièces 6 affaires faisant jurisprudence qui n'ont jamais existé dans la réalité. Pas de bol pour l'avocat, si lui n'a pas vérifié, le juge a détecté les *inventions" de l'IA.
5  1 
Avatar de R136a1
Nouveau membre du Club https://www.developpez.com
Le 18/02/2024 à 11:36
De plus, la manipulation délibérée des systèmes par des acteurs malveillants à des fins diverses constitue une menace potentielle.
Selon moi, c'est ça le plus grand risque de l'IA. Et c'est déjà une réalité.
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 04/09/2018 à 15:11
Citation Envoyé par Michael Guilloux Voir le message
Que pensez-vous de ces divergences dans les négociations sur l'interdiction des armes autonomes ?
Peu importe, ce n'est pas important...
Il y a les USA qui ont le plus gros budget militaire qui investissent à fond dans l'IA militaire et les robots tueurs.
Les USA sont le moteur des robots tueurs, une fois qu'un pays se lance dans un truc il faut que les autres suivent pour pouvoir se défendre au cas où.

C'est comme avec la bombe nucléaire, une fois qu'un pays l'a, les autres en ont besoin.

Citation Envoyé par Michael Guilloux Voir le message
Avez-vous espoir que les négociations aboutissent à l'interdiction de ces armes ?
Même si ce type d'arme devenait illégal les pays comme les USA, Israël et la Chine continueraient le développement en secret.
Il est probable que plusieurs pays travaillent sur des armes illégales. (il y a des labos qui bossent sur des armes chimique, ce ne serait pas étonnant que l'épidémie d'Ébola qu'il y a eu il y a quelques années venait d'un labo US... Mais on le saura jamais !)

Les USA ont utilisé des choses comme l'Agent Orange, le Napalm, le gaz sarin, le phosphore blanc, et des armes interdite par la convention de Genève.

Il y a une guerre mondiale qui approche, c'est pas une loi qui bloquera les superpuissances comme les USA et la Chine.
Quand il s'agit de guerre les gouvernements y vont à fond (2 bombes atomiques sur les civils japonais).
Plus le temps passe plus les guerres sont meurtrière et inhumaine.

Première guerre mondiale : 15/20 millions de morts
Seconde guerre mondiale : 50/70 millions de morts
Je vous laisse imaginer la troisième...
3  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 13/09/2018 à 13:45
Vos commentaires donnent l'impression que cette loi est une mauvaise chose.

Hors je ne vois pas ce qui empêche la recherche de continuer, mais avec des buts différents.
Si c'est un soucis de se protéger des autres nations, développer nous même des armes autonomes ne réglera pas vraiment le soucis, y aura toujours "celui qui a la plus grosse".
Contrairement au nucléaire on ne parle pas d'armement capable de rendre le monde inhabitable, donc personne s'en privera l'usage même si ceux d'en face en ont aussi.

Ce qu'il faudrait développer, c'est des technologies anti armes autonomes, tout comme on développait des technologies anti missiles pour se défendre.

Puis si personne ne fait le premier pas pour interdire a l’échelle d'une nation les armes autonomes... personne ne le fera jamais.
3  0