IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La résistance contre les robots tueurs grandit : des militants de 35 pays à Berlin pour s'opposer à ces armes
Et réclamer une initiative allemande

Le , par Stan Adkens

498PARTAGES

7  0 
La résistance contre les robots tueurs animés par l’intelligence artificielle continue difficilement, mais de façon engagée afin d’emmener le maximum de pays, surtout ceux qui sont impliqués dans la recherche et le développement pour concevoir ces armes meurtrières, à rejoindre le mouvement. Selon un article publié hier par Deutsche Welle, le service international de diffusion de l’Allemagne, des militants de 35 pays s’étaient réunis à Berlin la semaine dernière pour demander l'interdiction des armes autonomes meurtrières. Ces militants engagés contre l’utilisation des armes autonomes veulent attirer l’attention des pays non encore engagés et surtout l’Allemagne dans la perspective de nouvelles négociations sur ces armes à Genève.

Noel Sharkey, l'une des figures de proue de la campagne pour arrêter les robots tueurs était présent à Berlin pour participer à la réunion internationale de la Campagne pour arrêter les robots tueurs qui s'est terminée vendredi. Noel Sharkey est un professeur émérite de l'université de Sheffield, aussi un spécialiste reconnu de la robotique et de l'intelligence artificielle. « Je peux vous construire un robot tueur en seulement deux semaines », a-t-il dit lors du rassemblement avec un regard avertisseur.

Sharkey s'oppose à l'idée de parler de « systèmes d'armes autonomes mortels » comme s'il s'agissait d'un roman de science-fiction, d’après Deutsche Welle. Le militant des droits de l’homme dit que, les systèmes d'armes entièrement autonomes sont une réalité bien établie. Pour lui, il n'est pas nécessaire de discuter de leur définition qui est déjà assez connue comme étant des armes qui cherchent, sélectionnent et attaquent des cibles par leurs propres moyens. C'est, par ailleurs, la définition que le Comité international de la Croix-Rouge (CICR) leur donne.


En effet, les soldats n'ont plus besoin d’appuyer sur la détente avec de telles armes. Ces robots, boostés par l’intelligence artificielle, utilisent eux-mêmes un logiciel intégré pour trouver et frapper des cibles. Ces armes peuvent prendre la forme de missiles, de véhicules terrestres sans pilote, de sous-marins ou d'essaims de mini-drones. 28 pays réclament actuellement l'interdiction des systèmes d'armes autonomes meurtrières, mais de nombreux pays s’y opposent encore.

Les premières discussions formelles visant à limiter ou interdire l’utilisation des systèmes d’armes létales autonomes (SALA) ou des robots de guerre, pour faire simple, se sont tenues au cours des derniers mois de l’année 2017 à Genève sous l’égide de L’ONU. Ces discussions axées autour de la convention sur certaines armes classiques (CCAC) devraient permettre de soumettre ces dispositifs de guerre au droit international en identifiant les « SALA illicites » en fonction du niveau de contrôle attribué à l’homme.

À ce sujet, la France a proposé d’approfondir la distinction entre les systèmes dotés « d’automatismes » de complexité variable et les systèmes « autonomes » qui ne font appel à aucune mesure de supervision humaine. Le gouvernement russe est resté fermement opposé à toute interdiction visant à limiter ou interdire le développement des SALA ou des technologies liées à l’IA à des fins militaires qui serait prise au niveau de l’ONU.

Selon un rapport fourni par le site DefenceOne.com le 10 novembre 2017, la Fédération de Russie soutenait que « l’absence de réglementation claire sur de tels systèmes d’armement reste le principal problème dans la discussion sur les lois », mais « il est difficilement acceptable que l’encadrement des SALA restreigne la liberté de profiter des avantages des technologies autonomes qui représentent l’avenir de l’humanité. » Les États-Unis de leur côté, ont estimé qu’il est encore « prématuré » d’envisager une interdiction des SALA, même si l’administration Trump dit soutenir le processus de la CCAC.

Dans une série de réunions qui se sont tenues à Genève en fin août 2018, les discussions sur l'opportunité d'amener les négociations sur les armes entièrement autonomes dotées d'IA à un niveau formel qui pourrait déboucher sur un traité qui les interdit n’a aboutit qu’à une liste de recommandations non contraignantes. Les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie auraient en effet empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs. C'est à la fin de 2013 que les Nations Unies ont mis le sujet à l'ordre du jour, mais depuis lors, peu de choses se sont produites. L'organisation n'a même pas été en mesure de s'entendre sur une définition des armes létales entièrement autonomes. Les militants des droits de l’homme devraient davantage s’armer de courage pour continuer le combat.

Un certain nombre d'organisations non gouvernementales (ONG) se sont jointes à la Campagne mondiale pour arrêter les robots tueurs à Berlin pour demander à l'Allemagne d’exiger que les systèmes d'armes autonomes qui violent le droit international soient interdits. En effet, pour ces militants, si l'Allemagne prenait l'initiative de se joindre au mouvement de l’interdiction, d'autres pays suivraient. Selon Deutsche Welle, le gouvernement allemand actuel a affirmé l’interdiction dans ses négociations de coalition en 2018, mais n'a prononcé que des déclarations politiques non contraignantes à l'ONU à Genève.

Selon Thomas Küchenmeister de l'ONG Facing Finance, « ce n'est pas suffisant pour établir une interdiction ». Selon lui, le gouvernement allemand devrait se joindre aux 28 pays qui réclament actuellement l'interdiction des systèmes d'armes autonomes meurtriers.

Le Secrétaire général de l'ONU, Antonio Guterres, et le Parlement européen sont également en faveur d'une interdiction. Le Parlement européen a adopté une résolution demandant une interdiction internationale des robots soi-disant tueurs qui vise à anticiper le développement et l'utilisation de systèmes d'armes autonomes capables de tuer sans intervention humaine. Le CICR affirme que l'utilisation de ces armes constitue une violation manifeste du droit international.

Récemment, la Société allemande d'informatique (GI), une organisation de chercheurs en informatique, ainsi que l'influente Association fédérale de l'industrie allemande (BDI), ont également appelé à une interdiction juridiquement contraignante. Mais l’Allemagne, dont les fabricants d’armes ont vendu en février dernier avec enthousiasme leurs nouvelles armes aux fonctions autonomes lors de la plus grande foire aux armes du Moyen-Orient à IDEX à Abu Dhabi, a toujours une position indécise quant à l’interdiction formelle des robots tueurs.


Les déclarations politiques non contraignantes du gouvernement allemand fournissent une « couverture parfaite » aux pays opposés à une interdiction

Selon Deutsche Welle, bien que des pays comme les États-Unis et la Chine soient en tête de l'utilisation de l'IA dans le monde, une grande partie de la recherche dont dépendent ces systèmes vient d'Europe. Cela donne beaucoup de poids aux voix européennes dans le débat en cours. Selon Noel Sharkey, « Si l'Allemagne prend la tête, d'autres suivront ». M. Sharkey prévient également que les déclarations politiques non contraignantes, comme celles que le gouvernement allemand défend actuellement, fournissent une « couverture parfaite » aux pays opposés à une interdiction. Ces pays comprennent la Russie, Israël et les États-Unis, selon le rapport de Deutsche Welle.

Cependant, le gouvernement allemand soutient qu'il est essentiellement en faveur d'une interdiction, mais qu'il avait fait pression sur la déclaration politique nettement plus faiblement pour des raisons tactiques. En effet, selon le gouvernement allemand, son approche consiste à maintenir un dialogue avec des pays comme les États-Unis, plutôt que de les aliéner complètement.

Toutefois, la lauréate du prix Nobel de la paix Jody Williams n'est pas du tout convaincue par cet argument. S'exprimant à Berlin, elle a appelé le ministre allemand des Affaires étrangères Heiko Maas à reconsidérer sa position. M. Williams a fait valoir que quiconque attend que les États-Unis se prononcent en faveur d'une interdiction attendra éternellement.

Des discussions internationales sur la façon de réglementer les droits de l'homme se tiendront à Genève, en Suisse, du 25 au 29 mars. Espérons qu’elles aboutiront à des recommandations contraignantes afin que les prédictions d’Elon Musk et d’une centaine de spécialistes de l'IA et de la robotique, selon lesquelles « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre », ne se réalisent pas.

Source : Deutsche Welle

Et vous ?

Que pensez-vous de cette résistance ?
Pensez-vous que c’est un combat crédible ou Don Quichotte qui se bat contre des moulins à vent ?
Pensez-vous que ce combat aboutira un jour à une interdiction effective des robots tueurs ?

Lire aussi

L'Armée américaine rassure le public sur ses chars d'assaut alimentés par l'IA, en précisant qu'ils resteront toujours sous contrôle humain
Google promet de ne pas utiliser l'IA pour le développement d'armes, mais informe qu'il va continuer à coopérer avec les militaires
Des scientifiques demandent l'interdiction du développement d'armes contrôlées par l'IA, en évoquant de nombreux problèmes sous-jacents
Elon Musk appelle les Nations Unies à bannir les robots tueurs dans une lettre ouverte, signée par 116 spécialistes de l'IA et la robotique
Que se passera-t-il si des robots tueurs sont piratés ou détournés ? La question fait débat au sein de la communauté scientifique

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Membre expert https://www.developpez.com
Le 20/07/2023 à 8:03
Citation Envoyé par denisys Voir le message
De la Terre à la Lune.
Jules Verne, paru en 1865.
--
https://fr.wikipedia.org/wiki/De_la_...%C3%A0_la_Lune
Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
(1/4) Je vous l'avais bien dit.
Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
(2/4) Mais vous ne m'avez pas écouté
Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
(3/4) Lisez Voyage au centre de la Terre
Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
(4/4) Prem's @ElonMusk
Va-t-on aborder chaque oeuvre de SF comme un documentaire parce que 10 se sont effectivement passé?
Je ne suis pas sur.

Par contre c'est en effet interressant de les lire/voir parce qu'elles nous encouragent à réfléchir sur ces situations avant qu'elle puisse arriver pour les éviter ou réduire les rendre moins dramatiques.
Et si on veut aller dans le sens de Cameron alors je trouve que Robocop mène une reflexion bien plus poussée que Terminator, qui n'annonce que la fin du monde par la technologie.
En plus toute la série Terminator ne dit qu'une chose : quoi qu'on fasse on est foutu (donc pourquoi lutter contre, résignons nous )
5  0 
Avatar de SoyouzH2
Membre régulier https://www.developpez.com
Le 20/01/2020 à 14:39
"si elles sont bien développées, peuvent rendre la guerre plus humaine, a rapporté Bhalla"

Lol.
4  0 
Avatar de Minato Sensei
Futur Membre du Club https://www.developpez.com
Le 03/06/2023 à 9:07
Citation Envoyé par nasserk Voir le message
A part si l'IA a été entrainé sur des scénario de science fictions, mais pourquoi faire déjà...

On donne pas n'importe quoi à une IA, comme on apprends pas n'importe quoi à son bébé/enfant..., l'IA obéit aveuglement, elle a aucune volonté propre, c'est vraiment une fake news cette histoire, ou un canular pas drole...
En suivant ce raisonnement, on peut se dire que les Tesla dont l'IA, selon vous, « obéit aveuglement », sont formées pour éviter la police, percuter les voitures de police, etc. ?

Ou encore que le chatbot IA de Microsoft était programmé pour être raciste et fan d'Hitler ? Que ChatGPT a été programmé pour faire des menaces aux étudiants ?

Je pense qu'il arrive que le logiciel fasse quelque chose d'inattendu, sans pour autant que cela soit associé à de la « volonté propre ».

Il revient alors aux développeurs de réajuster les paramètres pour prendre en considération un scénario de ce type. Il n'y a pas de magie dedans, c'est simplement de la science informatique.
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 03/06/2023 à 12:42
Citation Envoyé par nasserk Voir le message
A part si l'IA a été entrainé sur des scénario de science fictions, mais pourquoi faire déjà...

On donne pas n'importe quoi à une IA, comme on apprends pas n'importe quoi à son bébé/enfant..., l'IA obéit aveuglement, elle a aucune volonté propre, c'est vraiment une fake news cette histoire, ou un canular pas drole...
Tous les chercheurs spécialistes de l'IA le savent, et quand je parle de "spécialistes", je ne parle ni des "branleurs" qui se disent "expert" et qui sont "expert de rien", ni des "vendeurs" de tout poils prêts à faire du profit en vendant à leur mère une grenade dégoupillée en disant qu'il s'agit d'un ananas:

Une IA peut avoir un comportement "inattendu", hors de toute logique, que les spécialistes en IA n'ont jamais pu expliquer ou même corriger.

On explique ce comportement par l'exemple de l'orange et de l'hélicoptère: On apprend à une IA à reconnaître sur des photos qui lui sont présentées les oranges. On reprend ensuite les photos des oranges et on y change juste quelques pixels: Pour l'oeil humain, il s'agit toujours de photos d'orange, mais l'IA va tout d'un coup reconnaître sur une photo un hélicoptère!!!

Ce problème de comportement est présent sur la totalité des IA actuelles: Une IA fournit des informations qui ne sont pas fiables! 90%, 95% seront peut-être justes, mais il y aura des immenses erreurs dans les résultats fournis et ces erreurs apparaitront de manière non prévisibles, rendant les résultats inutilisables sans une vérification humaine.

Ce forum en a d'ailleurs donné un exemple avec cet avocat américain qui a demandé à une IA de préparer sa plaidoirie: L'IA a tout simplement inventé de toute pièces 6 affaires faisant jurisprudence qui n'ont jamais existé dans la réalité. Pas de bol pour l'avocat, si lui n'a pas vérifié, le juge a détecté les *inventions" de l'IA.
5  1 
Avatar de R136a1
Nouveau membre du Club https://www.developpez.com
Le 18/02/2024 à 11:36
De plus, la manipulation délibérée des systèmes par des acteurs malveillants à des fins diverses constitue une menace potentielle.
Selon moi, c'est ça le plus grand risque de l'IA. Et c'est déjà une réalité.
4  0 
Avatar de fodger
Membre confirmé https://www.developpez.com
Le 20/01/2020 à 16:48
Je ne comprends même pas qu'on puisse travailler sur de tels sujets.
3  0 
Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 20/01/2020 à 17:19
Citation Envoyé par fodger Voir le message
Je ne comprends même pas qu'on puisse travailler sur de tels sujets.
c'est assez simple en fait, si toi dans ton pays tu décides de ne pas le faire, ton voisin lui le fera peut-être, et pourra alors avoir un avantage stratégique/technologique et éventuellement menacer ton pays.
c'est tristement logique, et l'application directe de la sélection naturelle, si tu ne veux pas être en position d'être menacé, alors tu dois être dans le peloton de tête dans la course à l'armement dissuasif.
3  0 
Avatar de bouye
Rédacteur/Modérateur https://www.developpez.com
Le 05/06/2023 à 23:37
Intéressant, passons sur le cote "j'ai tout inventé et me suis mal exprimé" ou "on m'a ordonné de me rétracter" selon comment on voit les choses ; ce n'est ni plus ni moins que le scenario de 2001 l’Odyssée de l'Espace avec HAL 9000 qui se retourne contre les astronautes a bord du Discovery car ces derniers interfèrent avec sa mission.
4  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 18/09/2023 à 14:31
Citation Envoyé par Mathis Lucas Voir le message
Cependant, le projet de loi est fortement critiqué par les experts et la communauté, car il prévoit des exemptions pour l'armée et la police, ce qui selon les analystes le vide de tout son sens. Le projet de loi bénéficie toutefois du soutien d'entreprises locales de robotiques comme Boston Dynamics.
Ok, c'est bien d'interdire aux gens de monter des armes sur des robots.

Mais le danger c'est que l'armée utilise des robots tueurs.
Si dans le futur une tentative de révolution a lieu aux USA, les révolutionnaires se feront exterminer par des robots tueurs.

Aux Etats-Unis il y a une histoire de second amendement, les étasuniens sont censés avoir le droit de se défendre.
Et là ça va être compliqué de se défendre quand le gouvernement US donnera l'ordre de massacrer le peuple.
3  0 
Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 05/01/2022 à 9:55
Ceux qui financent les Nations-Unis sont les mêmes que ceux qui fabriquent des armes. Cette demande est donc caduque, c'est pour amuser la plèbe et alimenter la presse.
2  0