IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'Europe estime qu'une IA ne doit pas avoir le droit de vie ou de mort sur le champ de bataille
Et appelle à interdire les robots-tueurs

Le , par Stéphane le calme

377PARTAGES

14  0 
« Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre », ont averti Elon Musk et une centaine de spécialistes de l'IA et la robotique, dans une lettre ouverte l'année dernière. Dans cette lettre, ils appelaient les Nations Unies à agir le plus vite possible et bannir les robots tueurs.

Cet avertissement a toute sa raison d'être étant donné qu’aujourd’hui, plus d'une dizaine de pays – y compris les États-Unis, la Chine, Israël, la Corée du Sud, la Russie et la Grande-Bretagne – développent des systèmes d'armes autonomes, selon un rapport de Human Rights Watch. Les Nations Unies travaillent donc sur la question, mais le bout du tunnel (à savoir arriver à des règles qui interdisent ce type d'armes, ou du moins celles qui sont les plus dangereuses) semblent bien loin.

Fin août, dans une série de réunions qui se sont tenues à Genève, un groupe de la Convention des Nations Unies sur certaines armes classiques (CCW) a en effet discuté de l'opportunité d'amener les négociations sur les armes entièrement autonomes dotées d'IA à un niveau formel qui pourrait déboucher sur un traité qui les interdit. Mais les réunions se sont terminées sans que les pays participants se rapprochent de règles internationales contraignantes. D'après le quotidien Politico, les pays se sont juste entendus sur une liste de recommandations non contraignantes. Un petit nombre de pays -- notamment les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie -- auraient en effet empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs.


La position européenne

Le Parlement européen a adopté une résolution demandant une interdiction internationale des robots soi-disant tueurs. Il vise à anticiper le développement et l'utilisation de systèmes d'armes autonomes capables de tuer sans intervention humaine.

Une position affirmée qui peut être expliquée par le fait que les négociations à l’ONU n’ont pas abouti à un consensus, certains pays ayant déclaré que les avantages des armes autonomes devaient être explorés.

Néanmoins l’Europe n’est pas encore unanime. En effet, certains députés craignent que la législation ne limite les progrès scientifiques de l'intelligence artificielle. D’autres ont déclaré que cela pouvait devenir un problème de sécurité si certains pays autorisaient de telles armes alors que d’autres ne le faisaient pas.

« Je sais que cela pourrait ressembler à un débat sur un futur lointain ou sur la science-fiction. Ce n'est pas le cas », a déclaré Federica Mogherini, chef de la politique étrangère et de sécurité de l'UE lors du débat au Parlement européen.

Un situation qui peut provoquer une course aux armements

« Les systèmes d'armes autonomes doivent être interdits au niveau international », a déclaré Bodil Valero, porte-parole de la politique de sécurité du groupe Verts / ALE du Parlement européen. « Le pouvoir de décider de la vie et de la mort ne devrait jamais être retiré de la main de l'homme et donné aux machines ».

La résolution est en avance sur les négociations prévues aux Nations Unies en novembre, où plusieurs espèrent qu’un accord sur une interdiction internationale pourra être conclu.

« Des drones artificiellement intelligents aux pistolets automatisés qui peuvent choisir leurs propres cibles, les avancées technologiques en matière d’armement dépassent de loin le droit international », a déclaré Rasha Abdul Rahim, chercheur sur l’intelligence artificielle à Amnesty International.

« Il n'est pas trop tard pour changer de cap. L'interdiction de systèmes d'armes totalement autonomes pourrait empêcher certains scénarios vraiment dystopiques, comme une nouvelle course aux armements entre les superpuissances mondiales qui entraînerait une prolifération des armes autonomes ».

Source : BBC

Et vous ?

Vous rangez-vous du côté des eurodéputés qui pensent que ce serait une erreur d'avoir une législation sur les robots tueurs car cela pourrait nuire aux avancées en matière d'intelligence artificielle ?
Pensez-vous plutôt comme ceux qui pensent que cela pourraient devenir un problème de sécurité ?

Voir aussi :

Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
Les enfants sont susceptibles d'être influencés par les robots, selon une étude, suscitant des inquiétudes quant à leurs effets négatifs sur eux
Il serait difficile pour les humains d'éteindre un robot qui les supplie de ne pas le faire, d'après une étude réalisée par des chercheurs allemands
Intelligence artificielle : OpenAI annonce un système robotique capable de manipuler des objets avec une dextérité humaine
Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 13/09/2018 à 12:40
Citation Envoyé par Stéphane le calme Voir le message
L'Europe estime qu'une intelligence artificielle ne doit pas avoir le droit de vie ou de mort sur le champ de bataille,
et appelle à interdire les robots-tueurs

Et comme l'Europe est devenu un nain au niveau mondial, aussi bien économiquement que militairement, tout le monde se fout royalement de son avis...

Les USA, la Chine et la Russie se feront un plaisir de prendre le contre-pied de l'avis européen...
5  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 20/07/2023 à 8:03
Citation Envoyé par denisys Voir le message
De la Terre à la Lune.
Jules Verne, paru en 1865.
--
https://fr.wikipedia.org/wiki/De_la_...%C3%A0_la_Lune
Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
(1/4) Je vous l'avais bien dit.
Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
(2/4) Mais vous ne m'avez pas écouté
Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
(3/4) Lisez Voyage au centre de la Terre
Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
(4/4) Prem's @ElonMusk
Va-t-on aborder chaque oeuvre de SF comme un documentaire parce que 10 se sont effectivement passé?
Je ne suis pas sur.

Par contre c'est en effet interressant de les lire/voir parce qu'elles nous encouragent à réfléchir sur ces situations avant qu'elle puisse arriver pour les éviter ou réduire les rendre moins dramatiques.
Et si on veut aller dans le sens de Cameron alors je trouve que Robocop mène une reflexion bien plus poussée que Terminator, qui n'annonce que la fin du monde par la technologie.
En plus toute la série Terminator ne dit qu'une chose : quoi qu'on fasse on est foutu (donc pourquoi lutter contre, résignons nous )
5  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 13/09/2018 à 14:22
A 20 000 failles/an dans les systèmes, je sens que la prochaine guerre sera très courte et qu'un hacker va la gagner tout seul

Par contre, je ne dis pas qu'elle ne sera pas ultra meurtrière... tant en militaires qu'en civils.
4  0 
Avatar de SoyouzH2
Membre régulier https://www.developpez.com
Le 20/01/2020 à 14:39
"si elles sont bien développées, peuvent rendre la guerre plus humaine, a rapporté Bhalla"

Lol.
4  0 
Avatar de Minato Sensei
Membre habitué https://www.developpez.com
Le 03/06/2023 à 9:07
Citation Envoyé par nasserk Voir le message
A part si l'IA a été entrainé sur des scénario de science fictions, mais pourquoi faire déjà...

On donne pas n'importe quoi à une IA, comme on apprends pas n'importe quoi à son bébé/enfant..., l'IA obéit aveuglement, elle a aucune volonté propre, c'est vraiment une fake news cette histoire, ou un canular pas drole...
En suivant ce raisonnement, on peut se dire que les Tesla dont l'IA, selon vous, « obéit aveuglement », sont formées pour éviter la police, percuter les voitures de police, etc. ?

Ou encore que le chatbot IA de Microsoft était programmé pour être raciste et fan d'Hitler ? Que ChatGPT a été programmé pour faire des menaces aux étudiants ?

Je pense qu'il arrive que le logiciel fasse quelque chose d'inattendu, sans pour autant que cela soit associé à de la « volonté propre ».

Il revient alors aux développeurs de réajuster les paramètres pour prendre en considération un scénario de ce type. Il n'y a pas de magie dedans, c'est simplement de la science informatique.
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 03/06/2023 à 12:42
Citation Envoyé par nasserk Voir le message
A part si l'IA a été entrainé sur des scénario de science fictions, mais pourquoi faire déjà...

On donne pas n'importe quoi à une IA, comme on apprends pas n'importe quoi à son bébé/enfant..., l'IA obéit aveuglement, elle a aucune volonté propre, c'est vraiment une fake news cette histoire, ou un canular pas drole...
Tous les chercheurs spécialistes de l'IA le savent, et quand je parle de "spécialistes", je ne parle ni des "branleurs" qui se disent "expert" et qui sont "expert de rien", ni des "vendeurs" de tout poils prêts à faire du profit en vendant à leur mère une grenade dégoupillée en disant qu'il s'agit d'un ananas:

Une IA peut avoir un comportement "inattendu", hors de toute logique, que les spécialistes en IA n'ont jamais pu expliquer ou même corriger.

On explique ce comportement par l'exemple de l'orange et de l'hélicoptère: On apprend à une IA à reconnaître sur des photos qui lui sont présentées les oranges. On reprend ensuite les photos des oranges et on y change juste quelques pixels: Pour l'oeil humain, il s'agit toujours de photos d'orange, mais l'IA va tout d'un coup reconnaître sur une photo un hélicoptère!!!

Ce problème de comportement est présent sur la totalité des IA actuelles: Une IA fournit des informations qui ne sont pas fiables! 90%, 95% seront peut-être justes, mais il y aura des immenses erreurs dans les résultats fournis et ces erreurs apparaitront de manière non prévisibles, rendant les résultats inutilisables sans une vérification humaine.

Ce forum en a d'ailleurs donné un exemple avec cet avocat américain qui a demandé à une IA de préparer sa plaidoirie: L'IA a tout simplement inventé de toute pièces 6 affaires faisant jurisprudence qui n'ont jamais existé dans la réalité. Pas de bol pour l'avocat, si lui n'a pas vérifié, le juge a détecté les *inventions" de l'IA.
5  1 
Avatar de R136a1
Nouveau membre du Club https://www.developpez.com
Le 18/02/2024 à 11:36
De plus, la manipulation délibérée des systèmes par des acteurs malveillants à des fins diverses constitue une menace potentielle.
Selon moi, c'est ça le plus grand risque de l'IA. Et c'est déjà une réalité.
4  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 13/09/2018 à 13:45
Vos commentaires donnent l'impression que cette loi est une mauvaise chose.

Hors je ne vois pas ce qui empêche la recherche de continuer, mais avec des buts différents.
Si c'est un soucis de se protéger des autres nations, développer nous même des armes autonomes ne réglera pas vraiment le soucis, y aura toujours "celui qui a la plus grosse".
Contrairement au nucléaire on ne parle pas d'armement capable de rendre le monde inhabitable, donc personne s'en privera l'usage même si ceux d'en face en ont aussi.

Ce qu'il faudrait développer, c'est des technologies anti armes autonomes, tout comme on développait des technologies anti missiles pour se défendre.

Puis si personne ne fait le premier pas pour interdire a l’échelle d'une nation les armes autonomes... personne ne le fera jamais.
3  0 
Avatar de
https://www.developpez.com
Le 20/01/2020 à 16:48
Je ne comprends même pas qu'on puisse travailler sur de tels sujets.
3  0 
Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 20/01/2020 à 17:19
Citation Envoyé par fodger Voir le message
Je ne comprends même pas qu'on puisse travailler sur de tels sujets.
c'est assez simple en fait, si toi dans ton pays tu décides de ne pas le faire, ton voisin lui le fera peut-être, et pourra alors avoir un avantage stratégique/technologique et éventuellement menacer ton pays.
c'est tristement logique, et l'application directe de la sélection naturelle, si tu ne veux pas être en position d'être menacé, alors tu dois être dans le peloton de tête dans la course à l'armement dissuasif.
3  0