IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les États-Unis veulent des drones autonomes alimentés par l'IA qui pourront décider seuls de tuer
En recourant à des algorithmes d'autoapprentissage

Le , par Christian Olivier

634PARTAGES

13  0 
L’armée étasunienne a récemment annoncé qu’elle est en train de développer ses premiers drones autonomes, entièrement alimentés par l’intelligence artificielle (IA), qui seront capables de repérer et de cibler les véhicules ainsi que les personnes. Alors que les drones militaires actuels sont toujours contrôlés par des êtres humains, l’utilisation de cette nouvelle technologie sous-entend que ces machines seront en mesure de tuer « de leur propre chef » sans recourir à l’autorisation humaine.

Une fois achevés, ces drones représenteront une version ultime du processus de militarisation de l’IA avec les dérives, les implications juridiques et les implications éthiques pour la société qui vont de pair. En même temps, cette situation nouvelle pourrait élargir le champ de la guerre, de sorte que les entreprises, ingénieurs et scientifiques qui opèrent dans le secteur stratégique de l’IA deviennent des cibles militaires valables.


Les drones militaires tueurs qui existent, à l’instar du MQ-9 Reaper étasunien, sont minutieusement contrôlés et pilotés par satellite. Si un pilote largue une bombe ou un missile, un opérateur humain guidera activement ce projectile vers la cible choisie à l’aide d’un laser. De sorte qu’en fin de compte, l’être humain conserve la responsabilité éthique, légale et opérationnelle finale de l’assassinat de cibles humaines désignées et que les émotions humaines, les jugements et l’éthique demeurent une composante indissociable des conflits.

Il faut rappeler qu’il n’est pas nécessaire d’être responsable d’un meurtre pour garder des traces de traumatismes. Des spécialistes du renseignement et le personnel militaire analysent régulièrement des images de frappes de drones. Les recherches ont montré qu’il est possible de subir un préjudice psychologique et d’en garder les séquelles simplement en visionnant fréquemment des images d’une extrême violence.

De nombreux opérateurs étasuniens ayant participé à des frappes mortelles effectuées à l’aide de drones comme le Reaper sont d’ailleurs convaincus qu’en fin de compte, l’action ultime d’appuyer sur la gâchette devrait revenir à un humain. Sortez l’humain et vous retirez par la même occasion toute humanité dans la décision de tuer.

Un opérateur du MQ-9 Reaper a ainsi déclaré à ce propos : « Je suis persuadé que je permettrais à un insurgé, quelle que soit sa cible, de s’évader plutôt que d’effectuer un coup risqué qui pourrait mettre en péril la vie de civils ».

La perspective de la mise en service de drones totalement autonomes et entièrement alimentés par l’IA modifierait radicalement les processus complexes et les décisions qui sous-tendent les assassinats militaires, alors que la responsabilité légale et éthique ne disparaît pas si on supprime la surveillance humaine. Au lieu de cela, la responsabilité incombera de plus en plus à d’autres personnes, et notamment aux scientifiques qui ont l’intelligence artificielle tueuse.

Les implications juridiques de ces développements deviennent déjà évidentes. En vertu du droit international humanitaire en vigueur, les installations à « double usage » par exemple, celles-là qui développent des produits destinés à des applications civiles et militaires peuvent être prises pour cibles dans certaines circonstances.

L’usage de systèmes d’armement basés sur des drones autonomes entièrement alimentés par l’IA pourrait amener les militaires à classer des lignes de code informatique et les entités responsables de leur création comme des dispositifs à double usage. Des entreprises technologiques qui opèrent, par exemple, dans le secteur de l’intelligence artificielle, leurs employés et leurs installations pourraient, dès lors, être attaquées par un État ennemi lors d’un conflit.


Si, par exemple, le logiciel d’IA de reconnaissance d’image Project Maven de Google est intégré à un drone tueur autonome américain, Google et Alphabet pourraient être impliqués dans une affaire de « meurtre » liée à l’usage de ce drone, comme tout autre contributeur civil qui aurait contribué à la conception de pareils systèmes autonomes mortels.

Sur le plan éthique, les problèmes s’annoncent encore plus sérieux. En effet, l’intérêt des algorithmes d’autoapprentissage (ces « programmes indépendants » qui tirent des enseignements de toutes les données qu’ils peuvent collecter) repose sur le fait qu’ils sont censés améliorer la tâche qui leur est confiée.

Ainsi, si un drone autonome létal veut améliorer son travail grâce à l’autoapprentissage, il faudra que quelqu’un décide à un moment donné que son développement a atteint un stade acceptable pour son déploiement. Dans le cadre de l’apprentissage automatique militarisé, cela signifie que les dirigeants politiques, les militaires et industriels devront spécifier combien de morts civiles pourront être considérées comme acceptables au fur et à mesure du perfectionnement de la technologie.

Les expérimentations en demi-teintes récentes de dispositifs autonomes alimentés par l’IA dans la société devraient servir d’avertissement. Les expériences fatales observées chez Uber et Tesla avec des automobiles autonomes laissent penser qu’il est presque certain qu’il y aura des morts non intentionnelles lors de la mise en service de drones autonomes alimentés par l’IA à mesure que les bogues informatiques seront corrigés.

Si on laisse aux machines le soin de décider qui doit mourir et qui doit vivre, en particulier à grande échelle, on pourrait très vite déboucher sur des exterminations sommaires. Tout gouvernement qui déchaînerait de telles forces violerait les valeurs qu’il prétendait défendre. En comparaison, un pilote de drone aux prises avec une décision de « tuer ou de ne pas tuer » devient le dernier rempart de l’humanité dans une situation souvent inhumaine de guerre.

Source : We Are the mighty

Et vous ?

Qu’en pensez-vous ?

Devrait-on confier la vie d’êtres humains à une IA et des machines dépourvues d’humanité ?

Comment pourrait-on s’assurer que le travail des ingénieurs informatiques dans le domaine de l’IA servent davantage la création plutôt que la destruction et la mort ?

Les impératifs de développement de nos sociétés passent-ils forcément par une militarisation des technologies stratégiques comme l’IA ?

Voir aussi

L'Europe estime qu'une IA ne doit pas avoir le droit de vie ou de mort sur le champ de bataille et appelle à interdire les robots-tueurs
Les efforts de l'ONU pour réglementer l'usage militaire de l'IA et des SALA pourraient échouer à cause notamment des positions russes et américaines
Interdiction des robots tueurs : quelques pays, y compris les USA et la Russie, bloquent les négociations menées au niveau des Nations Unies
L'armée américaine voudrait enseigner à l'IA des notions basiques de bon sens dans le cadre de son programme Machine Common Sense

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Citrax
Membre averti https://www.developpez.com
Le 04/01/2019 à 23:01
Tuer plus de cibles/personnes, reduire le personnel militaire, augmenter le nombre de bavures et se deresponsabiliser de ses actions. Bravo l'armee US.
3  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 30/08/2023 à 16:03
C'est comme cet épisode de Black Mirror :
Metalhead (Black Mirror)
"Metalhead" is filmed in black and white, and it follows the plight of Bella (Maxine Peake) trying to flee from robotic "dogs" after the unexplained collapse of human society. The dogs were influenced by Boston Dynamics' robots such as BigDog. Filming took place in England, with Lidar scans used for scenes from the dog's perspective. Lasting 41 minutes, "Metalhead" is the second-shortest episode behind "Mazey Day".
Les gouvernements qui développent des armes autonomes pourront les utiliser contre leur propre peuple.
En cas de révolution, par exemple si les étasuniens se rebellaient contre l'administration Biden, peut-être que l'armée refuserait de suivre les ordres (mutinerie de la Garde nationale française à Paris en juillet 1789), alors que les armes autonomes en on rien à foutre, elles suivront toujours les ordres.

Les révolutions ont lieu quand l'armée se met du côté du peuple, avec des armes autonomes ça va être plus compliqué de faire des révolutions.
3  0 
Avatar de RxB2038
Membre régulier https://www.developpez.com
Le 30/08/2023 à 16:46
Quand on voit les difficultés que Tesla rencontre avec les voitures autonomes, la question que l'on est en droit de se poser au regard du déploiement des ces technologies c'est "mais qu'est-ce qui pourrais bien merder" ?

Parce qu'une chose est certaine, si ça peut, ça merdera, sauf que les bugs dans le cas de chiens robots armés de fusil d'assaut ou de drones bardés de missiles pilotés par IA, ça peut être un peu plus lourds de conséquences que "mon site web est tombé pendant 30 minutes".

Sans parler des biais racistes dans l'identification des cibles, de la généralisation des ces équipements aux forces anti-émeutes, ni du fait que James Cameron nous avait prévenus
3  0 
Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 04/12/2023 à 17:18
S'il en sont aux discussions publiques, c'est que dans les faits, le projet est beaucoup plus avancé que ce qui est dit. De toute façon, la puissance du complexe militaro-industriel US est tellement importante que personne ne pourra leur dicter quoi que ce soit.
5  2 
Avatar de olaxius
Membre éclairé https://www.developpez.com
Le 04/12/2023 à 17:19
Ce qui soulève des préoccupations d'ordre éthique
A bon pourquoi il y a une code éthique dans la guerre "traditionnelle" ? La convention de Genève peut être ???
Il n'y à qu'a voir ce qui se passe actuellement en Ukraine , en Israel (pour les conflits les plus médiatisés) où l'éthique est omni présente .
Guerre à "l'ancienne" ou guerre "moderne" l'éthique n'a pas eu , n'a pas et n'aura jamais son mot à dire dans la guerre .
La violence humaine est à l'aulne de sa connerie et comme la connerie est infinie ...
Se faire massacrer par un soldat avec remords ou sans remord quelle différence ?
Ah si bien sur les gouvernements n'auront pas prendre les séquelles post traumatiques à leur charge , et à payer des pensions ...
3  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 05/12/2023 à 7:26
Citation Envoyé par OrthodoxWindows Voir le message
Mais les décisionnaires qui contrôles les guerre et contrôlerons dans le futur ces super-soldats cybernétiques, il s ressentent quelque chose, eux ?
Oui ce sont des gentils, ils n'aiment pas les méchants et seront donc heureux d'empêcher qu'ils fassent des choses de méchants.
Que pensent ils de la diplomatie? Moi non plus je n'ai jamais compris cette passion pour les dinosaures et les chiffres....
1  0 
Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 05/12/2023 à 13:34
C'est un kasting pour un remake de l’homme qui valait 3 milliards ?

Ou ils essaient juste de faire peur aux vilains, avec des hommes de paille alias des épouvantails ?

Tout ceci me parait totalement irréaliste...
1  0 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 04/01/2019 à 23:20
Skynet semble devenir une réalité de jour en jour.
1  1 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 05/01/2019 à 1:36
je comprends pas l’intérêt de créer une arme capable de tuer son créateur.... c'est un troll pour faire peur je pense.
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 01/09/2023 à 9:34
Citation Envoyé par Bruno Voir le message
À votre avis, comment les gouvernements peuvent-ils s’assurer que l’utilisation de l’IA dans les drones militaires est responsable et éthique ?
L'important c'est de gagner la guerre, ce n'est pas d'être ethique.
Les gagnants ne sont pas jugés, les USA ne se sont jamais excusé pour avoir largué des bombes atomiques et du Napalm sur des civils.

Citation Envoyé par Bruno Voir le message
Comment les militaires peuvent-ils s’assurer que les drones autonomes prennent des décisions éthiques et responsables ?
Le problème ce n'est pas les décisions que prennent les drones autonomes, le problème c'est les ordres qu'ils recoivent.

====
Pour les USA il y a un côté positif à l'utilisation de drone autonome, c'est qu'il y aura peut-être moins de militaires US qui vont se suicider.
Etats-Unis : pour un soldat mort au combat, 10 vétérans se suicident
22 suicides par jour ! Quand les dernières guerres des Etats-Unis ont coûté la vie à 4488 soldats, la vie civile a vu le suicide de 43.208 hommes et femmes anciens combattants sur 10 ans... Pour un mort sur le terrain, près de 10 anciens combattants se sont donné la mort.
Cette moyenne du nombre de décès quotidiens de vétérans a fait frémir l'Amérique quand elle l'a appris. Près de 950 tentatives par mois.
1  1