IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'armée américaine veut transformer les chars d'assaut en machines à tuer alimentées par l'IA,
à travers son projet ATLAS, selon un rapport

Le , par Stan Adkens

769PARTAGES

13  1 
Les ambitions de développement des utilisations létales de l’intelligence artificielle ne sont plus un secret pour personne. Pentagone a des projets dans ce sens. Le dernier projet connu qui compte utiliser l’IA pour rendre les chars d’assaut de combat terrestre autonomes se nomme ATLAS, système automatisé de ciblage et de létalité avancé. Selon un article de Quartz publié le mardi, le ministère de la Défense vient de faire un appel d’offres, dans le cadre d’ATLAS, pour la sélection des fournisseurs potentiels de la technologie d’IA parmi les experts de l'industrie et du milieu universitaire afin de l'aider à mettre au point une technologie qui permettrait à un véhicule de combat terrestre comme un char de détecter, de cibler et d'engager automatiquement des combattants ennemis.

Le Commandement des marchés de l'Armée de terre américaine compte utiliser l'intelligence artificielle et l'apprentissage automatique pour doter ces véhicules de combat terrestre de capacités autonomes de ciblage. Cela permettra aux armes « de détecter, d'identifier et d'engager des cibles au moins trois fois plus rapidement que le processus manuel actuel », selon l’appel d’offres. Un éminent chercheur en intelligence artificielle, qui a demandé l'interdiction de ces soi-disant « robots tueurs », a qualifié la nouvelle initiative de l'armée américaine d’ « un autre pas important vers des armes autonomes mortelles ».

Ce n’est pas la première tentative de mise au point d’armes de précision de l’armée américaine. Une autre initiative du département de la Défense des États-Unis dénommée « Project Maven », qui visait à utiliser l'intelligence artificielle à des fins militaires et qui impliquait l’IA de Google, avait été dévoilée l’an dernier par Le New York Times. Google avait déclaré que l'entreprise n'avait fourni que des « API TensorFlow » au département de la Défense, mais une lettre signée par des employés de l’entreprise, qui étaient contre le projet, a souligné que Google a mis à la disposition du département de la Défense son expertise de pointe en apprentissage machine et ses ingénieurs travaillant dans ce domaine. Google a été obligé, par la suite, d’abandonner sa participation dans le projet et s’est engagé à ne plus mettre son IA au service de la guerre sous la pression des employés et des organisations de défense des libertés telles que l’EFF.


Selon Quartz, ATLAS donnerait théoriquement à un char d'assaut la capacité de faire tout ce qui est nécessaire pour abattre une cible. Stuart Russell, professeur d'informatique à l'Université de Californie à Berkeley et expert renommé en intelligence artificielle, a confié à Quartz qu'il est profondément préoccupé par l'idée que les chars et autres véhicules de combat terrestres puissent éventuellement tirer par leurs propres moyens.

« Il semble bien que nous nous dirigions vers une course aux armements où l'interdiction actuelle de l'autonomie létale totale » – une section du droit militaire américain qui impose un certain niveau d'interaction humaine au moment de prendre la décision de tirer – « sera abandonnée dès qu'il sera politiquement commode de le faire », a dit Russell.

Le professeur Russell n’est pas à sa première opposition publique aux utilisations létales de l’IA. Selon Quartz, en 2017, il est apparu dans une vidéo d’une campagne pour arrêter les robots tueurs qui, selon les dirigeants de la campagne, « décideraient qui vit et meurt, sans autre intervention humaine, ce qui dépasse un seuil moral ».

Une autre interpellation, qui faite suite à la divulgation d’ATLAS, est venue de The Group, une coalition d'organisations non gouvernementales œuvrant à l'interdiction des armes autonomes et au maintien d'un « contrôle humain significatif sur l'usage de la force ». Selon The Group, le fait de laisser les machines choisir et attaquer des cibles pourrait entraîner le monde dans « une course aux armements robotique déstabilisante ». Toutefois, selon l’appel, après le ciblage automatique, la décision ultime de tirer reviendra toujours à un acteur humain.

ATLAS automatisera la détection et l’identification, mais une personne prendra toujours la décision de tirer

Selon Paul Scharre, directeur du Programme de technologie et de sécurité nationale au Center for a New American Security, un groupe de réflexion bipartisan à Washington, DC, une personne sera toujours celle qui prendra la décision de tirer, comme l'exige la loi. ATLAS ne ferra qu’utiliser un algorithme pour automatiser la détection et l’identification des cibles ainsi que « certaines parties du processus qui conduiront au tir ».

Selon M. Scharre, idéalement, le système « maximiserait le temps de réponse humaine et permettrait à l'opérateur humain de prendre une décision », dit M. Scharre. « Et une fois que l'humain a pris la décision, de pouvoir tirer avec précision ». Cette initiative peut, non seulement, réduire le risque de pertes civiles, de fratricide et d'autres conséquences involontaires, mais permettra également de préserver la vie des soldats américains sur le champ de bataille, a dit M. Scharre.

« Chaque fois que vous pouvez gagner même des fractions de seconde, c’est précieux », a dit Scharre. « Beaucoup de décisions d'engagement en temps de guerre sont très restreintes dans le temps. Si vous êtes dans un char d'assaut et que vous voyez le char de l'ennemi, ils peuvent probablement aussi vous voir. Et si vous êtes à portée pour les frapper, ils sont probablement à portée pour vous frapper. », a-t-il ajouté.

L'opposition à l’autonomisation des armes de guerre

Des centaines de systèmes de défense antimissiles autonomes et semi-autonomes sont actuellement utilisés, toutefois, ATLAS serait la première utilisation de ces armes par des véhicules de combat terrestre, selon M. Scharre. « Idéalement, cela réduirait les chances de manquer des cibles, ce qui est une bonne chose pour tout le monde », explique M. Scharre.

Cependant, cette position n’est pas encore partagée par tout le monde. En automne dernier, le secrétaire général de l'ONU, Antonio Guterres, a déclaré que « la perspective de machines ayant la discrétion et le pouvoir de prendre des vies humaines est moralement répugnante ». Certains opposants aux robots tueurs, comme Elon Musk, abordent la question dans ce même sens.

Par ailleurs, plus de 25 pays, dans le monde entier, ont appelé à l'interdiction des armes entièrement autonomes et ont demandé une mesure qui exige explicitement le contrôle humain lorsqu'il s'agit de la force meurtrière. Cependant, selon Quartz, les Etats-Unis, la Corée du Sud, la Russie, Israël et l'Australie ont fortement fait un pas en arrière et les sous-traitants de la défense, dont Boeing, Lockheed Martin, BAE Systems et Raytheon, continuent à investir massivement dans le développement d'armes sans pilote.

L’IA pourrait passer de ses utilisations nobles pour devenir l’arme de guerre du futur, et les efforts de l'ONU pour réglementer l'usage militaire de l'IA et des SALA (des systèmes d’armes létales autonomes) pourraient échouer. Selon un article de South China Morning Post publié en novembre dernier, en Chine, les enfants les plus brillants du pays sont sélectionnés pour être formés pour le développement d'armes létales basées sur l'IA. L’objectif, à long terme, selon l’article, étant de faire de ces enfants des docteurs dans leurs domaines de spécialité et de faire en sorte qu'ils deviennent les prochains leaders de la Chine en matière d'armes basées sur l'IA.

Source : Quartz

Et vous ?

Qu’en pensez-vous ?
Que pensez-vous de l’utilisation de l’IA pour rendre autonomes des armes de guerre ?
Pensez-vous que les acteurs parviendront un jour à développer des règles éthiques qui limiteront l’IA dans ses utilisations recommandées ?

Lire aussi

Les efforts de l'ONU pour réglementer l'usage militaire de l'IA et des SALA pourraient échouer, à cause notamment des positions russes et américaines
Des employés de Microsoft demandent l'abandon du contrat à 480 M$ avec l'armée US, pour la fourniture de systèmes de réalité augmentée
Chine : les enfants les plus brillants du pays sont sélectionnés pour être formés pour le développement d'armes létales, basées sur l'IA
L'EFF appelle à ne pas utiliser l'intelligence artificielle pour la guerre, s'adressant à Google et aux entreprises de l'IA
IA : un guide éthique en développement chez Google, pour répondre aux protestations contre la participation de l'entreprise à un projet du Pentagone

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu76
Membre éclairé https://www.developpez.com
Le 28/02/2019 à 9:44
Parce qu'un char d'assaut n'est pas déjà une machine à tuer ?
9  0 
Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 28/02/2019 à 9:08
C'est toujours bien quand les nouvelles technologies sont utilisées pour de bonnes choses
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 28/02/2019 à 11:59
Tous ces cons vont finir par me faire croire que Arnold Schwarzenegger est un grand philosophe et penseur qui a prédit l'avenir sombre de l'humanité...

Le monde dépeint par les films "Terminator" où les machines ont pris le pouvoir et se mettent à liquider les humains semble de plus en plus proche...
4  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 28/02/2019 à 11:00
Citation Envoyé par Stan Adkens Voir le message
Pensez-vous que les acteurs parviendront un jour à développer des règles éthiques qui limiteront l’IA dans ses utilisations recommandées ?
Il n'y a jamais eu d'éthique du côté des étasuniens, depuis le début de leur histoire ce sont les spécialistes du non respect du protocole.
C'est fini l'époque de l'honneur avec les français qui refusaient d'utiliser l'arbalète...

Les USA c'est quand même le pays qui a testé 2 technologies de bombes nucléaires sur des civils d'une nation qui souhaitait se rendre sous condition...
C'est aussi le pays du Napalm, de l'Agent Orange, des munitions à l'uranium appauvri, etc.
Les USA développent des armes chimiques et bactériologiques.

Une grande guerre arrive et les USA ne sont pas du genre à laisser leur adversaires prendre de l'avance sur l’armement.

Citation Envoyé par Stan Adkens Voir le message
Par ailleurs, plus de 25 pays, dans le monde entier, ont appelé à l'interdiction des armes entièrement autonomes et ont demandé une mesure qui exige explicitement le contrôle humain lorsqu'il s'agit de la force meurtrière. Cependant, selon Quartz, les Etats-Unis, la Corée du Sud, la Russie, Israël et l'Australie ont fortement fait un pas en arrière et les sous-traitants de la défense, dont Boeing, Lockheed Martin, BAE Systems et Raytheon, continuent à investir massivement dans le développement d'armes sans pilote.
En ce moment plein de pays investissent beaucoup dans le développement de nouvelles armes, comme si quelque chose se préparait...

Officiellement peut-être que les nations vont signer un traité pour dire qu'ils s'engagent tous à ne pas développer d'arme autonome, mais le développement continuera en secret.

Il faut que les nations investissent beaucoup dans le piratage informatique.
Parce que si un pays réussie à hacker les armes de l'ennemi ça peut devenir intéressant.

===
Il faut bien avoir conscience que c'est le vainqueur qui écrit l'histoire, ce qui signifie que l'équipe qui gagnera la guerre pourra mettre tous ses crimes sur le dos de l'équipe perdante.
2  0 
Avatar de
https://www.developpez.com
Le 28/02/2019 à 22:24
Citation Envoyé par Anselme45 Voir le message
Tous ces cons vont finir par me faire croire que Arnold Schwarzenegger est un grand philosophe et penseur qui a prédit l'avenir sombre de l'humanité...

Le monde dépeint par les films "Terminator" où les machines ont pris le pouvoir et se mettent à liquider les humains semble de plus en plus proche...
Heu... Schwarzenegger c'est juste un acteur dans Terminator, pas le réalisateur ni le scénariste.
2  0 
Avatar de a028762
Membre confirmé https://www.developpez.com
Le 28/02/2019 à 10:52
Je repense à cette vidéo ou des civils (journalistes ?) iraquiens étaient abattus par un hélicoptère situé assez loin,
le pilote voyait ses cibles et a reçu l'autorisation de tirer.
Trop loin pour leur demander leurs papiers.
Pas besoin d'IA pour se tromper de cible.
1  0 
Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 28/02/2019 à 12:28
Citation Envoyé par Anselme45 Voir le message
Tous ces cons vont finir par me faire croire que Arnold Schwarzenegger est un grand philosophe et penseur qui a prédit l'avenir sombre de l'humanité...
Tout comme Chuck Norris et Jean Claude VanDamme !!!!
1  0 
Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 28/02/2019 à 14:14
Si tout ceci a pour but la défense de la démocratie, les droits de l'homme et de tuer les dictateurs à travers le monde, je suis pour, bien évidemment !
1  0 
Avatar de tmcuh
Membre habitué https://www.developpez.com
Le 28/02/2019 à 10:48
Malheureusement ce genre de chose reste inévitable
La Russie développe depuis de nombreuses années des systèmes similaires, la Chine aussi
A ce stade ce n'est plus un choix déontologique de le faire ou non mais de "survie" .
On peut toujours se dire, si je ne fais rien et demande une protection des Nations Unis ... mais lorsqu'un pays par sa seule technologie controllera les Nations Unis autant que ça le soit dans un pays démocratique.

Où en est la France ? Ou l'UK ?
0  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 28/02/2019 à 10:58
Citation Envoyé par Matthieu76 Voir le message
Parce qu'un char d'assaut n'est pas déjà une machine à tuer ?
C'est une machine à tuer, mais pour que l'action "Tuer des êtres humains qui ont des rêves, une famille, un entourage de personnes qui sera effondré lors qu'il retrouveront sa carcasse fumante" reste néanmoins toujours commandité par un humain, humain qui pourra éventuellement être traduit en justice pour meurtre, ou recevoir un coup de couteau mérité dans une ruelle sombre en guise de vengeance.

Mais ce que l'article souligne est ici que cela serait un ordinateur qui prendrait la décision de tuer. Et je peux te certifier que défoncer une unité centrale avec une masse ne te donnera pas un véritable sentiment de justice par rapport à la condamnation d'un coupable quand l’irréparable sera commis par l'I.A.
0  0