Les ambitions de développement des utilisations létales de l’intelligence artificielle ne sont plus un secret pour personne. Pentagone a des projets dans ce sens. Le dernier projet connu qui compte utiliser l’IA pour rendre les chars d’assaut de combat terrestre autonomes se nomme ATLAS, système automatisé de ciblage et de létalité avancé. Selon un article de Quartz publié le mardi, le ministère de la Défense vient de faire un appel d’offres, dans le cadre d’ATLAS, pour la sélection des fournisseurs potentiels de la technologie d’IA parmi les experts de l'industrie et du milieu universitaire afin de l'aider à mettre au point une technologie qui permettrait à un véhicule de combat terrestre comme un char de détecter, de cibler et d'engager automatiquement des combattants ennemis.
Le Commandement des marchés de l'Armée de terre américaine compte utiliser l'intelligence artificielle et l'apprentissage automatique pour doter ces véhicules de combat terrestre de capacités autonomes de ciblage. Cela permettra aux armes « de détecter, d'identifier et d'engager des cibles au moins trois fois plus rapidement que le processus manuel actuel », selon l’appel d’offres. Un éminent chercheur en intelligence artificielle, qui a demandé l'interdiction de ces soi-disant « robots tueurs », a qualifié la nouvelle initiative de l'armée américaine d’ « un autre pas important vers des armes autonomes mortelles ».
Ce n’est pas la première tentative de mise au point d’armes de précision de l’armée américaine. Une autre initiative du département de la Défense des États-Unis dénommée « Project Maven », qui visait à utiliser l'intelligence artificielle à des fins militaires et qui impliquait l’IA de Google, avait été dévoilée l’an dernier par Le New York Times. Google avait déclaré que l'entreprise n'avait fourni que des « API TensorFlow » au département de la Défense, mais une lettre signée par des employés de l’entreprise, qui étaient contre le projet, a souligné que Google a mis à la disposition du département de la Défense son expertise de pointe en apprentissage machine et ses ingénieurs travaillant dans ce domaine. Google a été obligé, par la suite, d’abandonner sa participation dans le projet et s’est engagé à ne plus mettre son IA au service de la guerre sous la pression des employés et des organisations de défense des libertés telles que l’EFF.
Selon Quartz, ATLAS donnerait théoriquement à un char d'assaut la capacité de faire tout ce qui est nécessaire pour abattre une cible. Stuart Russell, professeur d'informatique à l'Université de Californie à Berkeley et expert renommé en intelligence artificielle, a confié à Quartz qu'il est profondément préoccupé par l'idée que les chars et autres véhicules de combat terrestres puissent éventuellement tirer par leurs propres moyens.
« Il semble bien que nous nous dirigions vers une course aux armements où l'interdiction actuelle de l'autonomie létale totale » – une section du droit militaire américain qui impose un certain niveau d'interaction humaine au moment de prendre la décision de tirer – « sera abandonnée dès qu'il sera politiquement commode de le faire », a dit Russell.
Le professeur Russell n’est pas à sa première opposition publique aux utilisations létales de l’IA. Selon Quartz, en 2017, il est apparu dans une vidéo d’une campagne pour arrêter les robots tueurs qui, selon les dirigeants de la campagne, « décideraient qui vit et meurt, sans autre intervention humaine, ce qui dépasse un seuil moral ».
Une autre interpellation, qui faite suite à la divulgation d’ATLAS, est venue de The Group, une coalition d'organisations non gouvernementales œuvrant à l'interdiction des armes autonomes et au maintien d'un « contrôle humain significatif sur l'usage de la force ». Selon The Group, le fait de laisser les machines choisir et attaquer des cibles pourrait entraîner le monde dans « une course aux armements robotique déstabilisante ». Toutefois, selon l’appel, après le ciblage automatique, la décision ultime de tirer reviendra toujours à un acteur humain.
ATLAS automatisera la détection et l’identification, mais une personne prendra toujours la décision de tirer
Selon Paul Scharre, directeur du Programme de technologie et de sécurité nationale au Center for a New American Security, un groupe de réflexion bipartisan à Washington, DC, une personne sera toujours celle qui prendra la décision de tirer, comme l'exige la loi. ATLAS ne ferra qu’utiliser un algorithme pour automatiser la détection et l’identification des cibles ainsi que « certaines parties du processus qui conduiront au tir ».
Selon M. Scharre, idéalement, le système « maximiserait le temps de réponse humaine et permettrait à l'opérateur humain de prendre une décision », dit M. Scharre. « Et une fois que l'humain a pris la décision, de pouvoir tirer avec précision ». Cette initiative peut, non seulement, réduire le risque de pertes civiles, de fratricide et d'autres conséquences involontaires, mais permettra également de préserver la vie des soldats américains sur le champ de bataille, a dit M. Scharre.
« Chaque fois que vous pouvez gagner même des fractions de seconde, c’est précieux », a dit Scharre. « Beaucoup de décisions d'engagement en temps de guerre sont très restreintes dans le temps. Si vous êtes dans un char d'assaut et que vous voyez le char de l'ennemi, ils peuvent probablement aussi vous voir. Et si vous êtes à portée pour les frapper, ils sont probablement à portée pour vous frapper. », a-t-il ajouté.
L'opposition à l’autonomisation des armes de guerre
Des centaines de systèmes de défense antimissiles autonomes et semi-autonomes sont actuellement utilisés, toutefois, ATLAS serait la première utilisation de ces armes par des véhicules de combat terrestre, selon M. Scharre. « Idéalement, cela réduirait les chances de manquer des cibles, ce qui est une bonne chose pour tout le monde », explique M. Scharre.
Cependant, cette position n’est pas encore partagée par tout le monde. En automne dernier, le secrétaire général de l'ONU, Antonio Guterres, a déclaré que « la perspective de machines ayant la discrétion et le pouvoir de prendre des vies humaines est moralement répugnante ». Certains opposants aux robots tueurs, comme Elon Musk, abordent la question dans ce même sens.
Par ailleurs, plus de 25 pays, dans le monde entier, ont appelé à l'interdiction des armes entièrement autonomes et ont demandé une mesure qui exige explicitement le contrôle humain lorsqu'il s'agit de la force meurtrière. Cependant, selon Quartz, les Etats-Unis, la Corée du Sud, la Russie, Israël et l'Australie ont fortement fait un pas en arrière et les sous-traitants de la défense, dont Boeing, Lockheed Martin, BAE Systems et Raytheon, continuent à investir massivement dans le développement d'armes sans pilote.
L’IA pourrait passer de ses utilisations nobles pour devenir l’arme de guerre du futur, et les efforts de l'ONU pour réglementer l'usage militaire de l'IA et des SALA (des systèmes d’armes létales autonomes) pourraient échouer. Selon un article de South China Morning Post publié en novembre dernier, en Chine, les enfants les plus brillants du pays sont sélectionnés pour être formés pour le développement d'armes létales basées sur l'IA. L’objectif, à long terme, selon l’article, étant de faire de ces enfants des docteurs dans leurs domaines de spécialité et de faire en sorte qu'ils deviennent les prochains leaders de la Chine en matière d'armes basées sur l'IA.
Source : Quartz
Et vous ?
Qu’en pensez-vous ?
Que pensez-vous de l’utilisation de l’IA pour rendre autonomes des armes de guerre ?
Pensez-vous que les acteurs parviendront un jour à développer des règles éthiques qui limiteront l’IA dans ses utilisations recommandées ?
Lire aussi
Les efforts de l'ONU pour réglementer l'usage militaire de l'IA et des SALA pourraient échouer, à cause notamment des positions russes et américaines
Des employés de Microsoft demandent l'abandon du contrat à 480 M$ avec l'armée US, pour la fourniture de systèmes de réalité augmentée
Chine : les enfants les plus brillants du pays sont sélectionnés pour être formés pour le développement d'armes létales, basées sur l'IA
L'EFF appelle à ne pas utiliser l'intelligence artificielle pour la guerre, s'adressant à Google et aux entreprises de l'IA
IA : un guide éthique en développement chez Google, pour répondre aux protestations contre la participation de l'entreprise à un projet du Pentagone
L'armée américaine veut transformer les chars d'assaut en machines à tuer alimentées par l'IA,
à travers son projet ATLAS, selon un rapport
L'armée américaine veut transformer les chars d'assaut en machines à tuer alimentées par l'IA,
à travers son projet ATLAS, selon un rapport
Le , par Stan Adkens
Une erreur dans cette actualité ? Signalez-nous-la !