La question de l'utilisation de l'IA pour le développement des armes autonomes agite de plus en plus le monde scientifique et militaire. Et c'est d'autant plus sérieux à cause des tentatives de développement d'armes autonomes de la part des industriels. En août 2016 déjà, les États-Unis d'Amérique et l'armée irakienne testaient leurs prototypes d'arme autonome. De même, les experts de l'IA n'hésitent pas à s'opposer au développement de ces armes. En 2017, un groupe d'experts de l'IA a appelé le Canada et l'Australie à lutter pour l'interdiction des robots tueurs autonomes. L'ONU aussi ne cesse de militer contre ces armes. Récemment, plus de 2400 professionnels de l’intelligence artificielle et de la robotique représentant 150 entreprises de 90 pays à travers le monde ont signé un engagement contre le développement des armes autonomes.
En effet, à la Conférence mixte internationale sur l’intelligence artificielle de 2018 à Stockholm, un engagement a été signé pour exiger des gouvernements, des industries et des universités, la création « de normes, régulations et lois internationales contre les armes létales autonomes ». Le Future of Life Institute, organisateur de la Conférence, définit les armes létales autonomes, ou robots tueurs, comme des armes capables d’identifier, de cibler et de tuer une personne. « Ceci étant dit, aucun humain ne prend la décision finale d’autoriser la force létale », ajoute l’institut.
« L’intelligence artificielle a un immense potentiel pour aider le monde si nous empêchons qu’on en abuse. Les armes contrôlées par intelligence artificielle qui décident en toute indépendance de tuer des gens sont aussi répugnantes et déstabilisantes que les armes biologiques, et donc, devraient être traitées de la même manière », déclare Max Tegmark, le président de l’institut. Il ajoute qu’il se réjouit de voir les leaders du secteur de l’intelligence artificielle opter pour l’action et mettre en œuvre une mesure que les politiciens n’ont jamais réussi à mettre en place jusque-là.
Les signataires de l’engagement se comptent parmi les sommités du domaine. Que ce soient les organisations comme DeepMind, la fondation XPRIZE, l’Association européenne pour l’intelligence artificielle ou les individus comme Elon Musk, les leaders du secteur de l’intelligence artificielle se sont prononcés sur la question des armes autonomes létales. Précisons que les drones sous le contrôle des humains et les systèmes autonomes de défense contre des attaques ne sont pas concernés par la question. Cet engagement fait suite à un boycott géant du Korea Advanced Institute of Science and Technology (KAIST) par plus de 50 chercheurs en avril dernier. Il avait été révélé qu’en dépit de l’interdiction des Nations Unies, l’institut coréen aurait été sur le point d’ouvrir un laboratoire d’armes autonomes en partenariat avec Hanwha Systems, une entreprise de défense construisant des armes à sous-munitions.
Quelques jours après, en réponse au boycott, l’institut coréen avait fait savoir qu’il ne comptait pas participer au développement d’armes autonomes létales. Sung-Chul Shin, le président de KAIST avait alors déclaré que son institut n’avait pas « l’intention de participer au développement de systèmes d’armes autonomes létales et de robots tueurs ». Ayant également signé l’engagement à la Conférence, l’organisateur du boycott de l’institut coréen, Toby Walsh s’est prononcé sur la question et a déclaré que nous ne pouvions pas « remettre la décision quant à savoir qui vit et qui meurt aux machines ». Il ajoute que les machines manquent de l’éthique nécessaire pour qu’on leur confie ce genre de décisions et conclut sur une invitation à rejoindre le mouvement pour empêcher qu’avec les intelligences artificielles, les guerres ne prennent une autre dimension.
Source : Business Insider
Et vous ?
Que pensez-vous du développement des armes autonomes ?
Voir aussi
Les efforts de l'ONU pour réglementer l'usage militaire de l'IA et des SALA pourraient échouer à cause notamment des positions russes et américaines
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud en partenariat avec le fabricant d'armes Hanwha Systems
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur
Un groupe d'experts de l'IA appelle le Canada et l'Australie à lutter pour l'interdiction des robots tueurs autonomes paranoïa ou problème réel ?
Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes
Lors d'une conférence internationale sur l'IA
Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes
Lors d'une conférence internationale sur l'IA
Le , par Bill Fassinou
Une erreur dans cette actualité ? Signalez-nous-la !