Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes
Lors d'une conférence internationale sur l'IA

Le , par Bill Fassinou

63PARTAGES

13  1 
La question de l'utilisation de l'IA pour le développement des armes autonomes agite de plus en plus le monde scientifique et militaire. Et c'est d'autant plus sérieux à cause des tentatives de développement d'armes autonomes de la part des industriels. En août 2016 déjà, les États-Unis d'Amérique et l'armée irakienne testaient leurs prototypes d'arme autonome. De même, les experts de l'IA n'hésitent pas à s'opposer au développement de ces armes. En 2017, un groupe d'experts de l'IA a appelé le Canada et l'Australie à lutter pour l'interdiction des robots tueurs autonomes. L'ONU aussi ne cesse de militer contre ces armes. Récemment, plus de 2400 professionnels de l’intelligence artificielle et de la robotique représentant 150 entreprises de 90 pays à travers le monde ont signé un engagement contre le développement des armes autonomes.

En effet, à la Conférence mixte internationale sur l’intelligence artificielle de 2018 à Stockholm, un engagement a été signé pour exiger des gouvernements, des industries et des universités, la création « de normes, régulations et lois internationales contre les armes létales autonomes ». Le Future of Life Institute, organisateur de la Conférence, définit les armes létales autonomes, ou robots tueurs, comme des armes capables d’identifier, de cibler et de tuer une personne. « Ceci étant dit, aucun humain ne prend la décision finale d’autoriser la force létale », ajoute l’institut.


« L’intelligence artificielle a un immense potentiel pour aider le monde si nous empêchons qu’on en abuse. Les armes contrôlées par intelligence artificielle qui décident en toute indépendance de tuer des gens sont aussi répugnantes et déstabilisantes que les armes biologiques, et donc, devraient être traitées de la même manière », déclare Max Tegmark, le président de l’institut. Il ajoute qu’il se réjouit de voir les leaders du secteur de l’intelligence artificielle opter pour l’action et mettre en œuvre une mesure que les politiciens n’ont jamais réussi à mettre en place jusque-là.

Les signataires de l’engagement se comptent parmi les sommités du domaine. Que ce soient les organisations comme DeepMind, la fondation XPRIZE, l’Association européenne pour l’intelligence artificielle ou les individus comme Elon Musk, les leaders du secteur de l’intelligence artificielle se sont prononcés sur la question des armes autonomes létales. Précisons que les drones sous le contrôle des humains et les systèmes autonomes de défense contre des attaques ne sont pas concernés par la question. Cet engagement fait suite à un boycott géant du Korea Advanced Institute of Science and Technology (KAIST) par plus de 50 chercheurs en avril dernier. Il avait été révélé qu’en dépit de l’interdiction des Nations Unies, l’institut coréen aurait été sur le point d’ouvrir un laboratoire d’armes autonomes en partenariat avec Hanwha Systems, une entreprise de défense construisant des armes à sous-munitions.

Quelques jours après, en réponse au boycott, l’institut coréen avait fait savoir qu’il ne comptait pas participer au développement d’armes autonomes létales. Sung-Chul Shin, le président de KAIST avait alors déclaré que son institut n’avait pas « l’intention de participer au développement de systèmes d’armes autonomes létales et de robots tueurs ». Ayant également signé l’engagement à la Conférence, l’organisateur du boycott de l’institut coréen, Toby Walsh s’est prononcé sur la question et a déclaré que nous ne pouvions pas « remettre la décision quant à savoir qui vit et qui meurt aux machines ». Il ajoute que les machines manquent de l’éthique nécessaire pour qu’on leur confie ce genre de décisions et conclut sur une invitation à rejoindre le mouvement pour empêcher qu’avec les intelligences artificielles, les guerres ne prennent une autre dimension.

Source : Business Insider

Et vous ?

Que pensez-vous du développement des armes autonomes ?

Voir aussi

Les efforts de l'ONU pour réglementer l'usage militaire de l'IA et des SALA pourraient échouer à cause notamment des positions russes et américaines

Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud en partenariat avec le fabricant d'armes Hanwha Systems

Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur

Un groupe d'experts de l'IA appelle le Canada et l'Australie à lutter pour l'interdiction des robots tueurs autonomes paranoïa ou problème réel ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Cpt Anderson
Membre éprouvé https://www.developpez.com
Le 20/07/2018 à 10:12
Les complexes militaro-industriels des US, de la France, d’Israël, de la Chine, de la Russie, du Royaume Uni pèsent des milliards d'euros et fait vivre des millions de personnes. Vouloir aller contre l'IA dans l'armement, c'est de la pure démagogie : toute avancé technologique a une origine militaire. Vouloir interdire la robotique dans le domaine militaire, c'est comme les accords sur le démantèlement sur les armes nucléaires, on fait semblant mais on sait très bien que les puissances nucléaires gardent leurs arsenaux.
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 20/07/2018 à 11:58
Citation Envoyé par Cpt Anderson Voir le message
Vouloir interdire la robotique dans le domaine militaire, c'est comme les accords sur le démantèlement sur les armes nucléaires, on fait semblant mais on sait très bien que les puissances nucléaires gardent leurs arsenaux.
Tout à fait et en plus il y a l'effet de paranoïa "Une rumeur nous indique que la Russie développe tel type d'arme interdit alors nous devons investir à fond pour rattraper notre retard dans ce domaine pour ne pas nous laisser dépasser".
Et parfois les rumeurs sont totalement fausse, donc des pays développent des armes horribles en pensant qu'un autre pays l'avait fait avant...

Les robots tueurs ça craint, mais on ne peut pas raisonner les puissances du monde.
Les USA ne vont pas cesser de développer ce type d'arme, ils ont un budget énorme pour l'armée donc ils en profitent.

D'un côté c'est peut être mieux que des robots tuent des humains.
Parce que les soldats US deviennent fou, pour s'en sortir il y a bien le suicide, mais à part ça...
Taux de suicide record au sein des forces spéciales américaines
Bien qu'elle tente d'assurer le suivi psychologique des soldats de retour du front, l'armée américaine a perdu en 2012 davantage d'hommes par suicides — environ 350 — qu'au combat, a confié un autre responsable militaire américain. En 2013, ce nombre a légèrement diminué — 284, selon des statistiques arrêtées au 15 décembre — mais s'est maintenu à un niveau anormalement élevé.
"Epidémie de suicides" chez les vétérans américains des guerres d'Afghanistan et d'Irak
Alors que le taux de suicide dans la population est de 8,9 pour 100 000, la proportion chez les anciens militaires est de 18,7 à 20,8 pour 100 000. Le chiffre est encore plus élevé chez les jeunes âgés de 20 à 24 ans, où la proportion atteint 22,9 à 31,9 suicides pour une population de 100 000, soit quatre fois le taux de suicide enregistré chez les non militaires pour cette même tranche d'âge.
Sinon il y a la drogue :
VIETNAM: UNE ARMÉE DE DROGUÉS

Pourquoi les GI sombrent-ils dans la drogue ?
En Irak comme en Afghanistan, les soldats américains sont de plus en plus nombreux à chercher refuge dans la consommation d’héroïne ou d’autres stupéfiants. Une situation qui rappelle l’époque du Vietnam.
Les soldats utilisent des drogues pendant le combat, c'était l'alcool pendant la première guerre mondiale, les amphétamines dans la seconde guerre mondiale.

====
Bon après un robot ça coûte plus chère qu'un mercenaire, donc l'humain restera toujours là, parce que ça a moins de valeur qu'un robot.
Avatar de bit-bang theory
Candidat au Club https://www.developpez.com
Le 05/08/2018 à 11:08
Dire que l’utilisation de robots militaires est inevitables est un discours fataliste. Il faut dés aujourd’hui commencer à légiférer sur ces questions. L’utilisation d’armes chimiques et bacteriologiques est interdite. On peut trés bien interdire l’utilisation d’armes lethales autonomes. Il faut bien comprendre que c’est l’homme qui est aux manettes de sa propre histoire. Les choix politiques peuvent nous emmener dans differentes directions. Lla direction la plus appropriée à la survie de l’humanité et de la vie en général me semble la meilleure et communement partagée. Les robots tueurs nous emmenent-ils dans cette direction ?

 
Contacter le responsable de la rubrique Accueil

Partenaire : Hébergement Web