Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud
En partenariat avec le fabricant d'armes Hanwha Systems

Le , par Francky, Chroniqueur Actualités
Des chercheurs en intelligence artificielle de près de 30 pays ont signé une lettre pour boycotter un projet de l’université sud-coréenne KAIST (Korea Advanced Institute of Science and Technology), en partenariat avec une grande société de défense, visant à développer des armes autonomes.


« À l'heure où les Nations Unies discutent de la manière de contenir la menace que représentent les armes autonomes pour la sécurité internationale, il est regrettable qu'une institution aussi prestigieuse que KAIST cherche à accélérer la course aux armements pour développer de telles armes », mentionnait l'avis de boycott envoyé à KAIST.

Il a été aussi mentionné dans la lettre que « si elles sont développées, les armes autonomes seront la troisième révolution dans la guerre, elles permettront à la guerre d'être menée plus vite et à une échelle plus grande que jamais, elles peuvent être des armes de terreur. […] Les despotes et les terroristes pourraient les utiliser contre des populations innocentes, en supprimant toute restriction éthique. Cette boîte de Pandore sera difficile à fermer si elle est ouverte. »

Le professeur Noel Sharkey, qui dirige la campagne pour arrêter les robots tueurs, a été l'un des premiers à signer la lettre et a salué la réponse de l'université : « Nous avons reçu une lettre du président de KAIST indiquant clairement qu'ils ne contribueraient pas au développement de systèmes d'armes autonomes. » « Les signataires de la lettre auront besoin d'un peu de temps pour discuter de la relation entre KAIST et Hanwha avant de lever le boycott », a-t-il ajouté.

« Il y a beaucoup de choses que vous pouvez faire qui sauvent des vies avec l'IA, y compris dans un contexte militaire, mais déclarer ouvertement que l'objectif est de développer des armes autonomes et d'avoir un partenaire comme celui-ci suscite de vives inquiétudes […] C'est une université très respectée qui s'associe à un partenaire très douteux qui continue de violer les normes internationales », disait Toby Walsh, l’organisateur du boycott, professeur à l’université de New South Wales.

Le boycott va engendrer une réunion des Nations Unies à Genève où les 123 nations membres discuteront des défis posés par les armes autonomes mortelles pendant que plus de 20 de ces pays ont déjà demandé l’interdiction totale des robots tueurs. L’utilisation de l’intelligence artificielle suscite l’inquiétude de tomber dans une situation semblable à celle de Terminator et soulève des questions par rapport à l’exactitude de ces armes et leur capacité à distinguer l’ami de l’ennemi.

Shin Sung-chul, président de l’Institut Coréen de Science et de Technologie (KAIST) affirme une fois de plus que KAIST ne mènera aucune activité de recherche contraire à la dignité humaine, y compris des armes autonomes dépourvues de contrôle humain significatif. « KAIST est significativement conscient des préoccupations éthiques dans l'application de toutes les technologies, y compris l'intelligence artificielle », ajoute-t-il.

Il continue en ajoutant que le projet de l’université avait pour but le développement d’algorithmes pour des systèmes logistiques efficaces, des systèmes de navigation sans pilote et des systèmes de formation aéronautique.

KAIST a ouvert le centre de recherche pour la convergence de la défense nationale et de l'intelligence artificielle le 20 février, Shin ayant déclaré à l'époque que cela « constituerait une base solide pour le développement de la technologie de défense nationale. »

Le président de KAIST a affirmé que « le développement d'armes autonomes aggraverait la situation sécuritaire dans la péninsule coréenne, pas mieux… Si ces armes sont fabriquées n'importe où, elles finiront certainement par arriver en Corée du Nord et elle n'aura aucun scrupule à les utiliser contre la Corée du Sud. »

La Corée du Sud dispose déjà d'une armée de robots patrouillant la frontière avec la Corée du Nord. Le Samsung SGR-A1 porte une mitrailleuse qui peut être commutée en mode autonome, mais qui est actuellement utilisée par les humains via des liaisons de caméra.

Source : BBC - The Gardian

Et vous ?

Que pensez-vous de ce projet de fabrication d’armes autonomes ?

Voir aussi :

Les efforts de l'ONU pour réglementer l'usage militaire de l'IA et des SALA pourraient échouer
La Russie se prépare à envoyer un robot capable de tirer avec des pistolets à l'ISS ? Il ne s'agit pas d'un Terminator assure le vice-président russe
Elon Musk appelle les Nations Unies à bannir les robots tueurs dans une lettre ouverte signée par 116 spécialistes de l'IA et la robotique


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse

Avatar de vayel vayel - Inactif https://www.developpez.com
le 12/04/2018 à 9:59
ils ont le droit de boycotter, ils ont le droit de faire greve mais c'est pas pour autant que l'on vas cédé.
beaucoup de bruit pour rien, ce qui doit etre fait, sera fait pour la science.

Vous imaginer si nous avions du reculer pour les cheminots ou Notre dame ou Bure...etc. A un moment donner l'interet commun doit primer sur les petite considération de quelques gueux.
Avatar de Alvaten Alvaten - Membre éprouvé https://www.developpez.com
le 12/04/2018 à 10:03
Il est grand temps qu'on impose des limites et que des lois interdisent certaines recherches dans le domaine de l'IA ... je suis loins d'être contre l'innovation mais il faut être bigleux pour ne pas voir le danger derriere certaines dérives. Je suis pas certain mais il me semble que c'est déjà le cas par exemple en génétique avec les limitations sur le clonage et ce qui touche à l'ADN par exemple ...

Après je suis pas naïf, ca ne va pas arrêter tout le monde et on aura toujours des sociétés (ou des gouvernements) qui s'en battrons les steaks mais ca pourrai bien aider.

Il y a des boites de pandore que j'ai pas hate de voir ouverte
Avatar de Matthieu76 Matthieu76 - Membre averti https://www.developpez.com
le 12/04/2018 à 10:20
Pffff...
Avatar de Bubu017 Bubu017 - Membre confirmé https://www.developpez.com
le 12/04/2018 à 11:28
Citation Envoyé par vayel Voir le message
ils ont le droit de boycotter, ils ont le droit de faire greve mais c'est pas pour autant que l'on vas cédé.
beaucoup de bruit pour rien, ce qui doit etre fait, sera fait pour la science.

Vous imaginer si nous avions du reculer pour les cheminots ou Notre dame ou Bure...etc. A un moment donner l'interet commun doit primer sur les petite considération de quelques gueux.
et en français, cela donne quoi ?
Avatar de Namica Namica - Membre expérimenté https://www.developpez.com
le 12/04/2018 à 12:11
Citation Envoyé par vayel Voir le message
ils ont le droit de boycotter, ils ont le droit de faire greve mais c'est pas pour autant que l'on vas cédé.
beaucoup de bruit pour rien, ce qui doit etre fait, sera fait pour la science.

Vous imaginer si nous avions du reculer pour les cheminots ou Notre dame ou Bure...etc. A un moment donner l'interet commun doit primer sur les petite considération de quelques gueux.

Citation Envoyé par Bubu017 Voir le message
et en français, cela donne quoi ?
Citation Envoyé par vayel Voir le message
...bof, tous s'écris en anglais de nos jours. La science n'est pas que francaise mais Européenne...
(Tous écrivent ou Tout s'écrit ?)
Bah, je crois que même en anglais ce serait incompréhensible. Quand les idées ne sont pas claires, il est difficile de les exprimer.
Avatar de rambc rambc - Membre expérimenté https://www.developpez.com
le 12/04/2018 à 14:17
On arrive à un moment clé où les applications informatiques, comme celles des sciences il y a très, très longtemps, ne sont plus uniquement du ressort des spécialistes.

Il nous faut à la fois que la société civile, comme on dit, les philosophes et aussi les juristes s'associent aux experts de ce que l'on nomme pompeusement l'Intelligence Artificielle.
Avatar de vayel vayel - Inactif https://www.developpez.com
le 12/04/2018 à 16:38
Citation Envoyé par rambc Voir le message
On arrive à un moment clé où les applications informatiques, comme celles des sciences il y a très, très longtemps, ne sont plus uniquement du ressort des spécialistes.

Il nous faut à la fois que la société civile, comme on dit, les philosophes et aussi les juristes s'associent aux experts de ce que l'on nomme pompeusement l'Intelligence Artificielle.

les philosophes sérieusement ?

genre comme métier inutile y'a pas mieux a si l’academy francaise.
Avatar de Rokhn Rokhn - Membre régulier https://www.developpez.com
le 12/04/2018 à 17:02
Citation Envoyé par vayel Voir le message
genre comme métier inutile y'a pas mieux a si l’academy francaise.
Tu devrai y faire un tour, je pense que ça te sera bénéfique.
A force de prendre les gens pour des merd*s, et d'insulter les anti-IA a des fins de guerre/armes de gueux (alors qu'ils ont sûrement plus de connaissances que toi sur ce domaine), tu vas finir à la trappe avec tes trolls...
Avatar de Matthieu76 Matthieu76 - Membre averti https://www.developpez.com
le 12/04/2018 à 17:54
Citation Envoyé par Rokhn Voir le message
alors qu'ils ont sûrement plus de connaissances que toi sur ce domaine
Je m'y connais en IA et putain arrêter de faire chier à parler de terminator !!!! Avec un minimum de connaissance en data science et en deep learning on comprends vite ce genre de sujet ce n'est que du putaclic. Arrêtez tout de suite, cela sert juste à faire peur aux gens qui n'y connaisse rien dans le domaine.

Citation Envoyé par Francky Voir le message
les armes autonomes seront la troisième révolution dans la guerre, elles permettront à la guerre d'être menée plus vite et à une échelle plus grande que jamais, elles peuvent être des armes de terreur.
Et Hiroshima ça vous dit quelque chose ???? On n'a pas attentu l'IA pour massacré des gens, l'histoire humaine compte plusieurs dizaines voir centaines de génocide !!!
Avatar de vayel vayel - Inactif https://www.developpez.com
le 12/04/2018 à 18:18
Citation Envoyé par Rokhn Voir le message
Tu devrai y faire un tour, je pense que ça te sera bénéfique.
A force de prendre les gens pour des merd*s, et d'insulter les anti-IA a des fins de guerre/armes de gueux (alors qu'ils ont sûrement plus de connaissances que toi sur ce domaine), tu vas finir à la trappe avec tes trolls...
Sa létonnerais beaucoup, je m'y connais et j'ai un sacré bagage dans le dommaine.
algo minmax, réseau de neruonne avec sigmoid,linéraire,...,arbre de décision,le test de Kolmogorov-Smirnoff...
j'en connais une bonne 50aine que je sais utilisé dans les bons contexte.
bref ces types font juste du bullshit, un bon scientique fait son travail il laisse le soins aux "philosophe" bullshiter entre eux pour savoir si c'est "bien" ou "mal"

Moi je suis loyale envers mon entreprise et je la trahie pas pour des faux prétexte. Sinon on irais pas loin dans ce bas monde...

avec un peu de chance mes ia a terme vous éduquerons vers ma vérité.
Contacter le responsable de la rubrique Accueil