IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud
En partenariat avec le fabricant d'armes Hanwha Systems

Le , par Francky

586PARTAGES

7  0 
Des chercheurs en intelligence artificielle de près de 30 pays ont signé une lettre pour boycotter un projet de l’université sud-coréenne KAIST (Korea Advanced Institute of Science and Technology), en partenariat avec une grande société de défense, visant à développer des armes autonomes.


« À l'heure où les Nations Unies discutent de la manière de contenir la menace que représentent les armes autonomes pour la sécurité internationale, il est regrettable qu'une institution aussi prestigieuse que KAIST cherche à accélérer la course aux armements pour développer de telles armes », mentionnait l'avis de boycott envoyé à KAIST.

Il a été aussi mentionné dans la lettre que « si elles sont développées, les armes autonomes seront la troisième révolution dans la guerre, elles permettront à la guerre d'être menée plus vite et à une échelle plus grande que jamais, elles peuvent être des armes de terreur. […] Les despotes et les terroristes pourraient les utiliser contre des populations innocentes, en supprimant toute restriction éthique. Cette boîte de Pandore sera difficile à fermer si elle est ouverte. »

Le professeur Noel Sharkey, qui dirige la campagne pour arrêter les robots tueurs, a été l'un des premiers à signer la lettre et a salué la réponse de l'université : « Nous avons reçu une lettre du président de KAIST indiquant clairement qu'ils ne contribueraient pas au développement de systèmes d'armes autonomes. » « Les signataires de la lettre auront besoin d'un peu de temps pour discuter de la relation entre KAIST et Hanwha avant de lever le boycott », a-t-il ajouté.

« Il y a beaucoup de choses que vous pouvez faire qui sauvent des vies avec l'IA, y compris dans un contexte militaire, mais déclarer ouvertement que l'objectif est de développer des armes autonomes et d'avoir un partenaire comme celui-ci suscite de vives inquiétudes […] C'est une université très respectée qui s'associe à un partenaire très douteux qui continue de violer les normes internationales », disait Toby Walsh, l’organisateur du boycott, professeur à l’université de New South Wales.

Le boycott va engendrer une réunion des Nations Unies à Genève où les 123 nations membres discuteront des défis posés par les armes autonomes mortelles pendant que plus de 20 de ces pays ont déjà demandé l’interdiction totale des robots tueurs. L’utilisation de l’intelligence artificielle suscite l’inquiétude de tomber dans une situation semblable à celle de Terminator et soulève des questions par rapport à l’exactitude de ces armes et leur capacité à distinguer l’ami de l’ennemi.

Shin Sung-chul, président de l’Institut Coréen de Science et de Technologie (KAIST) affirme une fois de plus que KAIST ne mènera aucune activité de recherche contraire à la dignité humaine, y compris des armes autonomes dépourvues de contrôle humain significatif. « KAIST est significativement conscient des préoccupations éthiques dans l'application de toutes les technologies, y compris l'intelligence artificielle », ajoute-t-il.

Il continue en ajoutant que le projet de l’université avait pour but le développement d’algorithmes pour des systèmes logistiques efficaces, des systèmes de navigation sans pilote et des systèmes de formation aéronautique.

KAIST a ouvert le centre de recherche pour la convergence de la défense nationale et de l'intelligence artificielle le 20 février, Shin ayant déclaré à l'époque que cela « constituerait une base solide pour le développement de la technologie de défense nationale. »

Le président de KAIST a affirmé que « le développement d'armes autonomes aggraverait la situation sécuritaire dans la péninsule coréenne, pas mieux… Si ces armes sont fabriquées n'importe où, elles finiront certainement par arriver en Corée du Nord et elle n'aura aucun scrupule à les utiliser contre la Corée du Sud. »

La Corée du Sud dispose déjà d'une armée de robots patrouillant la frontière avec la Corée du Nord. Le Samsung SGR-A1 porte une mitrailleuse qui peut être commutée en mode autonome, mais qui est actuellement utilisée par les humains via des liaisons de caméra.

Source : BBC - The Gardian

Et vous ?

Que pensez-vous de ce projet de fabrication d’armes autonomes ?

Voir aussi :

Les efforts de l'ONU pour réglementer l'usage militaire de l'IA et des SALA pourraient échouer
La Russie se prépare à envoyer un robot capable de tirer avec des pistolets à l'ISS ? Il ne s'agit pas d'un Terminator assure le vice-président russe
Elon Musk appelle les Nations Unies à bannir les robots tueurs dans une lettre ouverte signée par 116 spécialistes de l'IA et la robotique

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Alvaten
Membre éprouvé https://www.developpez.com
Le 12/04/2018 à 10:03
Il est grand temps qu'on impose des limites et que des lois interdisent certaines recherches dans le domaine de l'IA ... je suis loins d'être contre l'innovation mais il faut être bigleux pour ne pas voir le danger derriere certaines dérives. Je suis pas certain mais il me semble que c'est déjà le cas par exemple en génétique avec les limitations sur le clonage et ce qui touche à l'ADN par exemple ...

Après je suis pas naïf, ca ne va pas arrêter tout le monde et on aura toujours des sociétés (ou des gouvernements) qui s'en battrons les steaks mais ca pourrai bien aider.

Il y a des boites de pandore que j'ai pas hate de voir ouverte
13  0 
Avatar de
https://www.developpez.com
Le 12/04/2018 à 20:47
Citation Envoyé par vayel Voir le message

je m'y connais et j'ai un sacré bagage dans le dommaine. [...]
avec un peu de chance mes ia a terme vous éduquerons vers ma vérité.
Quand on lit ça, on comprend parfaitement les raisons qui pousseront les plus pacifistes des IA et les robots les plus inoffensifs, à vouloir exterminer leur créateur
10  0 
Avatar de Kazh Du
Membre confirmé https://www.developpez.com
Le 13/04/2018 à 12:00
Citation Envoyé par vayel Voir le message
bla bla bla... de la maird (avec un français.. aléatoire)... bla bla..
Rassurez moi, c'est un troll ? Un gros troll poilu ?
Je sais pas, j'ai un doute... On est témoin de la stupidité de certains humains tous les jours (y a tout de même des gens pour croire que la Terre est plate... EN 2018 !!!)

Entre ses appels à ne pas réfléchir et de laisser ça aux "philosophes" (qui donc ? l'émir MachinTruc ? le curé de BiduleChose ?), sa soumission à l'autorité ("loyale envers mon entreprise" et ses menaces de dictature ("avec un peu de chance mes ia a terme vous éduquerons vers ma vérité"... j'ai bien peur que nous ayons à faire à une... fanatique ! (TAM TAM TAM !) Et c'est pas la seule dans cette pile de m****.

Plus sérieusement, l'utilisation des IA dans le domaine militaire est un danger. "Pour un moindre coût, organisez votre propre génocide ! Vos soldats ne pourront même plus avoir des problèmes de conscience !" Ça parait ridicule mais c'est un risque réel. Et lorsque vayel se place en tant qu'experte pour justifier sa morale douteuse, ça me fait bien marrer. D'autres "experts" ont parlés du sujets (Elon Musk, Stephen Hawking entre autres...) et ils n'ont pas tirés les mêmes conclusions. Mais là encore, ne vous fiez pas aux personnalités, écoutez les arguments, réfléchissez et "philosophez". C'est notre boulot à tous.
8  0 
Avatar de Bubu017
Membre éprouvé https://www.developpez.com
Le 12/04/2018 à 11:28
Citation Envoyé par vayel Voir le message
ils ont le droit de boycotter, ils ont le droit de faire greve mais c'est pas pour autant que l'on vas cédé.
beaucoup de bruit pour rien, ce qui doit etre fait, sera fait pour la science.

Vous imaginer si nous avions du reculer pour les cheminots ou Notre dame ou Bure...etc. A un moment donner l'interet commun doit primer sur les petite considération de quelques gueux.
et en français, cela donne quoi ?
6  0 
Avatar de Namica
Membre expérimenté https://www.developpez.com
Le 12/04/2018 à 12:11
Citation Envoyé par vayel Voir le message
ils ont le droit de boycotter, ils ont le droit de faire greve mais c'est pas pour autant que l'on vas cédé.
beaucoup de bruit pour rien, ce qui doit etre fait, sera fait pour la science.

Vous imaginer si nous avions du reculer pour les cheminots ou Notre dame ou Bure...etc. A un moment donner l'interet commun doit primer sur les petite considération de quelques gueux.

Citation Envoyé par Bubu017 Voir le message
et en français, cela donne quoi ?
Citation Envoyé par vayel Voir le message
...bof, tous s'écris en anglais de nos jours. La science n'est pas que francaise mais Européenne...
(Tous écrivent ou Tout s'écrit ?)
Bah, je crois que même en anglais ce serait incompréhensible. Quand les idées ne sont pas claires, il est difficile de les exprimer.
6  0 
Avatar de rambc
Membre chevronné https://www.developpez.com
Le 12/04/2018 à 14:17
On arrive à un moment clé où les applications informatiques, comme celles des sciences il y a très, très longtemps, ne sont plus uniquement du ressort des spécialistes.

Il nous faut à la fois que la société civile, comme on dit, les philosophes et aussi les juristes s'associent aux experts de ce que l'on nomme pompeusement l'Intelligence Artificielle.
6  0 
Avatar de ymoreau
Membre émérite https://www.developpez.com
Le 13/04/2018 à 9:30
Je comprends tout à fait que des mouvements de boycott émergent, cela dit je ne me fais pas trop d'illusion, ce sera quand même fait un jour ou l'autre. Dans le privé ou l'armée, en secret ou pas, les chercheurs peuvent refuser de le développer il y en aura toujours quelques uns pour se laisser acheter ou simplement trop curieux de travailler sur cette problématique.

Je suis assez d'accord avec la comparaison sur le nucléaire. Tout le monde a été effaré de son utilisation au Japon, tout le monde s'est gentiment dit "on n'utilisera jamais ces armes c'est trop inhumain" et pourtant chacun les a développées sous prétexte de politique de dissuasion.
Le jour où un prototype de robot tueur est en développement, on peut être sûr que tous les pays développés voudront développer le leur "juste au cas où" (et qu'au passage on y mettra des milliards, quand on ne pouvait vraiment pas garder 3 infirmières de plus à l'hôpital).
6  0 
Avatar de Rokhn
Membre actif https://www.developpez.com
Le 12/04/2018 à 17:02
Citation Envoyé par vayel Voir le message
genre comme métier inutile y'a pas mieux a si l’academy francaise.
Tu devrai y faire un tour, je pense que ça te sera bénéfique.
A force de prendre les gens pour des merd*s, et d'insulter les anti-IA a des fins de guerre/armes de gueux (alors qu'ils ont sûrement plus de connaissances que toi sur ce domaine), tu vas finir à la trappe avec tes trolls...
7  2 
Avatar de Rokhn
Membre actif https://www.developpez.com
Le 12/04/2018 à 20:56
Citation Envoyé par vayel Voir le message
non mais les années d'expériences si Désolé de te l'apprendre mais apparemment il faut quelqu'un pour te ramener sur Terre
vu ton jeune age je ne t'en tiendrais pas rigueur
Tu me fais doucement rire, sur ce je vais arrêter de répondre à des murs. Tu m'en verra désolé mais mon jeune age ne m'accorde pas de tel privilège apparemment
6  1 
Avatar de Bubu017
Membre éprouvé https://www.developpez.com
Le 13/04/2018 à 9:01
Citation Envoyé par vayel Voir le message
non mais les années d'expériences si Désolé de te l'apprendre mais apparemment il faut quelqu'un pour te ramener sur Terre
vu ton jeune age je ne t'en tiendrais pas rigueur
et toi tu as quel âge ? à certains moments tes phrases sont sans fautes, mais la majorité sont moins bien écrites que celles d'un gosse de 7 ans.
Sinon, "ces types font juste du bullshit, un bon scientique fait son travail ", encore heureux que les scientifiques ont une conscience et ne font pas "juste" leur travail et s'inquiète sur comment leur taff peut être utilisé.
4  0