IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Elon Musk appelle les Nations Unies à bannir les robots tueurs dans une lettre ouverte
Signée par 116 spécialistes de l'IA et la robotique

Le , par Michael Guilloux

744PARTAGES

9  0 
Le patron de Tesla Elon Musk a plusieurs fois mis en garde contre les dangers de l’intelligence artificielle. Le milliardaire de la tech estime que les armes nucléaires sont potentiellement moins dangereuses que l’IA et à certaines occasions, il n’a pas manqué non plus de dire que l’intelligence artificielle pose « beaucoup plus de risques » que le régime de Kim Jong Un. L’une de ses dernières interventions sur les dangers de l’IA a eu lieu en juillet dernier lors du National Governors Association Summer Meeting, une conférence des gouverneurs américains. À cette occasion, Elon Musk a encore qualifié l’IA comme un risque fondamental pour l'existence de la civilisation humaine, en expliquant par la suite que son désir de coloniser Mars était en partie un plan de secours au cas où l’IA parvient à prendre le dessus sur l’Homme sur Terre.

Lors d’une récente conférence sur l'intelligence artificielle à Melbourne, Elon Musk s’est encore attaqué à l’IA et la robotique, notamment aux armes autonomes. Il faut en effet noter qu’aujourd’hui, plus d'une dizaine de pays – y compris les États-Unis, la Chine, Israël, la Corée du Sud, la Russie et la Grande-Bretagne – développent actuellement des systèmes d'armes autonomes, selon un rapport de Human Rights Watch. Face à cette menace mondiale, Elon Musk et Mustafa Suleyman de Google, à la tête d’un groupe de 116 spécialistes de l’IA et la robotique, ont appelé les Nations Unies à interdire les armes autonomes, à travers une lettre ouverte.

Dans la lettre ouverte, Elon Musk et son groupe reconnaissent leur rôle indirect dans le développement d’armes autonomes en tant qu’entreprises qui développent des technologies de l’IA et de la robotique. Ces technologies « peuvent être réorientées pour développer des armes autonomes [et] nous nous sentons particulièrement responsables de lancer cette alerte », disent-ils.

La Conférence des Nations Unies sur la Convention sur certaines armes classiques (CCW) a décidé de mettre en place un groupe d'experts gouvernementaux (GGE) sur les systèmes d'armes autonomes létales ; une initiative qui est d’ailleurs saluée par ces spécialistes de l’IA et la robotique. Mais « beaucoup de nos chercheurs et ingénieurs souhaitent donner des conseils techniques dans vos délibérations », disent-ils dans la lettre ouverte adressée aux Nations Unies et qui arrive avant une réunion des experts gouvernementaux sur les armes autonomes.

« Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre. Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes détournées pour se comporter de manière indésirable. Nous n'avons pas assez de temps pour agir », ont-ils averti. « Une fois que cette boîte de Pandore est ouverte, il sera difficile de la fermer. »

« Contrairement à d'autres manifestations potentielles de l'IA, qui restent dans le domaine de la science-fiction, les systèmes d'armes autonomes sont à la pointe du développement en ce moment et ont un potentiel très réel pour causer des dommages importants aux personnes innocentes et une instabilité mondiale », a ajouté Ryan Gariepy, le fondateur de Clearpath Robotics et la première personne à signer la lettre.

Dans la lettre, ils demandent donc « aux Hautes Parties contractantes qui participent au GGE d'empêcher une course aux [armes autonomes létales] » et de « trouver un moyen de protéger les civils de leur mauvaise utilisation et éviter les effets déstabilisants de ces technologies » ; ce qui devrait être possible s’ils associent les experts de l’IA et la robotique dans leurs prises de décision.

Sources : CNN, The Guardian, Lettre ouverte

Et vous ?

Que pensez-vous de cette lettre ouverte ?

Voir aussi :

Elon Musk considère l'IA comme un risque fondamental pour l'existence de la civilisation humaine et sa colonisation de Mars comme un plan de secours
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de hotcryx
Membre extrêmement actif https://www.developpez.com
Le 21/08/2017 à 12:03
Il va falloir redéfinir c'est quoi un robot tueur.

Dans leurs navires de guerres, leurs avions de combat n'ont-t'ils pas des tourelles, canons qui recherchent, ciblent et tirent automatiquement...?
6  0 
Avatar de Grimly
Membre averti https://www.developpez.com
Le 21/08/2017 à 11:57
C'est le moment d'investir dans un EMP ou de préparer à faire sauter des bombes atomiques dans la stratosphère (qui pourrait croire qu'une bombe atomique pourrait sauver l'humanité un jour)
2  0 
Avatar de Saverok
Expert éminent https://www.developpez.com
Le 21/08/2017 à 14:51
Citation Envoyé par hunyka Voir le message
Autonomes mais dans quel sens.
Pour ce que j'ai lu pour le moment, il s'agit de drones qui non seulement volent en autonomie sur un territoire donné mais sont capable d'identifier une cible (un responsable de daech, par exemple) et de "décider" automatiquement de lancer une attaque pour éliminer ladite cible.

Du coup, l'humain n'intervient que pour désigner la cible et le secteur de recherche.
Le drone se chargeant ensuite de faire le reste.

Le méga hic, en dehors des robots-tueurs, est que ces drones ne sont pas d'une précision de sniper.
Ils sont armés de missiles capables de raser un immeuble et que le qualificatif de dommage collatéral acceptable et particulièrement difficile à définir au sein de l'IA...
Que va "décider" l'IA lorsque la cible est entourée d'enfants ou se trouve à proximité d'un hôpital ?
2  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 30/08/2017 à 16:51
Citation Envoyé par _Alain_ Voir le message
Il y a déjà la première loi (de bon sens *) de la robotique, formulée par Isaac Asimov:

Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger
.
On cites souvent les lois d'Asimov comme un standard à atteindre alors que le contenu même de ses romans est de montrer qu'elles ne fonctionnent pas.
La conclusion étant que L'être Humain s'expose seul au danger, et que pour éviter ça, il faut supprimer le libre arbitre humain.

Concernant les armes "automatiques" actuelles, il y a beaucoup de fanstasme dans ce que je lis. c'est interdit par les conventions de genèves le tir automatique. Aujourd'hui les systèmes repèrent, traquent, asservissent les canons sur les cibles, mais il y a bien un humain au bout qui dit "vas-y, tire". Et cette action là, de manière éthique, n'est pas encore supprimée. (du moins de ce que j'ai vu dans mes missions dans le domaine militaire).
2  0 
Avatar de
https://www.developpez.com
Le 21/08/2017 à 14:37
Que pensez-vous de cette lettre ouverte?
Cela s'apparente à une acte de noblesse. Bien sur historiquement cela n'est pas vraiment quelque chose de charitable.

P.S. : À chaque monument commémoratif du mal son monument commémoratif du bien ? C'est trop tard on dirait...
1  0 
Avatar de hotcryx
Membre extrêmement actif https://www.developpez.com
Le 21/08/2017 à 18:11
Regardez cette vidéo: balles intelligentes...

1  0 
Avatar de 10_GOTO_10
Membre expérimenté https://www.developpez.com
Le 24/08/2017 à 13:17
Et si on interdisait tout simplement de tuer ou de blesser pendant les guerres ? Ça éviterait le "risque fondamental pour l'existence de la civilisation humaine", non ?
1  0 
Avatar de joublie
Membre confirmé https://www.developpez.com
Le 21/08/2017 à 16:14
Citation Envoyé par Grimly Voir le message
C'est le moment d'investir dans un EMP ou de préparer à faire sauter des bombes atomiques dans la stratosphère (qui pourrait croire qu'une bombe atomique pourrait sauver l'humanité un jour)
C'est amusant, j'y pensais à cette idée-là il y a quelques jours. Le problème est qu'une bombe atomique à très puissante impulsion électromagnétique renverrait - pour ainsi dire - au Moyen-Age le pays au-dessus duquel elle exploserait...

Imaginons que les centraux de télécommunications, les centrales électriques, les usines, les automobiles récentes, les camions et les trains, ainsi qu'à peu près tout ce qui comporte de l'électronique soit fortement endommagé par la bombe : il serait impossible de faire redémarrer rapidement ces équipements, les dégâts seraient beaucoup trop nombreux. En pratique, la famine arriverait en quelques jours, la pénurie d'eau potable aussi. L'armée US a fait un rapport à ce sujet : les conséquences seraient beaucoup plus létales qu'une bombe explosant au-dessus d'une métropole comme New-York ou Los Angeles.

Passer par l'ONU est peut-être une manière rusée d'échapper aux groupes de pression industriels très influents, mais suffira-t-elle ? De toute façon, les Etats-Unis font ce que bon leur semble, et s'ils refusent de signer, quid des Russes ou des Chinois ?

A mon sens, il devrait toujours y avoir un être humain pour valider par son propre jugement l'emploi d'une arme partiellement automatisée, c'est-à-dire quelqu'un capable d'évaluer in situ et a priori les conséquences de l'utilisation de l'arme. Il ne s'agit pas seulement de circonscrire le potentiel de destruction des armes (limiter les " dégâts collatéraux ", comme dirait l'autre), mais bel et bien d'éviter que des machines intelligentes retournent leurs armes contre des humains. A ce jour il n'y a pas de risque, mais dans quelques décennies, qui sait ?
0  0 
Avatar de _Alain_
Membre du Club https://www.developpez.com
Le 24/08/2017 à 10:01
L'oracle de la Silicon Valley Silly Valley pourrait peut-être d'abord s'intéresser à ce "petit" problème.
0  0 
Avatar de _Alain_
Membre du Club https://www.developpez.com
Le 26/08/2017 à 12:14
Il y a déjà la première loi (de bon sens *) de la robotique, formulée par Isaac Asimov:

Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger
.

Avant d'appliquer cette loi aux robots, "peut-être" pourrions nous commencer par l'appliquer à nous-même?

Fais ce que je dis pas ce que je fais
Fais ce que je dis pas ce que je fais
Fais ce que je dis
Si tu fais comme moi, tu es fou
Tu es fou


Ou l'espèce "humaine" est-elle elle-même désespérément et irrémédiablement buggée?

* pas besoin de poly-tiques et bureauc-rats pour cela.
0  0