IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Chef de l'ONU : « La militarisation de l'intelligence artificielle est un grave danger »
Guterres met en garde contre l'impact de la technologie

Le , par Stéphane le calme

486PARTAGES

16  0 
Les progrès technologiques se produisent « à un rythme accéléré », a déclaré lundi à Lisbonne, au Portugal, le secrétaire général des Nations Unies, António Guterres, alors qu'un important Web Summit de trois jours avait été lancé.

Sur la question de l'intelligence artificielle, il a déclaré que les machines accomplissent de plus en plus de tâches réservées à l'homme, et qu'elles les accomplissent de mieux en mieux, telles que le diagnostic médical et la surveillance policière.

Cependant, « la militarisation de l'intelligence artificielle est un grave danger », a précisé le chef de l'ONU, mettant en garde contre l'impact de la technologie sur la guerre.

« Avec la militarisation de l'intelligence artificielle, la perspective d'armes autonomes pouvant sélectionner et détruire des cibles humaines rendra très difficile d'éviter l'escalade des conflits et de garantir le respect du droit international humanitaire et du droit international des droits de l'homme », a-t-il souligné.

Les améliorations apportées à l'IA font en sorte que des armes autonomes capables de reconnaître et d'attaquer des cibles humaines deviennent une perspective plausible dans un proche avenir.

Les critiques soutiennent que les armes autonomes ne seront jamais en mesure de respecter les règles de base de la guerre - faire la distinction entre soldats et civils, par exemple - ou de comprendre des concepts tels que la proportionnalité en temps de guerre.


Il est également difficile de savoir qui serait responsable si des armes autonomes se présentaient mal sur le champ de bataille ou si elles étaient piratées. Et si un certain nombre de pays ont appelé à l'interdiction des soi-disant « systèmes d'armes autonomes létaux ». Bien entendu, tous les pays n’y sont pas favorables.

Sous des applaudissements élogieux, le Secrétaire général a déclaré : « Les machines qui ont le pouvoir et la discrétion de prendre des vies humaines sont politiquement inacceptables, moralement répugnantes et devraient être bannies par le droit international ».

António Guterres a également mis en garde contre l'impact de l'IA sur l'emploi et la société.

« Nous allons voir une énorme quantité d'emplois créés et une énorme quantité d'anciens emplois détruits », a-t-il déclaré.

« Il est difficile de savoir quel nombre sera le plus grand, mais ces emplois seront très différents, et nous serons confrontés à un chômage énorme. Les sociétés seront perturbées et il est clair que nous ne sommes pas préparés à cela, et nous ne nous y préparons pas assez vite ».

Une nouvelle génération de filets de sécurité sera nécessaire pour les laissés pour compte de la révolution de l'IA, a déclaré Guterres.


Parce que la technologie évolue si rapidement, de nouvelles plateformes doivent être créées pour traiter ces problèmes, a-t-il déclaré, soulignant qu'il souhaitait que l'ONU soit une plateforme permettant à différents groupes de se réunir pour discuter et convenir de protocoles et d'autres mécanismes permettant au cyberespace, à Internet et l'IA « d’être essentiellement une force oeuvrant pour le bien ».

Source : ONU

Voir aussi :

Microsoft : des employés l'exhortent à ne pas soumissionner de proposition pour JEDI, qui ambitionne de créer une force militaire « plus meurtrière »
L'IA de niveau humain pourrait être réalisée « d'ici 5 à 10 ans », selon les experts, et les plus grandes menaces sont les applications militaires
L'EFF appelle à ne pas utiliser l'intelligence artificielle pour la guerre, s'adressant à Google et aux entreprises de l'IA
Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
L'intelligence artificielle est-elle l'arme de la prochaine guerre froide ? Oui, répond un chercheur en informatique

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de marsupial
Expert éminent https://www.developpez.com
Le 07/11/2018 à 17:11
La NSA a commencé sa collecte de masse en 2007 chez Microsoft puis tous les géants du Net (projet PRISM) et n'a pas utilisé d'IA pour faire un carton dans le monde entier, juste un algo de requêtes. Il y a aussi Palantir qui date de 2004, je crois, financé par la CIA et fournissant aussi les milieux financiers en projections sans utiliser d'IA. Dans les 2 cas, j'imagine que cela doit demander des algos complexes et chiadés pour un résultat bluffant. Pour les Deep Fake, n'importe quel studio de cinéma sait le faire sans avoir besoin d'IA.

Maintenant je ne dis pas qu'il ne l'utilise pas aujourd'hui mais ce n'est pas indispensable. Accuser l'IA d'en être l'origine, la cause, est une conclusion pour le moins erronée.
4  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 07/11/2018 à 13:23
Tel quel la surveillance de masse, la production de fausses vidéos qui seront utilisé comme des preuves par les médias, etc.
Il n'y a pas besoin d'IA pour le faire...
3  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 06/11/2018 à 16:17
L'IA apporte tellement de positif mais d'accord avec ce discours plein de sagesse que n'entendront pas tous ceux qui sont engagés sur la voie des robots tueurs.

Même chose pour l'emploi dont beaucoup restent à automatiser machinalement. Une fonction exécutée par une IA donne un ROI de 17% de croissance en moyenne. Jean-Marc Vittori, dans un édito des Echos, informait d'une transformation nécessaire de toute la société pour tirer le meilleur parti de la technologie suite à la lecture d'un livre sur le sujet de l'impact de l'IA.
Je suis en train de lire les livres d'Aurélien Géron sur le Machine Learning et le Deep Learning : cela me laisse entrevoir un potentiel encore plus gigantesque que ce que j'imaginais...
2  0 
Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 06/11/2018 à 17:27
Trop tard Boby, on a passé le point de non retour. C'est le "progrès" et si t'es pas progressiste, t'es reac', donc fasciste.
4  4 
Avatar de Matthieu76
Membre éclairé https://www.developpez.com
Le 07/11/2018 à 9:55
Les "robots tueurs" ça fera du monde en moins sur les champs de bataille.
0  2 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 07/11/2018 à 10:16
Citation Envoyé par Stéphane le calme Voir le message
António Guterres met en garde contre l'impact de la technologie sur la guerre
Ça me rappelle le point de vue d'Ellon Musk :
Pour Vladimir Poutine, le pays leader en matière d'intelligence artificielle sera «maître du monde»
Le développement de l'intelligence artificle suscite des réactions extrêmement variées parmi les spécialistes des nouvelles technologiques : le PDG de la marque de voitures électriques Tesla Elon Musk y perçoit une menace majeure pour l'avenir de l'humanité, à rebours de ce que pense, par exemple, le créateur de Facebook Mark Zuckerberg.
Pour Elon Musk, l'intelligence artificielle est «largement plus dangereuse que la Corée du Nord»
Intelligence artificielle : Zuckerberg enrage face au «catastrophisme irresponsable» d'Elon Musk

Citation Envoyé par marsupial Voir le message
L'IA apporte tellement de positif
Tel quel la surveillance de masse, la production de fausses vidéos qui seront utilisé comme des preuves par les médias, etc.

Citation Envoyé par Matthieu76 Voir le message
Les "robots tueurs" ça fera du monde en moins sur les champs de bataille.
Pas si les champs de bataille sont des villes.
Dans le futur il y aura peut-être des drones volants équipé de fusils d’assaut et si vous n'êtes pas d'accord avec le gouvernement vous serez recherché et abattu.

En Chine il y a déjà un système de score :
La Chine lance son "crédit social", des notes pour évaluer ses citoyens

La surveillance est déjà un peu au point :
Reconnaissance faciale: Un homme repéré au milieu d’une foule de 50 000 personnes en Chine

Partout dans le monde les libertés recules, c'est pas rassurant de se dire que des partis comme LREM auront accès à ce type de technologie...

Citation Envoyé par Cpt Anderson Voir le message
on a passé le point de non retour.
Et ouais.
À partir du moment ou un pays développe une arme, les autres sont obligé de suivre. (Les USA ont investi à fond, c'est donc trop tard)
Il ne faut pas laisser un pays surpasser les autres.

Einstein est allé aux USA pour donner un coup de main à la création de 2 technologies de bombes atomiques, les autres pays ont suivi.
2  4 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 07/11/2018 à 14:45
Citation Envoyé par marsupial Voir le message
Il n'y a pas besoin d'IA pour le faire...
Pour la surveillance de masse ça doit être indispensable.
On sait que la surveillance US possède nos emails, nos SMS, nos messages privées, etc. Seul une IA peut gérer autant d'informations.
À moins qu'on dise que ce n'est qu'un ensemble d'algorithmes et pas une IA.

C'est pareil Facebook, Google, Apple, etc, achètent et vendent toutes nos informations personnelles et font des analyse Big Data avec.

Les IA modifient les vidéos beaucoup rapidement que les humains. (DeepFakes)
0  3