IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'EFF appelle à ne pas utiliser l'intelligence artificielle pour la guerre
S'adressant à Google et aux entreprises de l'IA

Le , par Ludovic Barry

596PARTAGES

10  0 
L'initiative du département de la Défense des États-Unis dénommée « Project Maven », qui vise à utiliser l'Intelligence artificielle (IA) à des fins militaires, a amené des milliers d'employés de Google à dénoncer l'implication de la firme dans ce projet.

Le mois dernier, Google avait déclaré que l'entreprise n'avait fourni que des « API TensorFlow » au département de la Défense par l'intermédiaire d'un compte Google régulier pour former les modèles TensorFlow. Google a ajouté qu'elle fait de la reconnaissance d'objets « pour des utilisations non offensives seulement ». Mais une lettre signée par des employés de l'entreprise vient souligner que Google a mis à la disposition du département de la Défense son expertise de pointe en apprentissage machine et ses ingénieurs travaillant dans ce domaine.


Partant de ces faits et de tous les documents publics, l'Electronic Frontier Foundation (EFF), organisation à but non lucratif qui défend les libertés civiles dans le monde numérique, demande à son tour à Google de ne pas aider les États-Unis à construire des systèmes d'IA qui pourrait causer des dégâts. Pour l'EFF, il est risqué d'utiliser des systèmes d'IA dans des situations militaires de peur d'engendrer des morts, l'escalade de conflits ou une instabilité mondiale. La gestion des systèmes d'IA est déjà assez compliquée et peut s'avérer très compliquée et plus délicate dans les situations militaires. L'EFF rappelle aussi que jusqu'à ce jour, il n'y a pas de règles et normes définies pour évaluer les risques et responsabilités pour les systèmes d'IA en général. L'organisme pense donc les entreprises de l'intelligence artificielle devraient se poser un certain nombre de questions avant d'accepter des contrats militaires.

  • Est-il possible de créer des institutions ou des accords internationaux forts et contraignants qui définissent les utilisations militaires acceptables et les limites de l'utilisation de l'IA ?
  • Existe-t-il un processus solide pour étudier et atténuer les problèmes de sécurité et de stabilité géopolitique qui pourraient résulter du déploiement de l'IA militaire ?
  • Les organismes contractants sont-ils prêts à s'engager à ne pas utiliser l'IA pour des armes offensives autonomes ?
  • Peut-il y avoir une surveillance transparente et responsable de la part d'un comité d'éthique constitué de façon indépendante ou d'une entité similaire ayant à la fois le pouvoir d'opposer son veto aux aspects du programme et le pouvoir d'apporter la transparence publique aux questions lorsque cela est nécessaire ou approprié ?

Enfin, EFF souligne que l'utilisation de l'IA dans les systèmes d'armes est un sujet d'une importance cruciale qui mérite un débat public international et probablement des accords internationaux pour assurer la sécurité mondiale. Les entreprises comme Google, ainsi que leurs homologues du monde entier, doivent tenir compte des conséquences et exiger une véritable responsabilisation et des normes de comportement de la part des organismes militaires qui recherchent leur expertise - et d'eux-mêmes.

Sources : L'EFF

Et vous ?

Qu'en pensez-vous ?

Voir aussi

Non, l'IA de Google ne doit pas être au service de la guerre !

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de MarieKisSlaJoue
Membre expert https://www.developpez.com
Le 15/05/2018 à 10:49
Citation Envoyé par Ryu2000 Voir le message
Ils sont très courageux de choisir de quitter leur travail, ils font passer leur convictions avant leur confort.
C'est impossible de savoir si j'aurais fais pareil, bosser chez Google ça doit bien payer quand même.
Ils sont juste trop naïf de croire qu'ils peuvent influencer Google à changer...
Je pense que les mecs qui sont partie ne sont :
- Soit pas des mecs lambda, donc leur employabilité doit être très forte, et non donc pas de soucie à se faire pour trouver du boulot
- Même si ils sont totalement lambda dans l'organisation, il reste comme très intéressant avec Google sur leur CV.

Pour peu que ça fasse un moment qu'ils soient dans la boite, l'argent ne doit globalement pas être un soucie pour eux.

Je pense au contraire que c'est gens on tous compris, l'accomplissement de sa carrière c'est pas de rentré chez un GAFA (pour des avantages dont tu n'as souvent pas le luxe de profité faute de temps). Le réel accomplissement, c'est de travailler pour ce que l'ont croit, faire en sorte que notre travail et sa finalité nous convienne. Et je pense que c'est en raisonnant comme ça qu'on fait de belle carrière avec du succès.

c'est donc je pense courageux, mais je ne pense pas que leur confort en pâtisse.
6  0 
Avatar de Rokhn
Membre actif https://www.developpez.com
Le 09/04/2018 à 15:53
Citation Envoyé par Matthieu76 Voir le message
Moi personnellement je vois pas le problème à l'utilisation de l'IA, on utilise déjà des avions pour bombarder des villes entières, je ne vois pas ce qu'une IA pourrait faire de plus ... Franchement ça pourra pas être pire. Et ne venez pas me parler de Terminator, cela n'a aucun rapport !!!
On déshumanise le fait de s'en prendre à une personne/tuer, c'est encore plus violent que la guerre en face à face.

(Les deux sont dégueulasse je l'accorde, y'en a juste un qui est immonde)

L'homme à toujours été très inventif pour ce qui touche au domaine des armes et de la guerre, mais l'IA ne doit à mon avis pas servir en ce sens, sinon dans quelques années on se retrouve dans le même scénario que certains films hollywoodiens.
En plus de ça, développer des IA pour la guerre, voyant les failles aberrantes que l'ont trouve dans nos SI, c'est pas très rassurant....
5  0 
Avatar de Aurelien.Regat-Barrel
Expert éminent sénior https://www.developpez.com
Le 09/04/2018 à 23:13
Citation Envoyé par Matthieu76 Voir le message
Moi personnellement je vois pas le problème à l'utilisation de l'IA, on utilise déjà des avions pour bombarder des villes entières, je ne vois pas ce qu'une IA pourrait faire de plus ... Franchement ça pourra pas être pire. Et ne venez pas me parler de Terminator, cela n'a aucun rapport !!!
Cette peur de l'IA n'est que l'actualisation moderne d'une peur qui nous habite depuis des millénaires : celle de notre disparition annoncée par moultes prophéties et récits apocalyptiques. Chaque génération hérite, perpétue et transmet cette idée d'une destruction totale de l'humanité qui l'aura d'ailleurs bien cherché. Autrement dit, une perpétuation de l'idée que nous sommes méprisables et que la nature ou Dieu ou l'Univers a bien raison de nous exterminer.

Cette éducation à nous auto-détester est tellement ancrée en nous qu'il est bien difficile de s'en détacher ouvertement sans déclencher une vive hostilité. Car derrière les beaux discours visant à nous ouvrir les yeux etc... il y a aussi de profonds enjeux de pouvoirs : les prophètes de malheur savent faire bon usage de notre addiction au drame.

Alors je crois que ta posture est la bonne : hausser des épaules et passer son chemin. Car in fine, une fois qu'on est passé à autre chose, on se rend compte qu'on avait juste peur de nous mêmes.
4  0 
Avatar de leroivi
Membre régulier https://www.developpez.com
Le 15/05/2018 à 8:39
J'avais complètement oublié cette histoire, j'ai cru, en lisant le titre, qu'on allait parler de contribution à Maven de Apache qui fait parti des outils d'android studio, je me demandais en quoi c'était si grave x)

Bref Google continue d'être maître du monde, et s’immisce dans tout les secteurs jusqu'être indispensable pour s'affirmer, le militaire devait forcément arriver
3  0 
Avatar de LSMetag
Expert confirmé https://www.developpez.com
Le 15/05/2018 à 10:35
J'espère que ce sont des pointures qui sont parties. Ca ne se remplace pas si facilement.

Me concernant je pense que je serais parti. J'avais déjà volontairement raté un entretien clientèle chez Servier (j'avais bien mis en évidence mon amour des animaux), façon de refuser sans le dire une mission de SS2I.

Google sait pertinemment dans quoi il s'engage. Le contrat doit être très juteux.
3  0 
Avatar de MarieKisSlaJoue
Membre expert https://www.developpez.com
Le 15/05/2018 à 11:14
Pour toi peut être, pour eux je pense que c'est en effet bcp plus facile, la difficulté, doit même dans être trier les bonnes proposition.

C'est un peu l'équivalent à notre niveau de mettre notre CV sur Monster, des tas d'appel et t'entretiens. Pour la plus part d'entre nous, c'est des propositions bas de gamme, voir du sourcing, pour eux, c'est plus du travail dans des startup ou autre grosse boite.

Et puis ils ont raisons je trouve, la guerre n'est pas le seul moyen de faire des progrès technologiques. Si on prend la voiture, on à maintenant plein d'aide à la conduite comme le limitateur de vitesse ou les boites auto. Ce genre d'évolution viens d'abord pour les personnes qui on des difficultés à conduire, puis finalement tous le monde en profite. l'inclusion de personne est un fabuleux vecteur de progrès pour tous. Un progrès qui sert pour une personne qui n'a plus qu'un bras (au pif perdu à la guerre), bah ça va aussi servir au parent qui à son enfant dans les bras.

L'espace est aussi un bon facteur de progrès technique. Bref, on est pas obligé de se tirer dessus pour progresser.
3  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 18/05/2018 à 10:22
Moi je trouve ça inquiétant.

Imaginez les conséquences :

- d'un algorithme mal conçu (cf. vidéo Robocop)
- d'un bug
- d'un hack avec patch islamiste, nazi, homophobe, ethnique, dissident et j'en passe.

Dernier cas concret :

Uber aurait compris pourquoi une de ses voitures autonomes a percuté mortellement une piétonne alors que ses capteurs l'avaient bien détectée. Il n'y a pas eu de défaillance mais un réglage trop tolérant qui a conduit la voiture à ne pas réagir en temps voulu.
[mode cynique]Comme il est dit, il n'y a pas eu de défaillance. Je sais pas pas si il faut éclater de rire, pleurer, prendre un prosac, ou faire un procès pour choix homicide volontaire avec arme par destination.[/mode cynique]
3  0 
Avatar de ManyTwo
Membre du Club https://www.developpez.com
Le 25/06/2018 à 10:56
Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois …
@SofEvans c'est sur dis comme ca cela peut paraitre un peu abusé. Dans un cadre d'entreprises "classiques" ta réaction se comprends facilement, mais on est dans un cadre un peu particulier la quand meme...

Je trouve quand dans certains cas d'éthique il faut avoir le courage de montrer son désaccord. Il est facile après coup de se dire "j'y suis pour rien si mes productions sont utilisées pour tuer des gens, c'est mon patron qu'y m'a demandé".
Si faire certaines taches vont vraiment contre ton éthique, ben ne les fait pas . Quite à démissionner par la suite. La on parle de projets d'IA pour reconnaitre des gens dans un carde militaire, qui finira surement par des assassinats ciblés…

Si ton patron te dit:" écrit un programme pour notre drone qui différencie les civils des combatants et tire automatiquement, avec une marge d'erreur à la reconnaissance de 40%" (exemple arbitraire).

Pour moi, ne pas protester/refuser de faire cela équivaut a avoir une part responsabilité dans les morts civiles faites via TON travail. Tu peux pas te cacher derriere "on m'a dit de le faire c'est pas moi qui décide". Trop facile.
3  0 
Avatar de Matthieu76
Membre éclairé https://www.developpez.com
Le 22/05/2018 à 11:05
Non, l'IA de Google ne doit pas être au service de la guerre !
Au faite, je trouve le titre de cette article un peu trop subjectif. Et j'ai l'impression que c'est le cas pour beaucoup d'article de Developpez.com
2  0 
Avatar de Julien Bodin
Membre éclairé https://www.developpez.com
Le 23/05/2018 à 17:35
Allez, mvn clean
2  0