IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

IA : un guide éthique en développement chez Google
Pour répondre aux protestations contre la participation de l'entreprise à un projet du Pentagone

Le , par Patrick Ruiz

662PARTAGES

8  1 
Le feuilleton qui met en scène Google, le département de la Défense des États-Unis et les employés de la firme de Mountain View se poursuit. Le New York Times a pu mettre la main sur des courriels internes relatifs à ce dernier. Il y a du nouveau en ce qui concerne la participation de l’entreprise à des projets en IA pour le compte des militaires. La firme travaille à la rédaction d’un guide éthique …

En mars, l’entreprise a confirmé qu’elle permet au Pentagone d’exploiter ses technologies de reconnaissance d’image dans le cadre du projet Maven piloté par le Pentagone. En réalité, le public est tenu à l’écart de ces développements depuis le mois de septembre 2017 à partir duquel la fuite survient d’abord en interne. Tout part d’un échange par courriel entre deux responsables de l’entreprise au sujet du « dossier brulant » sur le contrat à venir avec le Pentagone. Depuis, le mail a circulé et a débouché sur une protestation à grande échelle. 3100 employés (minimum) de la firme ont manifesté leur soutien pour son retrait de ce projet dénommé Maven. Y faisant suite, l’Electronic Frontier Foundation (EFF) a, de façon générale, appelé les entreprises de la technologie à s’extirper des collaborations dans le même genre.

« Nous demandons que le projet Maven soit annulé et que Google prépare, publie et instaure des règles qui stipulent que jamais l’entreprise et ses sous-traitants ne participeront à la construction de matériel de guerre », ont lancé les employés à Sundar Pichai.

La voix de ces derniers a, semble-t-il, porté. Le géant technologique a confirmé au New York Times qu’il travaille à l’élaboration de lignes directrices pour son implication dans des projets en intelligence artificielle pour le compte des militaires. L’un des axes du texte est qu’il empêche l’utilisation de l’intelligence artificielle pour la mise au point d’armes autonomes. Le contenu doit être publié en interne de la firme de Mountain View dans les semaines à venir.


La rédaction d’un guide éthique … une tâche aisée pour Google ?

Les mails internes obtenus par le New York Times montrent que l’équipe dirigeante de l’entreprise s’attendait à cette situation. « Évitez à tout prix toute mention de l’intelligence artificielle lorsque vous annoncerez le contrat avec le Pentagone. Le sujet des armes autonomes est probablement l’un des plus sensibles de l’IA – sinon le plus », rapporte le quotidien américain des propos du chief scientist de la plateforme cloud de Google (GCP).

Depuis que le géant technologique a confirmé son implication dans le projet, il s’est défendu en soulignant qu’il a un apport sur les aspects non-offensifs. Du peu qu’on en sait, Google fournit l’API TensorFlow pour améliorer les technologies de reconnaissance d'images utilisées sur les drones. Selon le Pentagone, l'objectif initial est de fournir à l'armée une vision par ordinateur avancée, permettant la détection et l'identification automatique d'objets capturés par la caméra d'un drone : suffisant pour que les voix qui s’élèvent contre la participation de Google entrevoient une utilisation dans le cadre de frappes aériennes ciblées. La limite est mince est mince et la trouver requiert de répondre à toutes les questions connexes de manière à satisfaire toutes les parties ; pas une mince affaire.

Source : NYT

Et vous ?

Qu’en pensez-vous ?

Le texte du guide sera-t-il de nature à satisfaire les deux parties ? Lequel des camps a le plus de chances d’être lésé ?

Voir aussi :

L'intelligence artificielle pourrait mener à la troisième guerre mondiale : un nouvel épisode d'Elon Musk après la déclaration de Vladimir Poutine

L'intelligence artificielle : clé du futur pour dominer sur les nations, d'après le président russe, Vladimir Poutine

Mark Zuckerberg pense que les prédictions d'Elon Musk sur l'IA sont irresponsables, le PDG de Tesla serait-il un peu trop pessimiste ?

Elon Musk appelle les Nations Unies à bannir les robots tueurs dans une lettre ouverte signée par 116 spécialistes de l'IA et la robotique

Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de ManyTwo
Membre du Club https://www.developpez.com
Le 25/06/2018 à 10:56
Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois …
@SofEvans c'est sur dis comme ca cela peut paraitre un peu abusé. Dans un cadre d'entreprises "classiques" ta réaction se comprends facilement, mais on est dans un cadre un peu particulier la quand meme...

Je trouve quand dans certains cas d'éthique il faut avoir le courage de montrer son désaccord. Il est facile après coup de se dire "j'y suis pour rien si mes productions sont utilisées pour tuer des gens, c'est mon patron qu'y m'a demandé".
Si faire certaines taches vont vraiment contre ton éthique, ben ne les fait pas . Quite à démissionner par la suite. La on parle de projets d'IA pour reconnaitre des gens dans un carde militaire, qui finira surement par des assassinats ciblés…

Si ton patron te dit:" écrit un programme pour notre drone qui différencie les civils des combatants et tire automatiquement, avec une marge d'erreur à la reconnaissance de 40%" (exemple arbitraire).

Pour moi, ne pas protester/refuser de faire cela équivaut a avoir une part responsabilité dans les morts civiles faites via TON travail. Tu peux pas te cacher derriere "on m'a dit de le faire c'est pas moi qui décide". Trop facile.
3  0 
Avatar de Calmacil
Membre régulier https://www.developpez.com
Le 22/06/2018 à 12:44
Un gâteau JEDI?

Come to the Dark Side, we have cookies.
2  0 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 26/08/2024 à 8:15
C'est facile "d'être contre" c'est plus difficile d'assumer sa décision face à l'ennemi qui lui a développé ces armes.
2  0 
Avatar de tmcuh
Membre habitué https://www.developpez.com
Le 04/06/2018 à 9:06
Aidez-nous à ne pas tuer trop de gens... la blague.
Bravo à Google d'avoir osé sortir de cette m***** .
Il faut avoir peu d'éthique pour développer ce genre de programme dans tous les cas, sans doute l'avidité ou l'égo qui entre en jeu.

De l'autre vous aurez la Chine et la Russie qui n'hésiteront pas une seconde à développer et vendre la technologie à d'autres qui n'auront eu aucune éthique.

Donc In Fine, le développement devra avoir lieu tant que l'organisme (qui sert à rien dans ce monde, en l'état) qui s'appel les Nations Unis n'aura pas mis les "Ola" sur ce genre de technologie folle qui nous pousse à toujours plus de pressions, de guerre, de pauvreté, de déséquilibre ... qui est d'ailleurs nullement lié au capitalisme, mais un manque de gouvernance mondiale.

C'est juste une pierre jetté dans la mare, ça ne fait que retarder les USA, ça ne l'arrêtera pas. Et je pense d'ailleurs que si elle faisait voter à l'U.N. une motion de non proliférations de l'IA a des fins militaires , on avancerait grandement, mais comme la Russie mettra sa motion de censure comme toujours... suite au prochain épisode
3  2 
Avatar de frenchlover2
Membre régulier https://www.developpez.com
Le 09/06/2018 à 20:04
Ce sera dommage laissant la chance au robots s'il sont meilleurs que nous alors il merite de prendre la relève n'est ce pas l'une des lois de la nature qui laisse l'avantage au espèces qui dominent
1  0 
Avatar de SofEvans
Membre émérite https://www.developpez.com
Le 22/06/2018 à 17:03
Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois ...
Je ne sais pas qui sont ces 9 personnes, mais elles ont intérêts a être relativement importantes pour Google, parce que là c'est assez hallucinant quand même.
2  1 
Avatar de oooopppp
Membre actif https://www.developpez.com
Le 03/06/2018 à 18:34
Et bien voilà ! C'est si compliqué de ne pas faire partie de l'empire du mal ...
0  0 
Avatar de
https://www.developpez.com
Le 08/06/2018 à 13:51
C'est les récentes " découvertes " au sujet des voitures autonomes qui ont voulu cela ?
Surtout que pour l'armée, il faut bien identifier l'objet avant d'agir, sinon, il y aura vraiment beaucoup de " victimes collatérales ".

Stratégiquement, certain ferait même un canon fictif pour forcer à paraitre découvert les forces qui leurs veulent du mal... (probabilités / statistiques)
Citation Envoyé par Coriolan Voir le message
Pensez-vous que la firme a déraillé de son slogan informel "Don't be evil" ?

Culturellement et religieuement, le "diable" est celui qui fait régner le mal et/ou qui puni ceux envoyer vers lui.
Ex: Hadès ou " les gardiens des enfers ". Pratiquement une boite de pandore.
L'enfers est comparable d'une certaine sorte à une prison où l'on ferait subir des sévis et où le directeur serait le diable, intellectuellement et culturellement parlant.

Religieusement, le diable y a été envoyer et y règne vue que c'est une zone de non droits pour les autres. Il peut ainsi faire tout ce qu'il souhaite et comme c'est lui le plus fort à cette endroit, il a le champs libre.
0  0 
Avatar de
https://www.developpez.com
Le 10/06/2018 à 10:53
Effectivement, vue de cette façon c'est pas l'armée qui apporte le " mieux vivre ". Pour peu que l'humain arrive à déterminer ce que c'est.

P.S. : j'y vois pas la même chose que les deux IA. Et même d'une personne à l'autre cela peut-être interprété différemment alors qu'il aurait passé leur vie ensemble sans jamais s'être quitté. (ex : bicéphale)
0  0 
Avatar de tmcuh
Membre habitué https://www.developpez.com
Le 05/02/2019 à 13:09
Idée intéressante d'utiliser des petites mains pour faire avancer la reconnaissance d'objets... parler d'intelligence serait quand même un gros mot qui fait toujours débat.

Dommage que Google ne veut pas prendre parti à celà car je pense qu'il a beaucoup à y gagner tant sur le plan technologique, que de reconnaissance "The Brand".
Ce qui est rigolo c'est que les chinois n'ont aucune éthique de ce genre et donc seront les plus avancés d'ici peu et c'est là que les choses sérieuse commenceront
0  0