IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le projet d'IA de Google et le Pentagone était « directement lié » à un contrat de cloud de plusieurs milliards de dollars
D'après une fuite d'emails

Le , par Michael Guilloux

386PARTAGES

9  0 
Début mars, il a été porté à la connaissance du public que Google travaillait secrètement avec le Pentagone sur Maven, qui fait référence à un projet d'intelligence artificielle à des fins militaires. Il s'agit en effet d'un projet qui vise à améliorer les opérations de drones en utilisant des technologies de reconnaissance d'images. Selon le Pentagone, l'objectif initial de Maven était de fournir à l'armée une vision par ordinateur avancée, permettant la détection et l'identification automatique d'objets, dans pas moins de 38 catégories, capturés par la caméra d'un drone. Il va par conséquent permettre de suivre à la trace certaines cibles, pour éventuellement mener des frappes.

Google s'est défendu en expliquant que l'entreprise a depuis longtemps travaillé avec des agences du gouvernement américain pour leur fournir des solutions technologiques. Et d'ajouter que son travail sur le projet Maven est « non offensif », car la technologie ne sera pas utilisée pour des frappes ciblées. Les employés de l'entreprise n'ont toutefois pas vu cette situation de la même manière et ont lancé un mouvement de contestation en interne.

Début avril, des milliers d'employés de Google ont signé une lettre pour protester contre l'implication de l'entreprise dans le programme du Pentagone, ce qui pourrait, selon eux, salir de manière irrémédiable l'image de l'entreprise et réduire sa capacité à rivaliser avec les autres géants de la technologie pour attirer les talents. A cela, s'est ajoutée la démission récente d'une douzaine d'employés de Google en signe de protestation.


Trois mois depuis le début de l'affaire, une nouvelle fuite d'emails internes nous révèle que Google avait bien conscience du terrain sur lequel l'entreprise s'aventurait, mais semblait se préoccuper plus de l'opportunité qui se présentait à elle avec le projet Maven. D'après les emails datant de septembre et obtenus par The Intercept, le projet Maven, pour le début, ne semblait pas être un gros contrat : juste une affaire de 25 à 30 millions de dollars selon les emails. Mais au fur et à mesure que le programme allait se développer, Google pourrait empocher jusqu'à 250 millions de dollars par an, expliquait Aileen Black, une des responsables de l'équipe de ventes de Google. Elle affirme en effet que le projet Maven était « directement lié » à un important contrat de cloud computing de plusieurs milliards de dollars et pour lequel les entreprises de la Silicon Valley étaient en compétition. Le contrat concernait « le déplacement agressif du Département américain de la Défense vers le cloud », a-t-elle écrit.

Selon The Intercept, Black faisait référence à la Joint Enterprise Defense Infrastructure (JEDI), un contrat de 10 milliards de dollars sur dix ans et pour lequel Google a manifesté un intérêt. Le programme JEDI a été annoncé le 12 septembre.

D'autres entreprises technologiques telles qu'Amazon étaient en lice, aurait écrit un responsable de Google impliqué dans les négociations. Les emails ont révélé en outre qu'Amazon Web Services, la branche de cloud computing d'Amazon, « a des charges de travail » liées au projet Maven. Google n'avait donc pas intérêt à négliger le projet de drone militaire du Pentagone, mais l'entreprise craignait aussi la réaction du public si sa collaboration avec le Pentagone était divulguée. Google se demandait alors s'il fallait ou non révéler l'accord.

Fei-Fei Li, la chief scientist de la branche IA et machine learning de Google Cloud, a toutefois averti cette affaire donnerait aux médias une occasion de s'acharner sur l'entreprise. « Vous avez probablement entendu Elon Musk et son commentaire selon lequel l'IA provoquerait la troisième guerre mondiale », a-t-elle écrit. « Je ne sais pas ce qui se passerait si les médias commençaient à écrire sur le fait que Google construisait secrètement des armes d'IA ou des technologies IA pour les armes de l'industrie de la Défense », a-t-elle ajouté.

Aileen Black a toutefois essayé de les convaincre dans les discussions internes : « Le contrat n'est pas direct avec Google, mais par le biais d'un partenaire (ECS) et nous avons des conditions qui empêchent les communiqués de presse de se passer sans notre consentement mutuel », a écrit Black. Le département de la Défense « ne dira rien sur Google sans notre approbation », a-t-elle assuré.

Mais cela ne pourrait rester pendant longtemps un secret, et Aileen Black en était consciente. Elle a averti que les nouvelles finiront par être divulguées, par exemple, à travers une requête en vertu du Freedom of Information Act pour obtenir les informations sur le processus de passation de marchés. L'implication de Google dans le projet Maven « finira par sortir », a-t-elle prévenu. Elle a donc jugé qu'il serait approprié pour Google d'annoncer lui-même le contrat, avant que cela soit divulgué d'une autre manière.

L'entreprise n'avait aucun plan de presse pour l'annonce du contrat et a convenu qu'elle devrait travailler pour trouver un « récit » le plus rapidement possible. Mais le projet Maven n'a pas été annoncé publiquement jusqu'à ce que la nouvelle parvienne aux oreilles des médias au mois de mars.

Amazon, qui est cité dans l'affaire, n'a pas répondu à la demande de commentaire de The Intercept. Google Cloud, à travers un porte-parole, a pour sa part rappelé dans un email que la société travaille sur la rédaction de nouveaux principes qui empêchent l'utilisation de l'IA dans l'armement. L'entreprise est toutefois restée silencieuse sur les nouvelles révélations.

Source : The Intercept

Et vous ?

Que pensez-vous de ces nouvelles révélations ?
Croyez-vous que n'importe quelle autre entreprise aurait pris la même décision que Google ?

Voir aussi :

L'intelligence artificielle pourrait mener à la troisième guerre mondiale : un nouvel épisode d'Elon Musk après la déclaration de Vladimir Poutine
L'intelligence artificielle : clé du futur pour dominer sur les nations, d'après le président russe, Vladimir Poutine
Mark Zuckerberg pense que les prédictions d'Elon Musk sur l'IA sont irresponsables, le PDG de Tesla serait-il un peu trop pessimiste ?
Elon Musk appelle les Nations Unies à bannir les robots tueurs dans une lettre ouverte signée par 116 spécialistes de l'IA et la robotique
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de ManyTwo
Membre du Club https://www.developpez.com
Le 25/06/2018 à 10:56
Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois …
@SofEvans c'est sur dis comme ca cela peut paraitre un peu abusé. Dans un cadre d'entreprises "classiques" ta réaction se comprends facilement, mais on est dans un cadre un peu particulier la quand meme...

Je trouve quand dans certains cas d'éthique il faut avoir le courage de montrer son désaccord. Il est facile après coup de se dire "j'y suis pour rien si mes productions sont utilisées pour tuer des gens, c'est mon patron qu'y m'a demandé".
Si faire certaines taches vont vraiment contre ton éthique, ben ne les fait pas . Quite à démissionner par la suite. La on parle de projets d'IA pour reconnaitre des gens dans un carde militaire, qui finira surement par des assassinats ciblés…

Si ton patron te dit:" écrit un programme pour notre drone qui différencie les civils des combatants et tire automatiquement, avec une marge d'erreur à la reconnaissance de 40%" (exemple arbitraire).

Pour moi, ne pas protester/refuser de faire cela équivaut a avoir une part responsabilité dans les morts civiles faites via TON travail. Tu peux pas te cacher derriere "on m'a dit de le faire c'est pas moi qui décide". Trop facile.
3  0 
Avatar de Calmacil
Membre régulier https://www.developpez.com
Le 22/06/2018 à 12:44
Un gâteau JEDI?

Come to the Dark Side, we have cookies.
2  0 
Avatar de tmcuh
Membre habitué https://www.developpez.com
Le 04/06/2018 à 9:06
Aidez-nous à ne pas tuer trop de gens... la blague.
Bravo à Google d'avoir osé sortir de cette m***** .
Il faut avoir peu d'éthique pour développer ce genre de programme dans tous les cas, sans doute l'avidité ou l'égo qui entre en jeu.

De l'autre vous aurez la Chine et la Russie qui n'hésiteront pas une seconde à développer et vendre la technologie à d'autres qui n'auront eu aucune éthique.

Donc In Fine, le développement devra avoir lieu tant que l'organisme (qui sert à rien dans ce monde, en l'état) qui s'appel les Nations Unis n'aura pas mis les "Ola" sur ce genre de technologie folle qui nous pousse à toujours plus de pressions, de guerre, de pauvreté, de déséquilibre ... qui est d'ailleurs nullement lié au capitalisme, mais un manque de gouvernance mondiale.

C'est juste une pierre jetté dans la mare, ça ne fait que retarder les USA, ça ne l'arrêtera pas. Et je pense d'ailleurs que si elle faisait voter à l'U.N. une motion de non proliférations de l'IA a des fins militaires , on avancerait grandement, mais comme la Russie mettra sa motion de censure comme toujours... suite au prochain épisode
3  2 
Avatar de frenchlover2
Membre régulier https://www.developpez.com
Le 09/06/2018 à 20:04
Ce sera dommage laissant la chance au robots s'il sont meilleurs que nous alors il merite de prendre la relève n'est ce pas l'une des lois de la nature qui laisse l'avantage au espèces qui dominent
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 17/11/2020 à 14:29
Citation Envoyé par Bill Fassinou Voir le message
Selon le média allemand Deutsche Welle (DW), en tout, 30 pays souhaitent une interdiction totale de l'utilisation des robots tueurs dans le cadre de cette campagne, ainsi que le Parlement européen. Par ailleurs, en mars 2019, plusieurs militants de 35 pays s’étaient réunis à Berlin pour demander l'interdiction des armes autonomes meurtrières. Ces militants engagés contre l’utilisation des armes autonomes veulent attirer l’attention des pays non encore engagés et surtout l’Allemagne dans la perspective de nouvelles négociations sur ces armes à Genève.
Ce serait chouette qu'on interdise aux états d'utiliser des robots contre leur peuple, par contre quand c'est la guerre il n'y a plus de règle.

ONU. Soixante-dix ans après les Conventions de Genève, les violations du droit international humanitaire qui ravagent la vie des civils en temps de guerre illustrent un échec catastrophique
En Somalie, la crise des droits humains et humanitaire reste également l’une des plus graves au monde. Toutes les parties au conflit, et notamment les États-Unis, ont commis des violations du droit international relatif aux droits humains et du droit international humanitaire. Bien qu’ayant intensifié les frappes aériennes dans leur guerre opaque en Somalie ces deux dernières années, les États-Unis ont refusé d’admettre que leurs frappes avaient fait des victimes parmi les civils jusqu’à ce qu’une enquête d’Amnesty International les y force.

Israël a, à de nombreuses reprises, pris pour cible des civils et des biens de caractère civil lors d’opérations militaires à Gaza depuis 2008, causant une destruction de grande ampleur et faisant de nombreux morts parmi les civils. Entre mars 2018 et mars 2019, Israël a eu recours à une force meurtrière contre des manifestants palestiniens, faisant au moins 195 morts, dont des secouristes, des journalistes et des enfants. Des groupes armés palestiniens ont procédé à des tirs aveugles de roquettes en direction de quartiers civils d’Israël, faisant plusieurs morts.
Les pays peuvent signer toutes les conventions que vous voulez, les puissances militaire comme les USA et Israël continueront de développer des armes en secret. Quoi que parfois les pays sortent d'un traité officiellement :
Traité sur les forces nucléaires à portée intermédiaire
Depuis 2007, Vladimir Poutine le met en cause à plusieurs reprises comme desservant les intérêts de la Russie face au développement de missiles par la Chine et au déploiement de systèmes de défense antimissile par les États-Unis. En octobre 2018, Donald Trump annonce son intention de retirer les États-Unis de ce traité. Les négociations menées avec la Russie ne débouchant sur aucun accord, Washington confirme formellement le 1er février 2019 que les États-Unis suspendent leurs obligations en vertu du traité FNI et entament le processus de retrait du traité FNI d'une durée de six mois. Moscou réplique le lendemain en annonçant à son tour se retirer de ce traité. Le retrait américain est officiel le 2 août 2019.
Il est probable que les armes autonomes jouent un rôle lors de la prochaine guerre mondiale. Les gouvernements investissent beaucoup dans l'IA militaire.
L’armée américaine investit 2 milliards de dollars dans l’intelligence artificielle
La Darpa, prestigieuse agence de recherche de l’armée, veut développer des machines qui seront « comme des collègues » pour les militaires.
IA et informatique quantique : les Etats-Unis posent 1 milliard $ sur la table
Les États-Unis annoncent un investissement d’un milliard de dollars dans l’intelligence artificielle et l’informatique quantique. L’objectif ? Rester leader technologique, devant la Chine, notamment dans le domaine militaire…
1  0 
Avatar de oooopppp
Membre habitué https://www.developpez.com
Le 03/06/2018 à 18:34
Et bien voilà ! C'est si compliqué de ne pas faire partie de l'empire du mal ...
0  0 
Avatar de
https://www.developpez.com
Le 08/06/2018 à 13:51
C'est les récentes " découvertes " au sujet des voitures autonomes qui ont voulu cela ?
Surtout que pour l'armée, il faut bien identifier l'objet avant d'agir, sinon, il y aura vraiment beaucoup de " victimes collatérales ".

Stratégiquement, certain ferait même un canon fictif pour forcer à paraitre découvert les forces qui leurs veulent du mal... (probabilités / statistiques)
Citation Envoyé par Coriolan Voir le message
Pensez-vous que la firme a déraillé de son slogan informel "Don't be evil" ?

Culturellement et religieuement, le "diable" est celui qui fait régner le mal et/ou qui puni ceux envoyer vers lui.
Ex: Hadès ou " les gardiens des enfers ". Pratiquement une boite de pandore.
L'enfers est comparable d'une certaine sorte à une prison où l'on ferait subir des sévis et où le directeur serait le diable, intellectuellement et culturellement parlant.

Religieusement, le diable y a été envoyer et y règne vue que c'est une zone de non droits pour les autres. Il peut ainsi faire tout ce qu'il souhaite et comme c'est lui le plus fort à cette endroit, il a le champs libre.
0  0 
Avatar de
https://www.developpez.com
Le 10/06/2018 à 10:53
Effectivement, vue de cette façon c'est pas l'armée qui apporte le " mieux vivre ". Pour peu que l'humain arrive à déterminer ce que c'est.

P.S. : j'y vois pas la même chose que les deux IA. Et même d'une personne à l'autre cela peut-être interprété différemment alors qu'il aurait passé leur vie ensemble sans jamais s'être quitté. (ex : bicéphale)
0  0 
Avatar de SofEvans
Membre chevronné https://www.developpez.com
Le 22/06/2018 à 17:03
Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois ...
Je ne sais pas qui sont ces 9 personnes, mais elles ont intérêts a être relativement importantes pour Google, parce que là c'est assez hallucinant quand même.
2  2 
Avatar de tmcuh
Membre habitué https://www.developpez.com
Le 05/02/2019 à 13:09
Idée intéressante d'utiliser des petites mains pour faire avancer la reconnaissance d'objets... parler d'intelligence serait quand même un gros mot qui fait toujours débat.

Dommage que Google ne veut pas prendre parti à celà car je pense qu'il a beaucoup à y gagner tant sur le plan technologique, que de reconnaissance "The Brand".
Ce qui est rigolo c'est que les chinois n'ont aucune éthique de ce genre et donc seront les plus avancés d'ici peu et c'est là que les choses sérieuse commenceront
0  0