Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le projet d'IA de Google et le Pentagone était « directement lié » à un contrat de cloud de plusieurs milliards de dollars
D'après une fuite d'emails

Le , par Michael Guilloux

183PARTAGES

9  0 
Début mars, il a été porté à la connaissance du public que Google travaillait secrètement avec le Pentagone sur Maven, qui fait référence à un projet d'intelligence artificielle à des fins militaires. Il s'agit en effet d'un projet qui vise à améliorer les opérations de drones en utilisant des technologies de reconnaissance d'images. Selon le Pentagone, l'objectif initial de Maven était de fournir à l'armée une vision par ordinateur avancée, permettant la détection et l'identification automatique d'objets, dans pas moins de 38 catégories, capturés par la caméra d'un drone. Il va par conséquent permettre de suivre à la trace certaines cibles, pour éventuellement mener des frappes.

Google s'est défendu en expliquant que l'entreprise a depuis longtemps travaillé avec des agences du gouvernement américain pour leur fournir des solutions technologiques. Et d'ajouter que son travail sur le projet Maven est « non offensif », car la technologie ne sera pas utilisée pour des frappes ciblées. Les employés de l'entreprise n'ont toutefois pas vu cette situation de la même manière et ont lancé un mouvement de contestation en interne.

Début avril, des milliers d'employés de Google ont signé une lettre pour protester contre l'implication de l'entreprise dans le programme du Pentagone, ce qui pourrait, selon eux, salir de manière irrémédiable l'image de l'entreprise et réduire sa capacité à rivaliser avec les autres géants de la technologie pour attirer les talents. A cela, s'est ajoutée la démission récente d'une douzaine d'employés de Google en signe de protestation.


Trois mois depuis le début de l'affaire, une nouvelle fuite d'emails internes nous révèle que Google avait bien conscience du terrain sur lequel l'entreprise s'aventurait, mais semblait se préoccuper plus de l'opportunité qui se présentait à elle avec le projet Maven. D'après les emails datant de septembre et obtenus par The Intercept, le projet Maven, pour le début, ne semblait pas être un gros contrat : juste une affaire de 25 à 30 millions de dollars selon les emails. Mais au fur et à mesure que le programme allait se développer, Google pourrait empocher jusqu'à 250 millions de dollars par an, expliquait Aileen Black, une des responsables de l'équipe de ventes de Google. Elle affirme en effet que le projet Maven était « directement lié » à un important contrat de cloud computing de plusieurs milliards de dollars et pour lequel les entreprises de la Silicon Valley étaient en compétition. Le contrat concernait « le déplacement agressif du Département américain de la Défense vers le cloud », a-t-elle écrit.

Selon The Intercept, Black faisait référence à la Joint Enterprise Defense Infrastructure (JEDI), un contrat de 10 milliards de dollars sur dix ans et pour lequel Google a manifesté un intérêt. Le programme JEDI a été annoncé le 12 septembre.

D'autres entreprises technologiques telles qu'Amazon étaient en lice, aurait écrit un responsable de Google impliqué dans les négociations. Les emails ont révélé en outre qu'Amazon Web Services, la branche de cloud computing d'Amazon, « a des charges de travail » liées au projet Maven. Google n'avait donc pas intérêt à négliger le projet de drone militaire du Pentagone, mais l'entreprise craignait aussi la réaction du public si sa collaboration avec le Pentagone était divulguée. Google se demandait alors s'il fallait ou non révéler l'accord.

Fei-Fei Li, la chief scientist de la branche IA et machine learning de Google Cloud, a toutefois averti cette affaire donnerait aux médias une occasion de s'acharner sur l'entreprise. « Vous avez probablement entendu Elon Musk et son commentaire selon lequel l'IA provoquerait la troisième guerre mondiale », a-t-elle écrit. « Je ne sais pas ce qui se passerait si les médias commençaient à écrire sur le fait que Google construisait secrètement des armes d'IA ou des technologies IA pour les armes de l'industrie de la Défense », a-t-elle ajouté.

Aileen Black a toutefois essayé de les convaincre dans les discussions internes : « Le contrat n'est pas direct avec Google, mais par le biais d'un partenaire (ECS) et nous avons des conditions qui empêchent les communiqués de presse de se passer sans notre consentement mutuel », a écrit Black. Le département de la Défense « ne dira rien sur Google sans notre approbation », a-t-elle assuré.

Mais cela ne pourrait rester pendant longtemps un secret, et Aileen Black en était consciente. Elle a averti que les nouvelles finiront par être divulguées, par exemple, à travers une requête en vertu du Freedom of Information Act pour obtenir les informations sur le processus de passation de marchés. L'implication de Google dans le projet Maven « finira par sortir », a-t-elle prévenu. Elle a donc jugé qu'il serait approprié pour Google d'annoncer lui-même le contrat, avant que cela soit divulgué d'une autre manière.

L'entreprise n'avait aucun plan de presse pour l'annonce du contrat et a convenu qu'elle devrait travailler pour trouver un « récit » le plus rapidement possible. Mais le projet Maven n'a pas été annoncé publiquement jusqu'à ce que la nouvelle parvienne aux oreilles des médias au mois de mars.

Amazon, qui est cité dans l'affaire, n'a pas répondu à la demande de commentaire de The Intercept. Google Cloud, à travers un porte-parole, a pour sa part rappelé dans un email que la société travaille sur la rédaction de nouveaux principes qui empêchent l'utilisation de l'IA dans l'armement. L'entreprise est toutefois restée silencieuse sur les nouvelles révélations.

Source : The Intercept

Et vous ?

Que pensez-vous de ces nouvelles révélations ?
Croyez-vous que n'importe quelle autre entreprise aurait pris la même décision que Google ?

Voir aussi :

L'intelligence artificielle pourrait mener à la troisième guerre mondiale : un nouvel épisode d'Elon Musk après la déclaration de Vladimir Poutine
L'intelligence artificielle : clé du futur pour dominer sur les nations, d'après le président russe, Vladimir Poutine
Mark Zuckerberg pense que les prédictions d'Elon Musk sur l'IA sont irresponsables, le PDG de Tesla serait-il un peu trop pessimiste ?
Elon Musk appelle les Nations Unies à bannir les robots tueurs dans une lettre ouverte signée par 116 spécialistes de l'IA et la robotique
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de ManyTwo
Membre du Club https://www.developpez.com
Le 25/06/2018 à 10:56
Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois …
@SofEvans c'est sur dis comme ca cela peut paraitre un peu abusé. Dans un cadre d'entreprises "classiques" ta réaction se comprends facilement, mais on est dans un cadre un peu particulier la quand meme...

Je trouve quand dans certains cas d'éthique il faut avoir le courage de montrer son désaccord. Il est facile après coup de se dire "j'y suis pour rien si mes productions sont utilisées pour tuer des gens, c'est mon patron qu'y m'a demandé".
Si faire certaines taches vont vraiment contre ton éthique, ben ne les fait pas . Quite à démissionner par la suite. La on parle de projets d'IA pour reconnaitre des gens dans un carde militaire, qui finira surement par des assassinats ciblés…

Si ton patron te dit:" écrit un programme pour notre drone qui différencie les civils des combatants et tire automatiquement, avec une marge d'erreur à la reconnaissance de 40%" (exemple arbitraire).

Pour moi, ne pas protester/refuser de faire cela équivaut a avoir une part responsabilité dans les morts civiles faites via TON travail. Tu peux pas te cacher derriere "on m'a dit de le faire c'est pas moi qui décide". Trop facile.
3  0 
Avatar de Calmacil
Membre régulier https://www.developpez.com
Le 22/06/2018 à 12:44
Un gâteau JEDI?

Come to the Dark Side, we have cookies.
2  0 
Avatar de tmcuh
Membre régulier https://www.developpez.com
Le 04/06/2018 à 9:06
Aidez-nous à ne pas tuer trop de gens... la blague.
Bravo à Google d'avoir osé sortir de cette m***** .
Il faut avoir peu d'éthique pour développer ce genre de programme dans tous les cas, sans doute l'avidité ou l'égo qui entre en jeu.

De l'autre vous aurez la Chine et la Russie qui n'hésiteront pas une seconde à développer et vendre la technologie à d'autres qui n'auront eu aucune éthique.

Donc In Fine, le développement devra avoir lieu tant que l'organisme (qui sert à rien dans ce monde, en l'état) qui s'appel les Nations Unis n'aura pas mis les "Ola" sur ce genre de technologie folle qui nous pousse à toujours plus de pressions, de guerre, de pauvreté, de déséquilibre ... qui est d'ailleurs nullement lié au capitalisme, mais un manque de gouvernance mondiale.

C'est juste une pierre jetté dans la mare, ça ne fait que retarder les USA, ça ne l'arrêtera pas. Et je pense d'ailleurs que si elle faisait voter à l'U.N. une motion de non proliférations de l'IA a des fins militaires , on avancerait grandement, mais comme la Russie mettra sa motion de censure comme toujours... suite au prochain épisode
3  2 
Avatar de frenchlover2
Membre du Club https://www.developpez.com
Le 09/06/2018 à 20:04
Ce sera dommage laissant la chance au robots s'il sont meilleurs que nous alors il merite de prendre la relève n'est ce pas l'une des lois de la nature qui laisse l'avantage au espèces qui dominent
1  0 
Avatar de oooopppp
Membre habitué https://www.developpez.com
Le 03/06/2018 à 18:34
Et bien voilà ! C'est si compliqué de ne pas faire partie de l'empire du mal ...
0  0 
Avatar de
https://www.developpez.com
Le 08/06/2018 à 13:51
C'est les récentes " découvertes " au sujet des voitures autonomes qui ont voulu cela ?
Surtout que pour l'armée, il faut bien identifier l'objet avant d'agir, sinon, il y aura vraiment beaucoup de " victimes collatérales ".

Stratégiquement, certain ferait même un canon fictif pour forcer à paraitre découvert les forces qui leurs veulent du mal... (probabilités / statistiques)
Citation Envoyé par Coriolan Voir le message
Pensez-vous que la firme a déraillé de son slogan informel "Don't be evil" ?

Culturellement et religieuement, le "diable" est celui qui fait régner le mal et/ou qui puni ceux envoyer vers lui.
Ex: Hadès ou " les gardiens des enfers ". Pratiquement une boite de pandore.
L'enfers est comparable d'une certaine sorte à une prison où l'on ferait subir des sévis et où le directeur serait le diable, intellectuellement et culturellement parlant.

Religieusement, le diable y a été envoyer et y règne vue que c'est une zone de non droits pour les autres. Il peut ainsi faire tout ce qu'il souhaite et comme c'est lui le plus fort à cette endroit, il a le champs libre.
0  0 
Avatar de
https://www.developpez.com
Le 10/06/2018 à 10:53
Effectivement, vue de cette façon c'est pas l'armée qui apporte le " mieux vivre ". Pour peu que l'humain arrive à déterminer ce que c'est.

P.S. : j'y vois pas la même chose que les deux IA. Et même d'une personne à l'autre cela peut-être interprété différemment alors qu'il aurait passé leur vie ensemble sans jamais s'être quitté. (ex : bicéphale)
0  0 
Avatar de SofEvans
Membre chevronné https://www.developpez.com
Le 22/06/2018 à 17:03
Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois ...
Je ne sais pas qui sont ces 9 personnes, mais elles ont intérêts a être relativement importantes pour Google, parce que là c'est assez hallucinant quand même.
2  2 
Avatar de tmcuh
Membre régulier https://www.developpez.com
Le 05/02/2019 à 13:09
Idée intéressante d'utiliser des petites mains pour faire avancer la reconnaissance d'objets... parler d'intelligence serait quand même un gros mot qui fait toujours débat.

Dommage que Google ne veut pas prendre parti à celà car je pense qu'il a beaucoup à y gagner tant sur le plan technologique, que de reconnaissance "The Brand".
Ce qui est rigolo c'est que les chinois n'ont aucune éthique de ce genre et donc seront les plus avancés d'ici peu et c'est là que les choses sérieuse commenceront
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/02/2019 à 13:52
Citation Envoyé par tmcuh Voir le message
Idée intéressante d'utiliser des petites mains pour faire avancer la reconnaissance d'objets...
Perso ça me fait penser aux clodos utilisé par Aperture Science dans Portal 2.
Test Subject
According to GLaDOS, Aperture Science's annual bring-your-daughter-to-work day "is the perfect time to have [one's daughter] tested", suggesting Test Subjects are (at least partially) chosen among daughters of Aperture employees. Other popular Aperture Science Test Subject gathering methods include paying homeless people insignificant wages, forcing employees to participate in tests, picking up orphans from orphanages or transferring psychiatric patients from Aperture-branded mental institutions. Compared to early testing phases, when Aperture seems to have hired the best of the best (such as "astronauts" "war heroes" and "olympians", Aperture later shows both increasing issues with test subject quality and apparent investigations into the whereabouts of failed test subjects.
Parfois on retrouve de la science-fiction dystopique dans la réalité.

Citation Envoyé par tmcuh Voir le message
Dommage que Google ne veut pas prendre parti à celà
Google était très content de collaborer avec le gouvernement (ça devait être bien payé), mais quelques employés ont protesté, démissionné, et tout ça, du coup Google a fait marche arrière. (c'est possible que le programme continu en secret, c'est juste que l'image publique de Google était grillé, alors il fallait essayer de redorer le blason).

Citation Envoyé par tmcuh Voir le message
Ce qui est rigolo c'est que les chinois n'ont aucune éthique de ce genre et donc seront les plus avancés d'ici peu et c'est là que les choses sérieuse commenceront
Ouais il parait que l'IA va jouer un grand rôle dans la prochaine guerre mondiale qui arrive.

Citation Envoyé par Stéphane le calme Voir le message
Le projet Maven, avec l'aide des travailleurs de la gig economy, a été conçu pour permettre aux responsables du Pentagone de procéder à une « analyse en temps quasi réel » et de « cliquer sur un bâtiment pour voir tout ce qui lui est associé », y compris des personnes et des véhicules, selon des documents obtenus par The Intercept.
Ça me fait peur un tel niveau de surveillance. Officiellement ils vont dire que c'est pour lutter contre le terrorisme, ou ce genre de connerie, mais en pratique ce sera peut-être autre chose.
0  0