Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Annulation du contrat IA entre Google et le DoD : quel est le déclencheur ?
Un « groupe de 9 » ingénieurs pour faire la loi à Mountain View ?

Le , par Patrick Ruiz

190PARTAGES

12  0 
Entre les mois de mars et de juin de cette année, on est parti de Google aide le Pentagone à développer une IA pour analyser les vidéos capturées par drone à Google ne renouvellera pas son contrat avec le DoD dans le projet controversé Maven. À ceux qui ont manqué les multiples épisodes entre les deux mentionnés, on rappelle de façon brossée qu’il a fallu la mobilisation de plus de 3000 employés du géant technologique et d’organisations de protections des libertés sur Internet comme l’Electronic Frontier Foundation pour en arriver là.

Il n’y a pas de fumée sans feu, dit-on souvent. Alors, qu’est-ce qui a déclenché cette mobilisation qui a conduit Google à arrêter de collaborer avec le Pentagone dans le cadre de ce projet en intelligence artificielle dénommé Maven ? Réponse rapide : un groupe d’ingénieurs ou si vous préférez, le « groupe de 9. »

L’agence de presse Bloomberg rapporte en effet que plus tôt cette année, ce « groupe influent » d’ingénieurs du génie logiciel a été chargé d’implémenter un air gap – une espèce de cordon de sécurité autour de systèmes informatiques censés héberger des données sensibles. La manœuvre devait permettre à Google de passer le cap de la certification de son infrastructure informatique par le DoD et donc de se voir octroyer des contrats du genre dont on ne parle que dans des chambres noires. Seulement, pour le groupe de 9, une collaboration avec le Pentagone laissait entrevoir une utilisation de la technologie pour la guerre, ce contre quoi il a tenu à manifester son désaccord en refusant de procéder à la mise en œuvre de l’air gap. La suite, on la connaît avec l’effet boule de neige du vent de protestations.


Sans air gap, il devient difficile d’empoigner des portions du gâteau JEDI

De là à dire que le « groupe de 9 » fait la loi à Mountain View ? Ce serait peut-être un peu exagéré, mais le résultat est là : plus de projet Maven. En sus, il y a que sans air gap, le programme JEDI – un contrat de 10 milliards de dollars sur dix ans et pour lequel Google a manifesté un intérêt – s’éloigne. Bloomberg rapporte qu’Amazon et Microsoft disposent de cette certification qui fait tant défaut à Google, ce qui les place en pôle position pour se disputer des morceaux de ce gâteau.

Des membres de l’équipe dirigeante de l’entreprise comme Diane Greene – CEO de Google cloud – sont d’avis qu’elle doit continuer à collaborer avec les agences gouvernementales. « Les agences fédérales comptent parmi les plus gros investisseurs sur les solutions d’entreprise et commencent à graviter autour des services offerts sur le cloud », écrit Bloomberg pour aider à comprendre les raisons d’un tel positionnement. L’agence de presse rapporte que Google a mis une pause sur l’implémentation de l’air gap, mais la situation peut changer à tout moment le temps de trouver de nouvelles mains capables de faire le travail. Ce ne serait pas nouveau sous le ciel dans un contexte où les entreprises de la Tech sont acculées de toutes parts comme l’est Google, mais où l’on trouve certaines comme Amazon qui fournissent des solutions controversées aux forces de défense américaines.

Source : Bloomberg

Et vous ?

Qu’en pensez-vous ? Ces entreprises de la Tech ont-elles vraiment le choix quand on sait que si elles ne se positionnent pas sur de tels créneaux quelqu’un d’autre le fera ?

Que pensez-vous de ces ingénieurs qui refusent de participer à la conception d’armes sophistiquées ?

Voir aussi :

USA : des associations s'érigent contre la technologie de reconnaissance faciale d'Amazon craignant une surveillance de masse par la police

La police chinoise s'équipe de lunettes dotées d'une technologie de reconnaissance faciale, pour scanner les foules à la recherche de suspects

Chine : la police se sert de la reconnaissance faciale pour arrêter un fugitif, la fiction Big Brother de 1984 est-elle devenue une réalité en 2018 ?

Big data : la Chine a commencé à tester son système national de crédit social et menace de priver les citoyens mal notés de certains services de base

Facebook veut utiliser la reconnaissance faciale pour vous prévenir, lorsque quelqu'un publie une photo de vous sur sa plateforme

Mozilla publie une solution d'apprentissage profond pour la reconnaissance vocale, une implémentation TensorFlow de l'architecture Deep Speech

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de ManyTwo
Membre du Club https://www.developpez.com
Le 25/06/2018 à 10:56
Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois …
@SofEvans c'est sur dis comme ca cela peut paraitre un peu abusé. Dans un cadre d'entreprises "classiques" ta réaction se comprends facilement, mais on est dans un cadre un peu particulier la quand meme...

Je trouve quand dans certains cas d'éthique il faut avoir le courage de montrer son désaccord. Il est facile après coup de se dire "j'y suis pour rien si mes productions sont utilisées pour tuer des gens, c'est mon patron qu'y m'a demandé".
Si faire certaines taches vont vraiment contre ton éthique, ben ne les fait pas . Quite à démissionner par la suite. La on parle de projets d'IA pour reconnaitre des gens dans un carde militaire, qui finira surement par des assassinats ciblés…

Si ton patron te dit:" écrit un programme pour notre drone qui différencie les civils des combatants et tire automatiquement, avec une marge d'erreur à la reconnaissance de 40%" (exemple arbitraire).

Pour moi, ne pas protester/refuser de faire cela équivaut a avoir une part responsabilité dans les morts civiles faites via TON travail. Tu peux pas te cacher derriere "on m'a dit de le faire c'est pas moi qui décide". Trop facile.
3  0 
Avatar de Calmacil
Membre régulier https://www.developpez.com
Le 22/06/2018 à 12:44
Un gâteau JEDI?

Come to the Dark Side, we have cookies.
2  0 
Avatar de SofEvans
Membre chevronné https://www.developpez.com
Le 22/06/2018 à 17:03
Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois ...
Je ne sais pas qui sont ces 9 personnes, mais elles ont intérêts a être relativement importantes pour Google, parce que là c'est assez hallucinant quand même.
2  2 
Avatar de tmcuh
Membre régulier https://www.developpez.com
Le 05/02/2019 à 13:09
Idée intéressante d'utiliser des petites mains pour faire avancer la reconnaissance d'objets... parler d'intelligence serait quand même un gros mot qui fait toujours débat.

Dommage que Google ne veut pas prendre parti à celà car je pense qu'il a beaucoup à y gagner tant sur le plan technologique, que de reconnaissance "The Brand".
Ce qui est rigolo c'est que les chinois n'ont aucune éthique de ce genre et donc seront les plus avancés d'ici peu et c'est là que les choses sérieuse commenceront
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/02/2019 à 13:52
Citation Envoyé par tmcuh Voir le message
Idée intéressante d'utiliser des petites mains pour faire avancer la reconnaissance d'objets...
Perso ça me fait penser aux clodos utilisé par Aperture Science dans Portal 2.
Test Subject
According to GLaDOS, Aperture Science's annual bring-your-daughter-to-work day "is the perfect time to have [one's daughter] tested", suggesting Test Subjects are (at least partially) chosen among daughters of Aperture employees. Other popular Aperture Science Test Subject gathering methods include paying homeless people insignificant wages, forcing employees to participate in tests, picking up orphans from orphanages or transferring psychiatric patients from Aperture-branded mental institutions. Compared to early testing phases, when Aperture seems to have hired the best of the best (such as "astronauts" "war heroes" and "olympians", Aperture later shows both increasing issues with test subject quality and apparent investigations into the whereabouts of failed test subjects.
Parfois on retrouve de la science-fiction dystopique dans la réalité.

Citation Envoyé par tmcuh Voir le message
Dommage que Google ne veut pas prendre parti à celà
Google était très content de collaborer avec le gouvernement (ça devait être bien payé), mais quelques employés ont protesté, démissionné, et tout ça, du coup Google a fait marche arrière. (c'est possible que le programme continu en secret, c'est juste que l'image publique de Google était grillé, alors il fallait essayer de redorer le blason).

Citation Envoyé par tmcuh Voir le message
Ce qui est rigolo c'est que les chinois n'ont aucune éthique de ce genre et donc seront les plus avancés d'ici peu et c'est là que les choses sérieuse commenceront
Ouais il parait que l'IA va jouer un grand rôle dans la prochaine guerre mondiale qui arrive.

Citation Envoyé par Stéphane le calme Voir le message
Le projet Maven, avec l'aide des travailleurs de la gig economy, a été conçu pour permettre aux responsables du Pentagone de procéder à une « analyse en temps quasi réel » et de « cliquer sur un bâtiment pour voir tout ce qui lui est associé », y compris des personnes et des véhicules, selon des documents obtenus par The Intercept.
Ça me fait peur un tel niveau de surveillance. Officiellement ils vont dire que c'est pour lutter contre le terrorisme, ou ce genre de connerie, mais en pratique ce sera peut-être autre chose.
0  0 
Avatar de Matthieu76
Membre éclairé https://www.developpez.com
Le 25/06/2018 à 14:07
Citation Envoyé par ManyTwo Voir le message
Si ton patron te dit:" écrit un programme pour notre drone qui différencie les civils des combatants et tire automatiquement, avec une marge d'erreur à la reconnaissance de 40%" (exemple arbitraire).
Si l'erreur humain est de 45% je pense que c'est intéressant de développer ce drone.

PS : En vrai on est plus proche des 1% que des 40%.
0  2