IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Annulation du contrat IA entre Google et le DoD : quel est le déclencheur ?
Un « groupe de 9 » ingénieurs pour faire la loi à Mountain View ?

Le , par Patrick Ruiz

676PARTAGES

12  0 
Entre les mois de mars et de juin de cette année, on est parti de Google aide le Pentagone à développer une IA pour analyser les vidéos capturées par drone à Google ne renouvellera pas son contrat avec le DoD dans le projet controversé Maven. À ceux qui ont manqué les multiples épisodes entre les deux mentionnés, on rappelle de façon brossée qu’il a fallu la mobilisation de plus de 3000 employés du géant technologique et d’organisations de protections des libertés sur Internet comme l’Electronic Frontier Foundation pour en arriver là.

Il n’y a pas de fumée sans feu, dit-on souvent. Alors, qu’est-ce qui a déclenché cette mobilisation qui a conduit Google à arrêter de collaborer avec le Pentagone dans le cadre de ce projet en intelligence artificielle dénommé Maven ? Réponse rapide : un groupe d’ingénieurs ou si vous préférez, le « groupe de 9. »

L’agence de presse Bloomberg rapporte en effet que plus tôt cette année, ce « groupe influent » d’ingénieurs du génie logiciel a été chargé d’implémenter un air gap – une espèce de cordon de sécurité autour de systèmes informatiques censés héberger des données sensibles. La manœuvre devait permettre à Google de passer le cap de la certification de son infrastructure informatique par le DoD et donc de se voir octroyer des contrats du genre dont on ne parle que dans des chambres noires. Seulement, pour le groupe de 9, une collaboration avec le Pentagone laissait entrevoir une utilisation de la technologie pour la guerre, ce contre quoi il a tenu à manifester son désaccord en refusant de procéder à la mise en œuvre de l’air gap. La suite, on la connaît avec l’effet boule de neige du vent de protestations.


Sans air gap, il devient difficile d’empoigner des portions du gâteau JEDI

De là à dire que le « groupe de 9 » fait la loi à Mountain View ? Ce serait peut-être un peu exagéré, mais le résultat est là : plus de projet Maven. En sus, il y a que sans air gap, le programme JEDI – un contrat de 10 milliards de dollars sur dix ans et pour lequel Google a manifesté un intérêt – s’éloigne. Bloomberg rapporte qu’Amazon et Microsoft disposent de cette certification qui fait tant défaut à Google, ce qui les place en pôle position pour se disputer des morceaux de ce gâteau.

Des membres de l’équipe dirigeante de l’entreprise comme Diane Greene – CEO de Google cloud – sont d’avis qu’elle doit continuer à collaborer avec les agences gouvernementales. « Les agences fédérales comptent parmi les plus gros investisseurs sur les solutions d’entreprise et commencent à graviter autour des services offerts sur le cloud », écrit Bloomberg pour aider à comprendre les raisons d’un tel positionnement. L’agence de presse rapporte que Google a mis une pause sur l’implémentation de l’air gap, mais la situation peut changer à tout moment le temps de trouver de nouvelles mains capables de faire le travail. Ce ne serait pas nouveau sous le ciel dans un contexte où les entreprises de la Tech sont acculées de toutes parts comme l’est Google, mais où l’on trouve certaines comme Amazon qui fournissent des solutions controversées aux forces de défense américaines.

Source : Bloomberg

Et vous ?

Qu’en pensez-vous ? Ces entreprises de la Tech ont-elles vraiment le choix quand on sait que si elles ne se positionnent pas sur de tels créneaux quelqu’un d’autre le fera ?

Que pensez-vous de ces ingénieurs qui refusent de participer à la conception d’armes sophistiquées ?

Voir aussi :

USA : des associations s'érigent contre la technologie de reconnaissance faciale d'Amazon craignant une surveillance de masse par la police

La police chinoise s'équipe de lunettes dotées d'une technologie de reconnaissance faciale, pour scanner les foules à la recherche de suspects

Chine : la police se sert de la reconnaissance faciale pour arrêter un fugitif, la fiction Big Brother de 1984 est-elle devenue une réalité en 2018 ?

Big data : la Chine a commencé à tester son système national de crédit social et menace de priver les citoyens mal notés de certains services de base

Facebook veut utiliser la reconnaissance faciale pour vous prévenir, lorsque quelqu'un publie une photo de vous sur sa plateforme

Mozilla publie une solution d'apprentissage profond pour la reconnaissance vocale, une implémentation TensorFlow de l'architecture Deep Speech

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de ManyTwo
Membre du Club https://www.developpez.com
Le 25/06/2018 à 10:56
Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois …
@SofEvans c'est sur dis comme ca cela peut paraitre un peu abusé. Dans un cadre d'entreprises "classiques" ta réaction se comprends facilement, mais on est dans un cadre un peu particulier la quand meme...

Je trouve quand dans certains cas d'éthique il faut avoir le courage de montrer son désaccord. Il est facile après coup de se dire "j'y suis pour rien si mes productions sont utilisées pour tuer des gens, c'est mon patron qu'y m'a demandé".
Si faire certaines taches vont vraiment contre ton éthique, ben ne les fait pas . Quite à démissionner par la suite. La on parle de projets d'IA pour reconnaitre des gens dans un carde militaire, qui finira surement par des assassinats ciblés…

Si ton patron te dit:" écrit un programme pour notre drone qui différencie les civils des combatants et tire automatiquement, avec une marge d'erreur à la reconnaissance de 40%" (exemple arbitraire).

Pour moi, ne pas protester/refuser de faire cela équivaut a avoir une part responsabilité dans les morts civiles faites via TON travail. Tu peux pas te cacher derriere "on m'a dit de le faire c'est pas moi qui décide". Trop facile.
3  0 
Avatar de Calmacil
Membre régulier https://www.developpez.com
Le 22/06/2018 à 12:44
Un gâteau JEDI?

Come to the Dark Side, we have cookies.
2  0 
Avatar de SofEvans
Membre émérite https://www.developpez.com
Le 22/06/2018 à 17:03
Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois ...
Je ne sais pas qui sont ces 9 personnes, mais elles ont intérêts a être relativement importantes pour Google, parce que là c'est assez hallucinant quand même.
2  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 17/11/2020 à 14:29
Citation Envoyé par Bill Fassinou Voir le message
Selon le média allemand Deutsche Welle (DW), en tout, 30 pays souhaitent une interdiction totale de l'utilisation des robots tueurs dans le cadre de cette campagne, ainsi que le Parlement européen. Par ailleurs, en mars 2019, plusieurs militants de 35 pays s’étaient réunis à Berlin pour demander l'interdiction des armes autonomes meurtrières. Ces militants engagés contre l’utilisation des armes autonomes veulent attirer l’attention des pays non encore engagés et surtout l’Allemagne dans la perspective de nouvelles négociations sur ces armes à Genève.
Ce serait chouette qu'on interdise aux états d'utiliser des robots contre leur peuple, par contre quand c'est la guerre il n'y a plus de règle.

ONU. Soixante-dix ans après les Conventions de Genève, les violations du droit international humanitaire qui ravagent la vie des civils en temps de guerre illustrent un échec catastrophique
En Somalie, la crise des droits humains et humanitaire reste également l’une des plus graves au monde. Toutes les parties au conflit, et notamment les États-Unis, ont commis des violations du droit international relatif aux droits humains et du droit international humanitaire. Bien qu’ayant intensifié les frappes aériennes dans leur guerre opaque en Somalie ces deux dernières années, les États-Unis ont refusé d’admettre que leurs frappes avaient fait des victimes parmi les civils jusqu’à ce qu’une enquête d’Amnesty International les y force.

Israël a, à de nombreuses reprises, pris pour cible des civils et des biens de caractère civil lors d’opérations militaires à Gaza depuis 2008, causant une destruction de grande ampleur et faisant de nombreux morts parmi les civils. Entre mars 2018 et mars 2019, Israël a eu recours à une force meurtrière contre des manifestants palestiniens, faisant au moins 195 morts, dont des secouristes, des journalistes et des enfants. Des groupes armés palestiniens ont procédé à des tirs aveugles de roquettes en direction de quartiers civils d’Israël, faisant plusieurs morts.
Les pays peuvent signer toutes les conventions que vous voulez, les puissances militaire comme les USA et Israël continueront de développer des armes en secret. Quoi que parfois les pays sortent d'un traité officiellement :
Traité sur les forces nucléaires à portée intermédiaire
Depuis 2007, Vladimir Poutine le met en cause à plusieurs reprises comme desservant les intérêts de la Russie face au développement de missiles par la Chine et au déploiement de systèmes de défense antimissile par les États-Unis. En octobre 2018, Donald Trump annonce son intention de retirer les États-Unis de ce traité. Les négociations menées avec la Russie ne débouchant sur aucun accord, Washington confirme formellement le 1er février 2019 que les États-Unis suspendent leurs obligations en vertu du traité FNI et entament le processus de retrait du traité FNI d'une durée de six mois. Moscou réplique le lendemain en annonçant à son tour se retirer de ce traité. Le retrait américain est officiel le 2 août 2019.
Il est probable que les armes autonomes jouent un rôle lors de la prochaine guerre mondiale. Les gouvernements investissent beaucoup dans l'IA militaire.
L’armée américaine investit 2 milliards de dollars dans l’intelligence artificielle
La Darpa, prestigieuse agence de recherche de l’armée, veut développer des machines qui seront « comme des collègues » pour les militaires.
IA et informatique quantique : les Etats-Unis posent 1 milliard $ sur la table
Les États-Unis annoncent un investissement d’un milliard de dollars dans l’intelligence artificielle et l’informatique quantique. L’objectif ? Rester leader technologique, devant la Chine, notamment dans le domaine militaire…
1  0 
Avatar de tmcuh
Membre habitué https://www.developpez.com
Le 05/02/2019 à 13:09
Idée intéressante d'utiliser des petites mains pour faire avancer la reconnaissance d'objets... parler d'intelligence serait quand même un gros mot qui fait toujours débat.

Dommage que Google ne veut pas prendre parti à celà car je pense qu'il a beaucoup à y gagner tant sur le plan technologique, que de reconnaissance "The Brand".
Ce qui est rigolo c'est que les chinois n'ont aucune éthique de ce genre et donc seront les plus avancés d'ici peu et c'est là que les choses sérieuse commenceront
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/02/2019 à 13:52
Citation Envoyé par tmcuh Voir le message
Idée intéressante d'utiliser des petites mains pour faire avancer la reconnaissance d'objets...
Perso ça me fait penser aux clodos utilisé par Aperture Science dans Portal 2.
Test Subject
According to GLaDOS, Aperture Science's annual bring-your-daughter-to-work day "is the perfect time to have [one's daughter] tested", suggesting Test Subjects are (at least partially) chosen among daughters of Aperture employees. Other popular Aperture Science Test Subject gathering methods include paying homeless people insignificant wages, forcing employees to participate in tests, picking up orphans from orphanages or transferring psychiatric patients from Aperture-branded mental institutions. Compared to early testing phases, when Aperture seems to have hired the best of the best (such as "astronauts" "war heroes" and "olympians", Aperture later shows both increasing issues with test subject quality and apparent investigations into the whereabouts of failed test subjects.
Parfois on retrouve de la science-fiction dystopique dans la réalité.

Citation Envoyé par tmcuh Voir le message
Dommage que Google ne veut pas prendre parti à celà
Google était très content de collaborer avec le gouvernement (ça devait être bien payé), mais quelques employés ont protesté, démissionné, et tout ça, du coup Google a fait marche arrière. (c'est possible que le programme continu en secret, c'est juste que l'image publique de Google était grillé, alors il fallait essayer de redorer le blason).

Citation Envoyé par tmcuh Voir le message
Ce qui est rigolo c'est que les chinois n'ont aucune éthique de ce genre et donc seront les plus avancés d'ici peu et c'est là que les choses sérieuse commenceront
Ouais il parait que l'IA va jouer un grand rôle dans la prochaine guerre mondiale qui arrive.

Citation Envoyé par Stéphane le calme Voir le message
Le projet Maven, avec l'aide des travailleurs de la gig economy, a été conçu pour permettre aux responsables du Pentagone de procéder à une « analyse en temps quasi réel » et de « cliquer sur un bâtiment pour voir tout ce qui lui est associé », y compris des personnes et des véhicules, selon des documents obtenus par The Intercept.
Ça me fait peur un tel niveau de surveillance. Officiellement ils vont dire que c'est pour lutter contre le terrorisme, ou ce genre de connerie, mais en pratique ce sera peut-être autre chose.
0  0 
Avatar de
https://www.developpez.com
Le 17/11/2020 à 14:55
Citation Envoyé par Ryu2000 Voir le message
Ce serait chouette qu'on interdise aux états d'utiliser des robots contre leur peuple, par contre quand c'est la guerre il n'y a plus de règle.

ONU. Soixante-dix ans après les Conventions de Genève, les violations du droit international humanitaire qui ravagent la vie des civils en temps de guerre illustrent un échec catastrophique

Les pays peuvent signer toutes les conventions que vous voulez, les puissances militaire comme les USA et Israël continueront de développer des armes en secret. Quoi que parfois les pays sortent d'un traité officiellement :
Traité sur les forces nucléaires à portée intermédiaire

Il est probable que les armes autonomes jouent un rôle lors de la prochaine guerre mondiale. Les gouvernements investissent beaucoup dans l'IA militaire.
L’armée américaine investit 2 milliards de dollars dans l’intelligence artificielle
Je me coucherais moins bête, mais je ne suis pas sûr de pouvoir dormir après avoir lu ceci...
0  0 
Avatar de tanaka59
Inactif https://www.developpez.com
Le 17/11/2020 à 22:32
Bonsoir,

L'Autriche veut des règles éthiques sur l'utilisation des robots tueurs dotés d'IA sur le champ de bataille

Quel est votre avis sur le sujet ?
De la part d'un pays "bien pensant" comme l'Autriche c'est louable ... et perdu d'avance. Les USA , la Russie , Israel , Chine, et j'en passe ne vont pas attendre des législations de "bien pensant" ...

De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique la plus unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un “adolescent”.
Le Carmel israelien me fait bien rire ... la réutilisation de vieux M113 avec un armement "neuf" rien de révolutionnaire ... Éventuellement "l'automatisation" de roulement et du tir .

Les robots tueur devraient-ils être interdits ?
On se réveille un peu tard . Dans la logique oui. Dans la réalité c'est bien plus compliqué. Puis bon les "robots tueurs" et autres armes , mêmes des automates "tueurs" ne dates pas d'hier ...

Citation Envoyé par Ryu2000 Voir le message
Ce serait chouette qu'on interdise aux états d'utiliser des robots contre leur peuple, par contre quand c'est la guerre il n'y a plus de règle.
Exactement , faites ce que je dis pas ce que je fais quoi ...

ONU. Soixante-dix ans après les Conventions de Genève, les violations du droit international humanitaire qui ravagent la vie des civils en temps de guerre illustrent un échec catastrophique

Citation Envoyé par Ryu2000 Voir le message
Les pays peuvent signer toutes les conventions que vous voulez, les puissances militaire comme les USA et Israël continueront de développer des armes en secret. Quoi que parfois les pays sortent d'un traité officiellement :
Comme d'hab , l'UE et sa bien pensance ... pendant ce temps nos allier/ennemis prennent de l'avance ... USA , Russie, Chine ...

Citation Envoyé par Ryu2000 Voir le message
Il est probable que les armes autonomes jouent un rôle lors de la prochaine guerre mondiale. Les gouvernements investissent beaucoup dans l'IA militaire.
Hé beh oui , des sommes délirantes même !

Citation Envoyé par Jesus63 Voir le message
Je me coucherais moins bête, mais je ne suis pas sûr de pouvoir dormir après avoir lu ceci...
En librairie parfois je zieute des revues comme "défence internationale" ou alors des sites spécialisés qui parlent des armées du monde. On serait étonné de voir par moment , les décisions même discrètes de certains pays ...
0  0 
Avatar de squizer
Membre actif https://www.developpez.com
Le 18/11/2020 à 9:39
Citation Envoyé par Bill Fassinou Voir le message
le pays affirme que seuls les humains doivent décider des questions de vie ou de mort
Depuis quand les humains sont réellement capable d'une telle décision ?

A travers toute la planète la notion même de vie ou de mort n'est pas unique.
Rien qu'au US d'un état à un autre les conclusions sur la vie et la mort d'une personne sont différentes.

Au moins avec une IA j'aurais l'impression d'une équité; Que si je pose mon arme celui en face ne vas pas me tirer dessus par nervosité.
1  1 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 18/11/2020 à 11:42
Les britanniques prévoient un quart de leurs effectifs en robots autonomes à l'horizon 2025(source zdnet). Dans une telle proportion, quid de la sécurité dans ce beau projet ?
0  0