Developpez.com

Le Club des Développeurs et IT Pro

Annulation du contrat IA entre Google et le DoD : quel est le déclencheur ?

Un « groupe de 9 » ingénieurs pour faire la loi à Mountain View ?

Le 2018-06-22 12:02:39, par Patrick Ruiz, Chroniqueur Actualités
Entre les mois de mars et de juin de cette année, on est parti de Google aide le Pentagone à développer une IA pour analyser les vidéos capturées par drone à Google ne renouvellera pas son contrat avec le DoD dans le projet controversé Maven. À ceux qui ont manqué les multiples épisodes entre les deux mentionnés, on rappelle de façon brossée qu’il a fallu la mobilisation de plus de 3000 employés du géant technologique et d’organisations de protections des libertés sur Internet comme l’Electronic Frontier Foundation pour en arriver là.

Il n’y a pas de fumée sans feu, dit-on souvent. Alors, qu’est-ce qui a déclenché cette mobilisation qui a conduit Google à arrêter de collaborer avec le Pentagone dans le cadre de ce projet en intelligence artificielle dénommé Maven ? Réponse rapide : un groupe d’ingénieurs ou si vous préférez, le « groupe de 9. »

L’agence de presse Bloomberg rapporte en effet que plus tôt cette année, ce « groupe influent » d’ingénieurs du génie logiciel a été chargé d’implémenter un air gap – une espèce de cordon de sécurité autour de systèmes informatiques censés héberger des données sensibles. La manœuvre devait permettre à Google de passer le cap de la certification de son infrastructure informatique par le DoD et donc de se voir octroyer des contrats du genre dont on ne parle que dans des chambres noires. Seulement, pour le groupe de 9, une collaboration avec le Pentagone laissait entrevoir une utilisation de la technologie pour la guerre, ce contre quoi il a tenu à manifester son désaccord en refusant de procéder à la mise en œuvre de l’air gap. La suite, on la connaît avec l’effet boule de neige du vent de protestations.


Sans air gap, il devient difficile d’empoigner des portions du gâteau JEDI

De là à dire que le « groupe de 9 » fait la loi à Mountain View ? Ce serait peut-être un peu exagéré, mais le résultat est là : plus de projet Maven. En sus, il y a que sans air gap, le programme JEDI – un contrat de 10 milliards de dollars sur dix ans et pour lequel Google a manifesté un intérêt – s’éloigne. Bloomberg rapporte qu’Amazon et Microsoft disposent de cette certification qui fait tant défaut à Google, ce qui les place en pôle position pour se disputer des morceaux de ce gâteau.

Des membres de l’équipe dirigeante de l’entreprise comme Diane Greene – CEO de Google cloud – sont d’avis qu’elle doit continuer à collaborer avec les agences gouvernementales. « Les agences fédérales comptent parmi les plus gros investisseurs sur les solutions d’entreprise et commencent à graviter autour des services offerts sur le cloud », écrit Bloomberg pour aider à comprendre les raisons d’un tel positionnement. L’agence de presse rapporte que Google a mis une pause sur l’implémentation de l’air gap, mais la situation peut changer à tout moment le temps de trouver de nouvelles mains capables de faire le travail. Ce ne serait pas nouveau sous le ciel dans un contexte où les entreprises de la Tech sont acculées de toutes parts comme l’est Google, mais où l’on trouve certaines comme Amazon qui fournissent des solutions controversées aux forces de défense américaines.

Source : Bloomberg

Et vous ?

Qu’en pensez-vous ? Ces entreprises de la Tech ont-elles vraiment le choix quand on sait que si elles ne se positionnent pas sur de tels créneaux quelqu’un d’autre le fera ?

Que pensez-vous de ces ingénieurs qui refusent de participer à la conception d’armes sophistiquées ?

Voir aussi :

USA : des associations s'érigent contre la technologie de reconnaissance faciale d'Amazon craignant une surveillance de masse par la police

La police chinoise s'équipe de lunettes dotées d'une technologie de reconnaissance faciale, pour scanner les foules à la recherche de suspects

Chine : la police se sert de la reconnaissance faciale pour arrêter un fugitif, la fiction Big Brother de 1984 est-elle devenue une réalité en 2018 ?

Big data : la Chine a commencé à tester son système national de crédit social et menace de priver les citoyens mal notés de certains services de base

Facebook veut utiliser la reconnaissance faciale pour vous prévenir, lorsque quelqu'un publie une photo de vous sur sa plateforme

Mozilla publie une solution d'apprentissage profond pour la reconnaissance vocale, une implémentation TensorFlow de l'architecture Deep Speech
  Discussion forum
126 commentaires
  • ManyTwo
    Membre du Club
    Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois …
    @SofEvans c'est sur dis comme ca cela peut paraitre un peu abusé. Dans un cadre d'entreprises "classiques" ta réaction se comprends facilement, mais on est dans un cadre un peu particulier la quand meme...

    Je trouve quand dans certains cas d'éthique il faut avoir le courage de montrer son désaccord. Il est facile après coup de se dire "j'y suis pour rien si mes productions sont utilisées pour tuer des gens, c'est mon patron qu'y m'a demandé".
    Si faire certaines taches vont vraiment contre ton éthique, ben ne les fait pas . Quite à démissionner par la suite. La on parle de projets d'IA pour reconnaitre des gens dans un carde militaire, qui finira surement par des assassinats ciblés…

    Si ton patron te dit:" écrit un programme pour notre drone qui différencie les civils des combatants et tire automatiquement, avec une marge d'erreur à la reconnaissance de 40%" (exemple arbitraire).

    Pour moi, ne pas protester/refuser de faire cela équivaut a avoir une part responsabilité dans les morts civiles faites via TON travail. Tu peux pas te cacher derriere "on m'a dit de le faire c'est pas moi qui décide". Trop facile.
  • Calmacil
    Membre régulier
    Un gâteau JEDI?

    Come to the Dark Side, we have cookies.
  • SofEvans
    Membre émérite
    Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois ...
    Je ne sais pas qui sont ces 9 personnes, mais elles ont intérêts a être relativement importantes pour Google, parce que là c'est assez hallucinant quand même.
  • Ryu2000
    Membre extrêmement actif
    Envoyé par Bill Fassinou
    Selon le média allemand Deutsche Welle (DW), en tout, 30 pays souhaitent une interdiction totale de l'utilisation des robots tueurs dans le cadre de cette campagne, ainsi que le Parlement européen. Par ailleurs, en mars 2019, plusieurs militants de 35 pays s’étaient réunis à Berlin pour demander l'interdiction des armes autonomes meurtrières. Ces militants engagés contre l’utilisation des armes autonomes veulent attirer l’attention des pays non encore engagés et surtout l’Allemagne dans la perspective de nouvelles négociations sur ces armes à Genève.
    Ce serait chouette qu'on interdise aux états d'utiliser des robots contre leur peuple, par contre quand c'est la guerre il n'y a plus de règle.

    ONU. Soixante-dix ans après les Conventions de Genève, les violations du droit international humanitaire qui ravagent la vie des civils en temps de guerre illustrent un échec catastrophique
    En Somalie, la crise des droits humains et humanitaire reste également l’une des plus graves au monde. Toutes les parties au conflit, et notamment les États-Unis, ont commis des violations du droit international relatif aux droits humains et du droit international humanitaire. Bien qu’ayant intensifié les frappes aériennes dans leur guerre opaque en Somalie ces deux dernières années, les États-Unis ont refusé d’admettre que leurs frappes avaient fait des victimes parmi les civils jusqu’à ce qu’une enquête d’Amnesty International les y force.

    Israël a, à de nombreuses reprises, pris pour cible des civils et des biens de caractère civil lors d’opérations militaires à Gaza depuis 2008, causant une destruction de grande ampleur et faisant de nombreux morts parmi les civils. Entre mars 2018 et mars 2019, Israël a eu recours à une force meurtrière contre des manifestants palestiniens, faisant au moins 195 morts, dont des secouristes, des journalistes et des enfants. Des groupes armés palestiniens ont procédé à des tirs aveugles de roquettes en direction de quartiers civils d’Israël, faisant plusieurs morts.
    Les pays peuvent signer toutes les conventions que vous voulez, les puissances militaire comme les USA et Israël continueront de développer des armes en secret. Quoi que parfois les pays sortent d'un traité officiellement :
    Traité sur les forces nucléaires à portée intermédiaire
    Depuis 2007, Vladimir Poutine le met en cause à plusieurs reprises comme desservant les intérêts de la Russie face au développement de missiles par la Chine et au déploiement de systèmes de défense antimissile par les États-Unis. En octobre 2018, Donald Trump annonce son intention de retirer les États-Unis de ce traité. Les négociations menées avec la Russie ne débouchant sur aucun accord, Washington confirme formellement le 1er février 2019 que les États-Unis suspendent leurs obligations en vertu du traité FNI et entament le processus de retrait du traité FNI d'une durée de six mois. Moscou réplique le lendemain en annonçant à son tour se retirer de ce traité. Le retrait américain est officiel le 2 août 2019.
    Il est probable que les armes autonomes jouent un rôle lors de la prochaine guerre mondiale. Les gouvernements investissent beaucoup dans l'IA militaire.
    L’armée américaine investit 2 milliards de dollars dans l’intelligence artificielle
    La Darpa, prestigieuse agence de recherche de l’armée, veut développer des machines qui seront « comme des collègues » pour les militaires.
    IA et informatique quantique : les Etats-Unis posent 1 milliard $ sur la table
    Les États-Unis annoncent un investissement d’un milliard de dollars dans l’intelligence artificielle et l’informatique quantique. L’objectif ? Rester leader technologique, devant la Chine, notamment dans le domaine militaire…
  • tmcuh
    Membre habitué
    Idée intéressante d'utiliser des petites mains pour faire avancer la reconnaissance d'objets... parler d'intelligence serait quand même un gros mot qui fait toujours débat.

    Dommage que Google ne veut pas prendre parti à celà car je pense qu'il a beaucoup à y gagner tant sur le plan technologique, que de reconnaissance "The Brand".
    Ce qui est rigolo c'est que les chinois n'ont aucune éthique de ce genre et donc seront les plus avancés d'ici peu et c'est là que les choses sérieuse commenceront
  • Ryu2000
    Membre extrêmement actif
    Envoyé par tmcuh
    Idée intéressante d'utiliser des petites mains pour faire avancer la reconnaissance d'objets...
    Perso ça me fait penser aux clodos utilisé par Aperture Science dans Portal 2.
    Test Subject
    According to GLaDOS, Aperture Science's annual bring-your-daughter-to-work day "is the perfect time to have [one's daughter] tested", suggesting Test Subjects are (at least partially) chosen among daughters of Aperture employees. Other popular Aperture Science Test Subject gathering methods include paying homeless people insignificant wages, forcing employees to participate in tests, picking up orphans from orphanages or transferring psychiatric patients from Aperture-branded mental institutions. Compared to early testing phases, when Aperture seems to have hired the best of the best (such as "astronauts" "war heroes" and "olympians", Aperture later shows both increasing issues with test subject quality and apparent investigations into the whereabouts of failed test subjects.
    Parfois on retrouve de la science-fiction dystopique dans la réalité.

    Envoyé par tmcuh
    Dommage que Google ne veut pas prendre parti à celà
    Google était très content de collaborer avec le gouvernement (ça devait être bien payé), mais quelques employés ont protesté, démissionné, et tout ça, du coup Google a fait marche arrière. (c'est possible que le programme continu en secret, c'est juste que l'image publique de Google était grillé, alors il fallait essayer de redorer le blason).

    Envoyé par tmcuh
    Ce qui est rigolo c'est que les chinois n'ont aucune éthique de ce genre et donc seront les plus avancés d'ici peu et c'est là que les choses sérieuse commenceront
    Ouais il parait que l'IA va jouer un grand rôle dans la prochaine guerre mondiale qui arrive.

    Envoyé par Stéphane le calme
    Le projet Maven, avec l'aide des travailleurs de la gig economy, a été conçu pour permettre aux responsables du Pentagone de procéder à une « analyse en temps quasi réel » et de « cliquer sur un bâtiment pour voir tout ce qui lui est associé », y compris des personnes et des véhicules, selon des documents obtenus par The Intercept.
    Ça me fait peur un tel niveau de surveillance. Officiellement ils vont dire que c'est pour lutter contre le terrorisme, ou ce genre de connerie, mais en pratique ce sera peut-être autre chose.
  • Envoyé par Ryu2000
    Ce serait chouette qu'on interdise aux états d'utiliser des robots contre leur peuple, par contre quand c'est la guerre il n'y a plus de règle.

    ONU. Soixante-dix ans après les Conventions de Genève, les violations du droit international humanitaire qui ravagent la vie des civils en temps de guerre illustrent un échec catastrophique

    Les pays peuvent signer toutes les conventions que vous voulez, les puissances militaire comme les USA et Israël continueront de développer des armes en secret. Quoi que parfois les pays sortent d'un traité officiellement :
    Traité sur les forces nucléaires à portée intermédiaire

    Il est probable que les armes autonomes jouent un rôle lors de la prochaine guerre mondiale. Les gouvernements investissent beaucoup dans l'IA militaire.
    L’armée américaine investit 2 milliards de dollars dans l’intelligence artificielle
    Je me coucherais moins bête, mais je ne suis pas sûr de pouvoir dormir après avoir lu ceci...
  • tanaka59
    Inactif
    Bonsoir,

    L'Autriche veut des règles éthiques sur l'utilisation des robots tueurs dotés d'IA sur le champ de bataille

    Quel est votre avis sur le sujet ?
    De la part d'un pays "bien pensant" comme l'Autriche c'est louable ... et perdu d'avance. Les USA , la Russie , Israel , Chine, et j'en passe ne vont pas attendre des législations de "bien pensant" ...

    De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique la plus unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un “adolescent”.
    Le Carmel israelien me fait bien rire ... la réutilisation de vieux M113 avec un armement "neuf" rien de révolutionnaire ... Éventuellement "l'automatisation" de roulement et du tir .

    Les robots tueur devraient-ils être interdits ?
    On se réveille un peu tard . Dans la logique oui. Dans la réalité c'est bien plus compliqué. Puis bon les "robots tueurs" et autres armes , mêmes des automates "tueurs" ne dates pas d'hier ...

    Envoyé par Ryu2000
    Ce serait chouette qu'on interdise aux états d'utiliser des robots contre leur peuple, par contre quand c'est la guerre il n'y a plus de règle.
    Exactement , faites ce que je dis pas ce que je fais quoi ...

    ONU. Soixante-dix ans après les Conventions de Genève, les violations du droit international humanitaire qui ravagent la vie des civils en temps de guerre illustrent un échec catastrophique

    Envoyé par Ryu2000
    Les pays peuvent signer toutes les conventions que vous voulez, les puissances militaire comme les USA et Israël continueront de développer des armes en secret. Quoi que parfois les pays sortent d'un traité officiellement :
    Comme d'hab , l'UE et sa bien pensance ... pendant ce temps nos allier/ennemis prennent de l'avance ... USA , Russie, Chine ...

    Envoyé par Ryu2000
    Il est probable que les armes autonomes jouent un rôle lors de la prochaine guerre mondiale. Les gouvernements investissent beaucoup dans l'IA militaire.
    Hé beh oui , des sommes délirantes même !

    Envoyé par Jesus63
    Je me coucherais moins bête, mais je ne suis pas sûr de pouvoir dormir après avoir lu ceci...
    En librairie parfois je zieute des revues comme "défence internationale" ou alors des sites spécialisés qui parlent des armées du monde. On serait étonné de voir par moment , les décisions même discrètes de certains pays ...
  • squizer
    Membre actif
    Envoyé par Bill Fassinou
    le pays affirme que seuls les humains doivent décider des questions de vie ou de mort
    Depuis quand les humains sont réellement capable d'une telle décision ?

    A travers toute la planète la notion même de vie ou de mort n'est pas unique.
    Rien qu'au US d'un état à un autre les conclusions sur la vie et la mort d'une personne sont différentes.

    Au moins avec une IA j'aurais l'impression d'une équité; Que si je pose mon arme celui en face ne vas pas me tirer dessus par nervosité.
  • marsupial
    Expert éminent
    Les britanniques prévoient un quart de leurs effectifs en robots autonomes à l'horizon 2025(source zdnet). Dans une telle proportion, quid de la sécurité dans ce beau projet ?