Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

IA : Google ne renouvellera pas son contrat avec le DoD dans le projet controversé Maven,
Sa réputation est mise en jeu

Le , par Stan Adkens

248PARTAGES

9  0 

Google renonce, ce vendredi matin, à ses ambitions de faire prospérer son revenu tiré du projet d’IA militaire avec le ministère de la Défense des États-Unis dans le cadre du projet Maven. Il a annoncé ne pas vouloir renouveler le contrat qui expire 2019. C’est au cours d’une réunion avec les employés appelée « Weather Report », qui est une mise à jour hebdomadaire sur les activités de Google Cloud, que le PDG de Google Cloud, Diane Greene, a annoncé la décision. En effet, la pression exercée par des employés de Google ainsi que les critiques technologiques ont poussé l’entreprise à réviser sa position. Une dizaine d’employés a, par ailleurs, démissionné suite à une lettre ouverte signée par 3000 employés en début d’avril et restée sans effet pendant un bon moment.

Tout a commencé en mars 2018 lorsque l'implication de Google dans le projet Maven a été révélée dans une enquête menée par Gizmodo.

Gizmodo nous informe que pour Google, le contrat dont les contours demeuraient flous consistait essentiellement à fournir au gouvernement des logiciels libres comme sa plate-forme TensorFlow, cela afin de sécuriser dles contrats plus lucratifs du Pentagone. Greene avait dit aux employés inquiets lors des réunions que le contact de Google avec le ministère de la Défense ne valait que 9 millions de dollars, minimisant ainsi la portée de son engagement avec le DoD. Cependant les mails échangés entre les responsables de la société montrent que Google n’a pas été franc avec ses employés. Les courriers ont prouvé que son implication dans le projet Maven était aussi importante qu’il s'attendait à ce que les revenus provenant des projets d'IA militaires similaires passent de 15 à 250 millions de dollars par an.

Bien que le project Maven n’implique pas l'utilisation de logiciels de Google pour piloter ou participer activement à toute forme de guerre de drones, Google fournissait néanmoins des outils et une expertise dans l'analyse de séquences, selon Gizmodo.

Gizmodo rapporte que le projet Maven viserait à rendre les frappes de drones plus favorables aux civils. Les algorithmes de vision par ordinateur élaborés à l'aide de techniques d'intelligence artificielle, comme l'apprentissage automatique, pourraient en théorie mieux identifier les cibles et réduire les dommages collatéraux, même si la portée de l'implication de Google dans Project Maven n'a jamais été clairement établie. « La technologie est utilisée pour signaler des images à des fins de revue humaine et vise à sauver des vies et à éviter aux gens d'avoir à faire un travail fastidieux », a déclaré Google en avril dernier.

Toutefois, quel que soit le but de son contrat avec le DoD, les employés de Google étaient opposés à quelque utilisation de l’IA pour aider le gouvernement à renforcer son arsenal militaire et contribuer à tuer des personnes. C’est ce qu’ils ont exprimé dans la lettre ouverte au PDG. « Ce contrat met en péril la réputation de Google et s'oppose directement à nos valeurs fondamentales », peut-on lire dans la lettre. « Construire cette technologie pour aider le gouvernement américain dans la surveillance militaire en occasionnant des résultats potentiellement mortels n'est pas acceptable. », a rapporté Gizmodo.

Le PDG a déclaré aux employés que le contrecoup était la principale raison pour laquelle l'entreprise avait décidé de ne pas renouveler son contrat. Par ailleurs, le 18 mai dernier, Google a mis à jour son code de conduite pour supprimer les références importantes à l'ancienne devise de la société, « Ne soyez pas mauvais », qui a depuis été remplacée par « Faites la bonne chose ». Selon Greene, la société annoncera la semaine prochaine une nouvelle série de principes éthiques concernant l'IA et l'armée sans commenter la décision.

Source : Gizmodo

Et vous ?

Que pensez-vous de l’implication de Google dans un projet de développement de logiciel de précision avec le gouvernement américain ?
Les organisations devraient-elles être libres d’utiliser l’IA comme bon leur semble ?
Que pensez-vous de l’IA comme arme de guerre ?

Voir aussi

USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Elon Musk appelle les Nations Unies à bannir les robots tueurs dans une lettre ouverte, signée par 116 spécialistes de l'IA et la robotique
Une intelligence artificielle bat des experts de l'armée de l'air américaine, dans des simulations de combats aériens

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de ManyTwo
Membre du Club https://www.developpez.com
Le 25/06/2018 à 10:56
Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois …
@SofEvans c'est sur dis comme ca cela peut paraitre un peu abusé. Dans un cadre d'entreprises "classiques" ta réaction se comprends facilement, mais on est dans un cadre un peu particulier la quand meme...

Je trouve quand dans certains cas d'éthique il faut avoir le courage de montrer son désaccord. Il est facile après coup de se dire "j'y suis pour rien si mes productions sont utilisées pour tuer des gens, c'est mon patron qu'y m'a demandé".
Si faire certaines taches vont vraiment contre ton éthique, ben ne les fait pas . Quite à démissionner par la suite. La on parle de projets d'IA pour reconnaitre des gens dans un carde militaire, qui finira surement par des assassinats ciblés…

Si ton patron te dit:" écrit un programme pour notre drone qui différencie les civils des combatants et tire automatiquement, avec une marge d'erreur à la reconnaissance de 40%" (exemple arbitraire).

Pour moi, ne pas protester/refuser de faire cela équivaut a avoir une part responsabilité dans les morts civiles faites via TON travail. Tu peux pas te cacher derriere "on m'a dit de le faire c'est pas moi qui décide". Trop facile.
3  0 
Avatar de Calmacil
Membre régulier https://www.developpez.com
Le 22/06/2018 à 12:44
Un gâteau JEDI?

Come to the Dark Side, we have cookies.
2  0 
Avatar de tmcuh
Membre régulier https://www.developpez.com
Le 04/06/2018 à 9:06
Aidez-nous à ne pas tuer trop de gens... la blague.
Bravo à Google d'avoir osé sortir de cette m***** .
Il faut avoir peu d'éthique pour développer ce genre de programme dans tous les cas, sans doute l'avidité ou l'égo qui entre en jeu.

De l'autre vous aurez la Chine et la Russie qui n'hésiteront pas une seconde à développer et vendre la technologie à d'autres qui n'auront eu aucune éthique.

Donc In Fine, le développement devra avoir lieu tant que l'organisme (qui sert à rien dans ce monde, en l'état) qui s'appel les Nations Unis n'aura pas mis les "Ola" sur ce genre de technologie folle qui nous pousse à toujours plus de pressions, de guerre, de pauvreté, de déséquilibre ... qui est d'ailleurs nullement lié au capitalisme, mais un manque de gouvernance mondiale.

C'est juste une pierre jetté dans la mare, ça ne fait que retarder les USA, ça ne l'arrêtera pas. Et je pense d'ailleurs que si elle faisait voter à l'U.N. une motion de non proliférations de l'IA a des fins militaires , on avancerait grandement, mais comme la Russie mettra sa motion de censure comme toujours... suite au prochain épisode
3  2 
Avatar de frenchlover2
Membre du Club https://www.developpez.com
Le 09/06/2018 à 20:04
Ce sera dommage laissant la chance au robots s'il sont meilleurs que nous alors il merite de prendre la relève n'est ce pas l'une des lois de la nature qui laisse l'avantage au espèces qui dominent
1  0 
Avatar de oooopppp
Membre régulier https://www.developpez.com
Le 03/06/2018 à 18:34
Et bien voilà ! C'est si compliqué de ne pas faire partie de l'empire du mal ...
0  0 
Avatar de
https://www.developpez.com
Le 08/06/2018 à 13:51
C'est les récentes " découvertes " au sujet des voitures autonomes qui ont voulu cela ?
Surtout que pour l'armée, il faut bien identifier l'objet avant d'agir, sinon, il y aura vraiment beaucoup de " victimes collatérales ".

Stratégiquement, certain ferait même un canon fictif pour forcer à paraitre découvert les forces qui leurs veulent du mal... (probabilités / statistiques)
Citation Envoyé par Coriolan Voir le message
Pensez-vous que la firme a déraillé de son slogan informel "Don't be evil" ?

Culturellement et religieuement, le "diable" est celui qui fait régner le mal et/ou qui puni ceux envoyer vers lui.
Ex: Hadès ou " les gardiens des enfers ". Pratiquement une boite de pandore.
L'enfers est comparable d'une certaine sorte à une prison où l'on ferait subir des sévis et où le directeur serait le diable, intellectuellement et culturellement parlant.

Religieusement, le diable y a été envoyer et y règne vue que c'est une zone de non droits pour les autres. Il peut ainsi faire tout ce qu'il souhaite et comme c'est lui le plus fort à cette endroit, il a le champs libre.
0  0 
Avatar de
https://www.developpez.com
Le 10/06/2018 à 10:53
Effectivement, vue de cette façon c'est pas l'armée qui apporte le " mieux vivre ". Pour peu que l'humain arrive à déterminer ce que c'est.

P.S. : j'y vois pas la même chose que les deux IA. Et même d'une personne à l'autre cela peut-être interprété différemment alors qu'il aurait passé leur vie ensemble sans jamais s'être quitté. (ex : bicéphale)
0  0 
Avatar de SofEvans
Membre chevronné https://www.developpez.com
Le 22/06/2018 à 17:03
Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois ...
Je ne sais pas qui sont ces 9 personnes, mais elles ont intérêts a être relativement importantes pour Google, parce que là c'est assez hallucinant quand même.
2  2 
Avatar de tmcuh
Membre régulier https://www.developpez.com
Le 05/02/2019 à 13:09
Idée intéressante d'utiliser des petites mains pour faire avancer la reconnaissance d'objets... parler d'intelligence serait quand même un gros mot qui fait toujours débat.

Dommage que Google ne veut pas prendre parti à celà car je pense qu'il a beaucoup à y gagner tant sur le plan technologique, que de reconnaissance "The Brand".
Ce qui est rigolo c'est que les chinois n'ont aucune éthique de ce genre et donc seront les plus avancés d'ici peu et c'est là que les choses sérieuse commenceront
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/02/2019 à 13:52
Citation Envoyé par tmcuh Voir le message
Idée intéressante d'utiliser des petites mains pour faire avancer la reconnaissance d'objets...
Perso ça me fait penser aux clodos utilisé par Aperture Science dans Portal 2.
Test Subject
According to GLaDOS, Aperture Science's annual bring-your-daughter-to-work day "is the perfect time to have [one's daughter] tested", suggesting Test Subjects are (at least partially) chosen among daughters of Aperture employees. Other popular Aperture Science Test Subject gathering methods include paying homeless people insignificant wages, forcing employees to participate in tests, picking up orphans from orphanages or transferring psychiatric patients from Aperture-branded mental institutions. Compared to early testing phases, when Aperture seems to have hired the best of the best (such as "astronauts" "war heroes" and "olympians", Aperture later shows both increasing issues with test subject quality and apparent investigations into the whereabouts of failed test subjects.
Parfois on retrouve de la science-fiction dystopique dans la réalité.

Citation Envoyé par tmcuh Voir le message
Dommage que Google ne veut pas prendre parti à celà
Google était très content de collaborer avec le gouvernement (ça devait être bien payé), mais quelques employés ont protesté, démissionné, et tout ça, du coup Google a fait marche arrière. (c'est possible que le programme continu en secret, c'est juste que l'image publique de Google était grillé, alors il fallait essayer de redorer le blason).

Citation Envoyé par tmcuh Voir le message
Ce qui est rigolo c'est que les chinois n'ont aucune éthique de ce genre et donc seront les plus avancés d'ici peu et c'est là que les choses sérieuse commenceront
Ouais il parait que l'IA va jouer un grand rôle dans la prochaine guerre mondiale qui arrive.

Citation Envoyé par Stéphane le calme Voir le message
Le projet Maven, avec l'aide des travailleurs de la gig economy, a été conçu pour permettre aux responsables du Pentagone de procéder à une « analyse en temps quasi réel » et de « cliquer sur un bâtiment pour voir tout ce qui lui est associé », y compris des personnes et des véhicules, selon des documents obtenus par The Intercept.
Ça me fait peur un tel niveau de surveillance. Officiellement ils vont dire que c'est pour lutter contre le terrorisme, ou ce genre de connerie, mais en pratique ce sera peut-être autre chose.
0  0