Google promet de ne pas utiliser l'IA pour le développement d'armes
Mais informe qu'il va continuer à coopérer avec les militaires

Le , par Coriolan

222PARTAGES

10  0 
En mars, des rapports ont révélé la participation de Google dans un contrat de plusieurs milliards de dollars avec le Pentagone, des révélations qui ont suscité la colère de plusieurs milliers d’employés du géant de la recherche. Et pour cause, il a été révélé que Google aide le Pentagone à développer une IA pour analyser les vidéos par drone. Aussitôt, des organisations comme l’EFF et l’ICRAC ont mis en garde contre une éventuelle utilisation de l’IA pour développer des armes et pour la guerre.

L’implication de Google dans ce projet soulève certainement plusieurs questions d’ordre éthique, c’est pour cette raison que la firme a décidé de publier ce jeudi un guide regroupant les principes auxquels la société adhère pour le développement de l’intelligence artificielle. Parmi les limites que s’est fixées Google, il s’engage à ne pas utiliser son IA pour développer des armes, la surveillance illégale ou des technologies causant un préjudice global. Les nouvelles limites que s’est fixé pourrait aider l’entreprise à calmer l’euphorie de certains de ces employés.


Si Google s’engage à ne pas développer d’armes, il informe néanmoins qu’il va continuer à solliciter des contrats pour travailler avec le gouvernement sur des domaines tels que la cybersécurité, le recrutement militaire et la recherche et sauvetage, a dit Sundar Pichai, PDG de Google.

« Au sein de Google, nous utilisons l’IA pour rendre les produits plus pratiques, de l’email sans spam et plus facile à composer, à l'assistant personnel auquel vous pouvez parler naturellement, aux photos qui mettent en avant ce qui est amusant pour vous divertir, » a écrit Sundar Pichai. « Nous reconnaissons qu’une telle technologie aussi puissante soulève des questions aussi importantes sur son usage. La manière dont l'IA est développée et utilisée aura un impact significatif sur la société pendant de nombreuses années. En tant que leader dans l'IA, nous nous sentons une responsabilité particulière de faire les choses correctement. »

Le projet Maven sur lequel travaille Google vise à améliorer les opérations des drones en utilisant des technologies de reconnaissance d'images. Malgré la pétition des employés de Google et la démission d’au moins une douzaine de Googlers, la firme compte honorer le contrat jusqu’à son expiration en 2019. Selon certains rapports, Google viserait un autre contrat de 10 milliards de dollars avec le Pentagon, un projet auquel prétend aussi IBM, Microsoft et Amazon.

Avec le développement rapide de l’IA, ses applications ont été transférées des laboratoires de recherche aux applications directes dans plusieurs industries comme la défense et la santé. Et les géants de la Silicon Valley comme Google et ses grands rivaux sont devenus de véritables pionniers de la technologie, dotés d’outils capables d’analyser de larges quantités de données, faire des prédictions et identifier des anomalies de façon plus rapide que des humains.

Mais la décision de Google de se fixer des limites vient après des années de mises en garde contre le développement rapide de systèmes automatisés et le développement rapide de l’IA en général. Ainsi, une coalition de défenseurs des droits de l’Homme et d’entreprises technologiques a appelé à la mise sur pied de systèmes d’apprentissage machine respectueux des valeurs de la Déclaration des droits de l’homme.

À vrai dire, les craintes les plus farfelues sont en train de devenir une réalité, le potentiel des systèmes d’IA de mener des attaques par drone sans supervision ou identifier des dissidents grâce à la collecte en masse de données en ligne sont désormais possibles, autant d’exemples qui agacent les éthiciens et académiques. C’est pourquoi lors des dernières années, les critiques se sont multipliées au regard du développement de l’IA et de plus en plus de firmes de la Silicon Valley allouent plus de ressources pour la recherche et le développement d’une IA sans risque, à l’image d’Open IA et d’autres groupes de recherche partout dans le monde.

Google s’est fixé donc des limites éthiques aujourd’hui, mais il faut rappeler, cette promesse n’aurait pas pu avoir lieu si le grand public n’a pas été exposé au scandale du projet Maven, qui est devenu au final une véritable crise de relations publiques pour le géant de la recherche. Car, il faut le dire, lorsque Google s’est engagé dans le projet, la question d’éthique n’a pas été soulevée ni même considérée comme le révèlent les premiers échanges entre les directeurs de la firme, qui se sont concentrés surtout sur la rentabilité du projet et la crainte d’un contrecoup médiatique. Une fois que l’affaire a été révélée, Google a vite entrepris d’organiser des réunions et a prétendu que ce projet n’a pas une grande importance et que l’IA ne sera pas utilisée pour tuer des gens. Bien que la firme n’a pas forcément menti, les mêmes échanges par email entre les exécutifs de la société montrent que ce projet était destiné à évoluer plus tard pour rapporter 250 millions de dollars par an, une somme non négligeable !

Un responsable de Google a informé Reuters que la firme n’aurait pas participé au projet si ces principes étaient déjà en place. Le travail de Google dans le cadre du contrat se rapproche à l’armement, bien qu’il n’est pas destiné à tuer des gens.

Le responsable a décrit les principes comme un modèle auxquels peut adhérer tout développeur. Toutefois, Microsoft et d’autres firmes ont déjà mis en place leurs propres principes pour le développement de l’IA, mais l’attention particulière portée par la communauté aux efforts de Google est liée à la révélation du scandale et la protestation interne des employés contre le contrat de drones.

Source : Reuters

Et vous ?

Pensez-vous que Google a ignoré volontairement la question d'éthique lorsqu'il s'est engagé avec le Pentagone dans le projet Maven ?
Pensez-vous que la firme a déraillé de son slogan informel "Don't be evil" ?

Voir aussi :

IA : Google ne renouvellera pas son contrat avec le DoD dans le projet controversé Maven, sa réputation est mise en jeu
Une coalition appelle à l'implémentation de systèmes d'IA respectueux des droits de l'Homme, gouvernements et entreprises de la Tech interpellés
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de
https://www.developpez.com
Le 08/06/2018 à 13:51
C'est les récentes " découvertes " au sujet des voitures autonomes qui ont voulu cela ?
Surtout que pour l'armée, il faut bien identifier l'objet avant d'agir, sinon, il y aura vraiment beaucoup de " victimes collatérales ".

Stratégiquement, certain ferait même un canon fictif pour forcer à paraitre découvert les forces qui leurs veulent du mal... (probabilités / statistiques)
Citation Envoyé par Coriolan Voir le message
Pensez-vous que la firme a déraillé de son slogan informel "Don't be evil" ?

Culturellement et religieuement, le "diable" est celui qui fait régner le mal et/ou qui puni ceux envoyer vers lui.
Ex: Hadès ou " les gardiens des enfers ". Pratiquement une boite de pandore.
L'enfers est comparable d'une certaine sorte à une prison où l'on ferait subir des sévis et où le directeur serait le diable, intellectuellement et culturellement parlant.

Religieusement, le diable y a été envoyer et y règne vue que c'est une zone de non droits pour les autres. Il peut ainsi faire tout ce qu'il souhaite et comme c'est lui le plus fort à cette endroit, il a le champs libre.
0  0 
Avatar de frenchlover2
Membre du Club https://www.developpez.com
Le 09/06/2018 à 20:04
Ce sera dommage laissant la chance au robots s'il sont meilleurs que nous alors il merite de prendre la relève n'est ce pas l'une des lois de la nature qui laisse l'avantage au espèces qui dominent
1  0 
Avatar de
https://www.developpez.com
Le 10/06/2018 à 10:53
Effectivement, vue de cette façon c'est pas l'armée qui apporte le " mieux vivre ". Pour peu que l'humain arrive à déterminer ce que c'est.

P.S. : j'y vois pas la même chose que les deux IA. Et même d'une personne à l'autre cela peut-être interprété différemment alors qu'il aurait passé leur vie ensemble sans jamais s'être quitté. (ex : bicéphale)
0  0 
Avatar de Patrick Ruiz
Chroniqueur Actualités https://www.developpez.com
Le 22/06/2018 à 12:02
Annulation du contrat IA entre Google et le DoD : quel est le déclencheur ?
Un « groupe de 9 » ingénieurs pour faire la loi à Mountain View ?

Entre les mois de mars et de juin de cette année, on est parti de Google aide le Pentagone à développer une IA pour analyser les vidéos capturées par drone à Google ne renouvellera pas son contrat avec le DoD dans le projet controversé Maven. À ceux qui ont manqué les multiples épisodes entre les deux mentionnés, on rappelle de façon brossée qu’il a fallu la mobilisation de plus de 3000 employés du géant technologique et d’organisations de protections des libertés sur Internet comme l’Electronic Frontier Foundation pour en arriver là.

Il n’y a pas de fumée sans feu, dit-on souvent. Alors, qu’est-ce qui a déclenché cette mobilisation qui a conduit Google à arrêter de collaborer avec le Pentagone dans le cadre de ce projet en intelligence artificielle dénommé Maven ? Réponse rapide : un groupe d’ingénieurs ou si vous préférez, le « groupe de 9. »

L’agence de presse Bloomberg rapporte en effet que plus tôt cette année, ce « groupe influent » d’ingénieurs du génie logiciel a été chargé d’implémenter un air gap – une espèce de cordon de sécurité autour de systèmes informatiques censés héberger des données sensibles. La manœuvre devait permettre à Google de passer le cap de la certification de son infrastructure informatique par le DoD et donc de se voir octroyer des contrats du genre dont on ne parle que dans des chambres noires. Seulement, pour le groupe de 9, une collaboration avec le Pentagone laissait entrevoir une utilisation de la technologie pour la guerre, ce contre quoi il a tenu à manifester son désaccord en refusant de procéder à la mise en œuvre de l’air gap. La suite, on la connaît avec l’effet boule de neige du vent de protestations.


Sans air gap, il devient difficile d’empoigner des portions du gâteau JEDI

De là à dire que le « groupe de 9 » fait la loi à Mountain View ? Ce serait peut-être un peu exagéré, mais le résultat est là : plus de projet Maven. En sus, il y a que sans air gap, le programme JEDI – un contrat de 10 milliards de dollars sur dix ans et pour lequel Google a manifesté un intérêt – s’éloigne. Bloomberg rapporte qu’Amazon et Microsoft disposent de cette certification qui fait tant défaut à Google, ce qui les place en pôle position pour se disputer des morceaux de ce gâteau.

Des membres de l’équipe dirigeante de l’entreprise comme Diane Greene – CEO de Google cloud – sont d’avis qu’elle doit continuer à collaborer avec les agences gouvernementales. « Les agences fédérales comptent parmi les plus gros investisseurs sur les solutions d’entreprise et commencent à graviter autour des services offerts sur le cloud », écrit Bloomberg pour aider à comprendre les raisons d’un tel positionnement. L’agence de presse rapporte que Google a mis une pause sur l’implémentation de l’air gap, mais la situation peut changer à tout moment le temps de trouver de nouvelles mains capables de faire le travail. Ce ne serait pas nouveau sous le ciel dans un contexte où les entreprises de la Tech sont acculées de toutes parts comme l’est Google, mais où l’on trouve certaines comme Amazon qui fournissent des solutions controversées aux forces de défense américaines.

Source : Bloomberg

Et vous ?

Qu’en pensez-vous ? Ces entreprises de la Tech ont-elles vraiment le choix quand on sait que si elles ne se positionnent pas sur de tels créneaux quelqu’un d’autre le fera ?

Que pensez-vous de ces ingénieurs qui refusent de participer à la conception d’armes sophistiquées ?

Voir aussi :

USA : des associations s'érigent contre la technologie de reconnaissance faciale d'Amazon craignant une surveillance de masse par la police

La police chinoise s'équipe de lunettes dotées d'une technologie de reconnaissance faciale, pour scanner les foules à la recherche de suspects

Chine : la police se sert de la reconnaissance faciale pour arrêter un fugitif, la fiction Big Brother de 1984 est-elle devenue une réalité en 2018 ?

Big data : la Chine a commencé à tester son système national de crédit social et menace de priver les citoyens mal notés de certains services de base

Facebook veut utiliser la reconnaissance faciale pour vous prévenir, lorsque quelqu'un publie une photo de vous sur sa plateforme

Mozilla publie une solution d'apprentissage profond pour la reconnaissance vocale, une implémentation TensorFlow de l'architecture Deep Speech
12  0 
Avatar de Calmacil
Membre régulier https://www.developpez.com
Le 22/06/2018 à 12:44
Un gâteau JEDI?

Come to the Dark Side, we have cookies.
2  0 
Avatar de SofEvans
Membre chevronné https://www.developpez.com
Le 22/06/2018 à 17:03
Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois ...
Je ne sais pas qui sont ces 9 personnes, mais elles ont intérêts a être relativement importantes pour Google, parce que là c'est assez hallucinant quand même.
2  2 
Avatar de ManyTwo
Membre du Club https://www.developpez.com
Le 25/06/2018 à 10:56
Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois …
@SofEvans c'est sur dis comme ca cela peut paraitre un peu abusé. Dans un cadre d'entreprises "classiques" ta réaction se comprends facilement, mais on est dans un cadre un peu particulier la quand meme...

Je trouve quand dans certains cas d'éthique il faut avoir le courage de montrer son désaccord. Il est facile après coup de se dire "j'y suis pour rien si mes productions sont utilisées pour tuer des gens, c'est mon patron qu'y m'a demandé".
Si faire certaines taches vont vraiment contre ton éthique, ben ne les fait pas . Quite à démissionner par la suite. La on parle de projets d'IA pour reconnaitre des gens dans un carde militaire, qui finira surement par des assassinats ciblés…

Si ton patron te dit:" écrit un programme pour notre drone qui différencie les civils des combatants et tire automatiquement, avec une marge d'erreur à la reconnaissance de 40%" (exemple arbitraire).

Pour moi, ne pas protester/refuser de faire cela équivaut a avoir une part responsabilité dans les morts civiles faites via TON travail. Tu peux pas te cacher derriere "on m'a dit de le faire c'est pas moi qui décide". Trop facile.
3  0 
Avatar de Matthieu76
Membre éclairé https://www.developpez.com
Le 25/06/2018 à 14:07
Citation Envoyé par ManyTwo Voir le message
Si ton patron te dit:" écrit un programme pour notre drone qui différencie les civils des combatants et tire automatiquement, avec une marge d'erreur à la reconnaissance de 40%" (exemple arbitraire).
Si l'erreur humain est de 45% je pense que c'est intéressant de développer ce drone.

PS : En vrai on est plus proche des 1% que des 40%.
0  2 
Avatar de Stéphane le calme
Chroniqueur Actualités https://www.developpez.com
Le 05/02/2019 à 7:27
Project Maven : Google a fait appel aux travailleurs de la gig economy pour entraîner son IA,
dont l'usage est militaire

Des millions de travailleurs de la gig economy du monde entier vivent maintenant de ce qu’on appelle des sites Web de crowdfunding - un travail qui relève du crowdsourcing ou de la division de tâches en minuscules portions à répartir sur un grand nombre de personnes. Les sites paient à peine 1 dollar de l’heure pour permettre aux utilisateurs d’accomplir des tâches brèves et répétitives, telles que l’identification de motifs sur des images et la production de critiques de produits.

La gig economy signifie, littéralement, l’économie des petits boulots. Le terme, très populaire aux États-Unis, désigne principalement les plateformes collaboratives comme Uber ou Deliveroo qui n’emploient pas des salariés, mais travaillent avec des micro-entrepreneurs (anciennement autoentrepreneurs, qui exercent une entreprise individuelle sous le régime fiscal de la microentreprise.)

Selon un nouveau rapport publié par The Intercept, Google a embauché des employés de la gig economy pour l'aider à mettre en place un programme controversé d'intelligence artificielle que la société avait associé au Pentagone.

Citation Envoyé par The Intercept
Certains de ces travailleurs de la gig economy aidaient inconsciemment à renforcer les capacités de drones sur les champs de bataille du Pentagone.

Le travail a été effectué dans le cadre d'une initiative du ministère de la Défense appelée Project Maven. L'année dernière, The Intercept a annoncé que le Pentagone avait discrètement fait appel à Google dans le cadre du projet de développement d'un programme d'intelligence artificielle destiné à aider les analystes de la Force aérienne à trier rapidement les milliers d'heures de vidéo de drones et à choisir des cibles sur le champ de bataille.

Cependant, le programme d'intelligence artificielle doit apprendre à être capable de distinguer les objets sur les vidéos - et pour que le programme puisse apprendre, il faut que quelqu'un l'enseigne. C’est ici qu’entrent sur scène les travailleurs de la gig economy, chargez de fournir le libellé initial des données d’image - identifiant correctement les parties d’une image - permettant au programme d’intelligence artificielle de Google de distinguer les bâtiments, les images, les arbres et d’autres objets. Le rôle des travailleurs de la gig economy a suscité peu d'attention.

The Intercept affirme avoir obtenus des courriels qui montrent que peu après que Google eût signé l'accord avec l'armée, le géant de la technologie a commencé à travailler pour étiqueter un ensemble d'images satellites capturées par une technologie connue sous le nom d'imagerie animée à grande échelle. En octobre 2017, Google a envoyé à une société appelée CrowdFlower - qui a ensuite pris le nom de Figure Eight - des images brutes contenant des instructions relatives à l'étiquetage des données. Le projet d’étiquetage des données a commencé à montrer des résultats rapidement au cours du mois suivant, alors que les ingénieurs élaboraient de meilleures directives à l’intention des travailleurs de la gig economy pour enseigner à l’intelligence artificielle l’identification des objets.

Le projet Maven, avec l'aide des travailleurs de la gig economy, a été conçu pour permettre aux responsables du Pentagone de procéder à une « analyse en temps quasi réel » et de « cliquer sur un bâtiment pour voir tout ce qui lui est associé », y compris des personnes et des véhicules, selon des documents obtenus par The Intercept.


Selon The Intercept, ces travailleurs ne savaient pas à qui leur travail était destiné ni ce à quoi ils contribuaient.

Citation Envoyé par The Intercept
Will Pleskow, responsable de compte chez Figure Eight, a confirmé le rôle de sa société dans l’initiative Project Maven lors d’un entretien avec The Intercept lors du AI Summit, un salon destiné aux entreprises du secteur de l’apprentissage automatique. Pleskow a déclaré que les travailleurs effectuant l'étiquetage des données, appelés « contributeurs », ne savaient pas qu'ils travaillaient pour Google ou pour l'armée, ce qui n'est pas un arrangement inhabituel.

« Nos clients ont la possibilité de montrer qui ils sont. La plupart du temps, cela reste anonyme », a déclaré Pleskow. Il a ajouté que son entreprise effectuait des tâches d'étiquetage d'image similaires pour améliorer la qualité de la technologie des véhicules autonomes, tels que les voitures sans conducteur.

Plusieurs travailleurs de Figure Eight ont déclaré à The Intercept qu'il n'était pas inhabituel de laisser les travailleurs dans l'ignorance à propos de la manière dont les résultats de leur chaîne de montage de données sont utilisés.

« Les contributeurs à la plateforme Figure Eight ne sont pas informés des destinataires des données », a déclaré un ancien animateur de groupe, qui utilisait son pseudonyme lorsque The Intercept a contacté des médias sociaux. « Habituellement, on leur donne une raison pour laquelle ils effectuent une tâche, telle que "Dessinez des boîtes autour d’un certain produit pour aider les machines à le reconnaître", mais ils ne savent rien de la société qui reçoit les données ».
En juin dernier, Google avait annoncé sa décision de ne pas renouveler son contrat avec le ministère de la Défense, car il concernait le projet Maven après que plus de 3 000 employés eurent signé une pétition pour protester contre son implication dans cette initiative. L'accord devrait se terminer en mars 2019.

Source : The Intercept

Et vous ?

Qu'en pensez-vous ?

Voir aussi :

Google lance Cloud Firestore, une base de données de documents NoSQL sans serveur, serait-elle meilleure que Firebase ?
Après Facebook, c'est Google qui fait aussi passer Screenwise Meter, une application de collecte de données, sur les périphériques iOS
La fermeture de Google+ pour les comptes grand public est prévue le 2 avril 2019, Google révèle aussi quand les données seront supprimées
Google fait ses premiers pas vers la suppression des URL telles qu'on les connait sur le web avec déjà 2 projets en cours d'élaboration
Google Chrome 72 est disponible pour Windows, macOS, Linux et Android : zoom sur les nouveautés
12  0 
Avatar de tmcuh
Membre régulier https://www.developpez.com
Le 05/02/2019 à 13:09
Idée intéressante d'utiliser des petites mains pour faire avancer la reconnaissance d'objets... parler d'intelligence serait quand même un gros mot qui fait toujours débat.

Dommage que Google ne veut pas prendre parti à celà car je pense qu'il a beaucoup à y gagner tant sur le plan technologique, que de reconnaissance "The Brand".
Ce qui est rigolo c'est que les chinois n'ont aucune éthique de ce genre et donc seront les plus avancés d'ici peu et c'est là que les choses sérieuse commenceront
0  0 
Contacter le responsable de la rubrique Accueil

Partenaire : Hébergement Web