Le projet d'IA de Google et le Pentagone était « directement lié » à un contrat de cloud de plusieurs milliards de dollars
D'après une fuite d'emails

Le , par Michael Guilloux, Chroniqueur Actualités
Début mars, il a été porté à la connaissance du public que Google travaillait secrètement avec le Pentagone sur Maven, qui fait référence à un projet d'intelligence artificielle à des fins militaires. Il s'agit en effet d'un projet qui vise à améliorer les opérations de drones en utilisant des technologies de reconnaissance d'images. Selon le Pentagone, l'objectif initial de Maven était de fournir à l'armée une vision par ordinateur avancée, permettant la détection et l'identification automatique d'objets, dans pas moins de 38 catégories, capturés par la caméra d'un drone. Il va par conséquent permettre de suivre à la trace certaines cibles, pour éventuellement mener des frappes.

Google s'est défendu en expliquant que l'entreprise a depuis longtemps travaillé avec des agences du gouvernement américain pour leur fournir des solutions technologiques. Et d'ajouter que son travail sur le projet Maven est « non offensif », car la technologie ne sera pas utilisée pour des frappes ciblées. Les employés de l'entreprise n'ont toutefois pas vu cette situation de la même manière et ont lancé un mouvement de contestation en interne.

Début avril, des milliers d'employés de Google ont signé une lettre pour protester contre l'implication de l'entreprise dans le programme du Pentagone, ce qui pourrait, selon eux, salir de manière irrémédiable l'image de l'entreprise et réduire sa capacité à rivaliser avec les autres géants de la technologie pour attirer les talents. A cela, s'est ajoutée la démission récente d'une douzaine d'employés de Google en signe de protestation.


Trois mois depuis le début de l'affaire, une nouvelle fuite d'emails internes nous révèle que Google avait bien conscience du terrain sur lequel l'entreprise s'aventurait, mais semblait se préoccuper plus de l'opportunité qui se présentait à elle avec le projet Maven. D'après les emails datant de septembre et obtenus par The Intercept, le projet Maven, pour le début, ne semblait pas être un gros contrat : juste une affaire de 25 à 30 millions de dollars selon les emails. Mais au fur et à mesure que le programme allait se développer, Google pourrait empocher jusqu'à 250 millions de dollars par an, expliquait Aileen Black, une des responsables de l'équipe de ventes de Google. Elle affirme en effet que le projet Maven était « directement lié » à un important contrat de cloud computing de plusieurs milliards de dollars et pour lequel les entreprises de la Silicon Valley étaient en compétition. Le contrat concernait « le déplacement agressif du Département américain de la Défense vers le cloud », a-t-elle écrit.

Selon The Intercept, Black faisait référence à la Joint Enterprise Defense Infrastructure (JEDI), un contrat de 10 milliards de dollars sur dix ans et pour lequel Google a manifesté un intérêt. Le programme JEDI a été annoncé le 12 septembre.

D'autres entreprises technologiques telles qu'Amazon étaient en lice, aurait écrit un responsable de Google impliqué dans les négociations. Les emails ont révélé en outre qu'Amazon Web Services, la branche de cloud computing d'Amazon, « a des charges de travail » liées au projet Maven. Google n'avait donc pas intérêt à négliger le projet de drone militaire du Pentagone, mais l'entreprise craignait aussi la réaction du public si sa collaboration avec le Pentagone était divulguée. Google se demandait alors s'il fallait ou non révéler l'accord.

Fei-Fei Li, la chief scientist de la branche IA et machine learning de Google Cloud, a toutefois averti cette affaire donnerait aux médias une occasion de s'acharner sur l'entreprise. « Vous avez probablement entendu Elon Musk et son commentaire selon lequel l'IA provoquerait la troisième guerre mondiale », a-t-elle écrit. « Je ne sais pas ce qui se passerait si les médias commençaient à écrire sur le fait que Google construisait secrètement des armes d'IA ou des technologies IA pour les armes de l'industrie de la Défense », a-t-elle ajouté.

Aileen Black a toutefois essayé de les convaincre dans les discussions internes : « Le contrat n'est pas direct avec Google, mais par le biais d'un partenaire (ECS) et nous avons des conditions qui empêchent les communiqués de presse de se passer sans notre consentement mutuel », a écrit Black. Le département de la Défense « ne dira rien sur Google sans notre approbation », a-t-elle assuré.

Mais cela ne pourrait rester pendant longtemps un secret, et Aileen Black en était consciente. Elle a averti que les nouvelles finiront par être divulguées, par exemple, à travers une requête en vertu du Freedom of Information Act pour obtenir les informations sur le processus de passation de marchés. L'implication de Google dans le projet Maven « finira par sortir », a-t-elle prévenu. Elle a donc jugé qu'il serait approprié pour Google d'annoncer lui-même le contrat, avant que cela soit divulgué d'une autre manière.

L'entreprise n'avait aucun plan de presse pour l'annonce du contrat et a convenu qu'elle devrait travailler pour trouver un « récit » le plus rapidement possible. Mais le projet Maven n'a pas été annoncé publiquement jusqu'à ce que la nouvelle parvienne aux oreilles des médias au mois de mars.

Amazon, qui est cité dans l'affaire, n'a pas répondu à la demande de commentaire de The Intercept. Google Cloud, à travers un porte-parole, a pour sa part rappelé dans un email que la société travaille sur la rédaction de nouveaux principes qui empêchent l'utilisation de l'IA dans l'armement. L'entreprise est toutefois restée silencieuse sur les nouvelles révélations.

Source : The Intercept

Et vous ?

Que pensez-vous de ces nouvelles révélations ?
Croyez-vous que n'importe quelle autre entreprise aurait pris la même décision que Google ?

Voir aussi :

L'intelligence artificielle pourrait mener à la troisième guerre mondiale : un nouvel épisode d'Elon Musk après la déclaration de Vladimir Poutine
L'intelligence artificielle : clé du futur pour dominer sur les nations, d'après le président russe, Vladimir Poutine
Mark Zuckerberg pense que les prédictions d'Elon Musk sur l'IA sont irresponsables, le PDG de Tesla serait-il un peu trop pessimiste ?
Elon Musk appelle les Nations Unies à bannir les robots tueurs dans une lettre ouverte signée par 116 spécialistes de l'IA et la robotique
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse

Avatar de Stan Adkens Stan Adkens - Chroniqueur Actualités https://www.developpez.com
le 02/06/2018 à 3:39
IA : Google ne renouvellera pas son contrat avec le DoD dans le projet controversé Maven,
sa réputation est mise en jeu


Google renonce, ce vendredi matin, à ses ambitions de faire prospérer son revenu tiré du projet d’IA militaire avec le ministère de la Défense des États-Unis dans le cadre du projet Maven. Il a annoncé ne pas vouloir renouveler le contrat qui expire 2019. C’est au cours d’une réunion avec les employés appelée « Weather Report », qui est une mise à jour hebdomadaire sur les activités de Google Cloud, que le PDG de Google Cloud, Diane Greene, a annoncé la décision. En effet, la pression exercée par des employés de Google ainsi que les critiques technologiques ont poussé l’entreprise à réviser sa position. Une dizaine d’employés a, par ailleurs, démissionné suite à une lettre ouverte signée par 3000 employés en début d’avril et restée sans effet pendant un bon moment.

Tout a commencé en mars 2018 lorsque l'implication de Google dans le projet Maven a été révélée dans une enquête menée par Gizmodo.

Gizmodo nous informe que pour Google, le contrat dont les contours demeuraient flous consistait essentiellement à fournir au gouvernement des logiciels libres comme sa plate-forme TensorFlow, cela afin de sécuriser dles contrats plus lucratifs du Pentagone. Greene avait dit aux employés inquiets lors des réunions que le contact de Google avec le ministère de la Défense ne valait que 9 millions de dollars, minimisant ainsi la portée de son engagement avec le DoD. Cependant les mails échangés entre les responsables de la société montrent que Google n’a pas été franc avec ses employés. Les courriers ont prouvé que son implication dans le projet Maven était aussi importante qu’il s'attendait à ce que les revenus provenant des projets d'IA militaires similaires passent de 15 à 250 millions de dollars par an.

Bien que le project Maven n’implique pas l'utilisation de logiciels de Google pour piloter ou participer activement à toute forme de guerre de drones, Google fournissait néanmoins des outils et une expertise dans l'analyse de séquences, selon Gizmodo.

Gizmodo rapporte que le projet Maven viserait à rendre les frappes de drones plus favorables aux civils. Les algorithmes de vision par ordinateur élaborés à l'aide de techniques d'intelligence artificielle, comme l'apprentissage automatique, pourraient en théorie mieux identifier les cibles et réduire les dommages collatéraux, même si la portée de l'implication de Google dans Project Maven n'a jamais été clairement établie. « La technologie est utilisée pour signaler des images à des fins de revue humaine et vise à sauver des vies et à éviter aux gens d'avoir à faire un travail fastidieux », a déclaré Google en avril dernier.

Toutefois, quel que soit le but de son contrat avec le DoD, les employés de Google étaient opposés à quelque utilisation de l’IA pour aider le gouvernement à renforcer son arsenal militaire et contribuer à tuer des personnes. C’est ce qu’ils ont exprimé dans la lettre ouverte au PDG. « Ce contrat met en péril la réputation de Google et s'oppose directement à nos valeurs fondamentales », peut-on lire dans la lettre. « Construire cette technologie pour aider le gouvernement américain dans la surveillance militaire en occasionnant des résultats potentiellement mortels n'est pas acceptable. », a rapporté Gizmodo.

Le PDG a déclaré aux employés que le contrecoup était la principale raison pour laquelle l'entreprise avait décidé de ne pas renouveler son contrat. Par ailleurs, le 18 mai dernier, Google a mis à jour son code de conduite pour supprimer les références importantes à l'ancienne devise de la société, « Ne soyez pas mauvais », qui a depuis été remplacée par « Faites la bonne chose ». Selon Greene, la société annoncera la semaine prochaine une nouvelle série de principes éthiques concernant l'IA et l'armée sans commenter la décision.

Source : Gizmodo

Et vous ?

Que pensez-vous de l’implication de Google dans un projet de développement de logiciel de précision avec le gouvernement américain ?
Les organisations devraient-elles être libres d’utiliser l’IA comme bon leur semble ?
Que pensez-vous de l’IA comme arme de guerre ?

Voir aussi

USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Elon Musk appelle les Nations Unies à bannir les robots tueurs dans une lettre ouverte, signée par 116 spécialistes de l'IA et la robotique
Une intelligence artificielle bat des experts de l'armée de l'air américaine, dans des simulations de combats aériens
Avatar de oooopppp oooopppp - Membre du Club https://www.developpez.com
le 03/06/2018 à 18:34
Et bien voilà ! C'est si compliqué de ne pas faire partie de l'empire du mal ...
Avatar de tmcuh tmcuh - Membre du Club https://www.developpez.com
le 04/06/2018 à 9:06
Aidez-nous à ne pas tuer trop de gens... la blague.
Bravo à Google d'avoir osé sortir de cette m***** .
Il faut avoir peu d'éthique pour développer ce genre de programme dans tous les cas, sans doute l'avidité ou l'égo qui entre en jeu.

De l'autre vous aurez la Chine et la Russie qui n'hésiteront pas une seconde à développer et vendre la technologie à d'autres qui n'auront eu aucune éthique.

Donc In Fine, le développement devra avoir lieu tant que l'organisme (qui sert à rien dans ce monde, en l'état) qui s'appel les Nations Unis n'aura pas mis les "Ola" sur ce genre de technologie folle qui nous pousse à toujours plus de pressions, de guerre, de pauvreté, de déséquilibre ... qui est d'ailleurs nullement lié au capitalisme, mais un manque de gouvernance mondiale.

C'est juste une pierre jetté dans la mare, ça ne fait que retarder les USA, ça ne l'arrêtera pas. Et je pense d'ailleurs que si elle faisait voter à l'U.N. une motion de non proliférations de l'IA a des fins militaires , on avancerait grandement, mais comme la Russie mettra sa motion de censure comme toujours... suite au prochain épisode
Avatar de Ryu2000 Ryu2000 - Membre extrêmement actif https://www.developpez.com
le 04/06/2018 à 9:45
Citation Envoyé par tmcuh Voir le message
C'est juste une pierre jetté dans la mare, ça ne fait que retarder les USA, ça ne l'arrêtera pas. Et je pense d'ailleurs que si elle faisait voter à l'U.N. une motion de non proliférations de l'IA a des fins militaires , on avancerait grandement


Les USA sont de très loin les plus avancé dans le domaine de l'IA militaire et comme cette technologie risque d'être un argument important dans la prochaine guerre mondiale, aucun pays ne va lâcher le truc (la Chine est en 2ieme position).
L’Organisation des Nations unies ne sert à rien, elle n'a jamais empêché le moindre conflit...
Les traités de non prolifération ne sont pas respectés, normalement les pays devraient diminuer leur arsenal nucléaire et c'est pas vraiment le cas... (Israël ne devrait pas avoir d'arme nucléaire et ils en ont beaucoup)

Citation Envoyé par tmcuh Voir le message
qui est d'ailleurs nullement lié au capitalisme
Si la monde est en crise c'est à cause de la finance. (si les nations pouvaient emprunter à taux 0, il y aurait beaucoup moins de problème...)
Maintenant il existe une dette non remboursable, quand ce genre de scénario ce produit il y a des chances que ça finisse en guerre.
La dette ce n'est pas anodin, contrairement à ce que beaucoup répètent.

Citation Envoyé par tmcuh Voir le message
mais un manque de gouvernance mondiale.
Ça n'arrivera jamais. En tout cas je l’espère.
L'UE c'est un peu un gros gouvernement et c'est déjà bien assez ingouvernable comme ça...
Plus ça s'agrandit plus c'est le bordel.

Citation Envoyé par tmcuh Voir le message
De l'autre vous aurez la Chine et la Russie qui n'hésiteront pas une seconde à développer et vendre la technologie à d'autres qui n'auront eu aucune éthique.

Ils essaient juste de ne pas avoir trop de retard pour pouvoir se défendre face aux USA qui ont beaucoup d'avance dans ce domaine.
Vous connaissez le budget militaire US par rapport aux autres pays ?
Liste des pays par dépenses militaires

Les USA sont les premiers en surveillance, vu que les grosses entreprises collaborent avec eux (Google, Apple, Microsoft, Facebook, etc).
Depuis Snowden on sait que la NSA peut surveiller tout le monde sur la planète.
Le gouvernement US avait mis sur écoute Hollande et Merkel par exemple.
Avatar de slowsaz slowsaz - Membre régulier https://www.developpez.com
le 04/06/2018 à 11:02
Citation Envoyé par tmcuh Voir le message

De l'autre vous aurez la Chine et la Russie qui n'hésiteront pas une seconde à développer et vendre la technologie à d'autres qui n'auront eu aucune éthique.

Donc In Fine, le développement devra avoir lieu tant que l'organisme (qui sert à rien dans ce monde, en l'état) qui s'appel les Nations Unis n'aura pas mis les "Ola" sur ce genre de technologie folle qui nous pousse à toujours plus de pressions, de guerre, de pauvreté, de déséquilibre ... qui est d'ailleurs nullement lié au capitalisme, mais un manque de gouvernance mondiale.

C'est juste une pierre jetté dans la mare, ça ne fait que retarder les USA, ça ne l'arrêtera pas. Et je pense d'ailleurs que si elle faisait voter à l'U.N. une motion de non proliférations de l'IA a des fins militaires , on avancerait grandement, mais comme la Russie mettra sa motion de censure comme toujours... suite au prochain épisode
On avait presque oublié que la Chine et la Russie étaient les méchants alors que les USA sont les gentils. C'est totalement logique vu comment l'histoire s'est déroulée que ces pays agissent de cette manière et peu importe ce que vous pensez éthique ou non, ils souhaitent juste ne pas tout reperdre à nouveau à cause d'une entité. Certes, ce n'est pas souhaitable mais il faut bien rappeler qu'il y a une raison à tout ça et que son origine revient toujours au même pays.
Avatar de Ryu2000 Ryu2000 - Membre extrêmement actif https://www.developpez.com
le 05/06/2018 à 11:04
Citation Envoyé par Stan Adkens Voir le message
Que pensez-vous de l’implication de Google dans un projet de développement de logiciel de précision avec le gouvernement américain ?
L'objectif de Google c'est de faire de l'argent.
Donc pourquoi refuser un contrat ?
Les multinationales n'ont généralement pas d'éthique, le but c'est de faire de l'argent, donc il n'y a pas d'histoire de moral.
Comme quand IBM, Ford, Hugo Boss, etc ont travaillé pour les allemands durant la seconde guerre mondiale.

Citation Envoyé par Stan Adkens Voir le message
Les organisations devraient-elles être libres d’utiliser l’IA comme bon leur semble ?
Ce serait chouettes qu'elles évitent de l'utiliser pour surveiller leur propre population.
Les pays développés deviennent des dictatures, nous sommes tous fiché automatiquement.

Citation Envoyé par Stan Adkens Voir le message
Que pensez-vous de l’IA comme arme de guerre ?
Aujourd'hui c'est la course à l'IA, les USA sont loin devant mais la Chine essaie de ne pas trop se faire devancer.
Ça fait super peur, mais quelque part ce n'est pas pire que les armes qu'on utilisé les USA au Vietnam, notamment l'Agent Orange de Monsanto (qu'il faut appeler Bayer maintenant) ou le Napalm.

Vladimir Poutine voit dans l’intelligence artificielle un moyen de dominer le monde :
Le président a prédit que l’intelligence artificielle apporterait « des opportunités colossales et des menaces difficiles à prédire aujourd’hui, avant d’enchaîner, pour galvaniser la jeune Russie : celui qui deviendra le leader de cette sphère sera celui qui dominera le monde. »

Sans parler de l’Occident redouté, Poutine a néanmoins indiqué ses craintes : « Cela serait particulièrement regrettable que quelqu’un gagne une position de monopole [dans le développement de l’IA]. » En outre, le dirigeant ne dissocie pas ces avancées technologiques d’une future force de frappe des armes robotiques. Il s’est notamment étendu sur les drones, qu’il considère comme les armées de demain : « Quand les drones d’un parti seront détruits par ceux d’un autre, celui-ci n’aura pas d’autres choix que de se rendre. »
En parlant de drone ça me rappelle ça :
Iran shows off captured US drone
Quand un drone US capturé en 2011 fait progresser l'industrie de défense iranienne
Les Gardiens de la révolution ont construit et montré un drone dont la technologie est fortement inspirée de celle de l’engin américain ultrasecret RQ-170 Sentinel, saisi au-dessus du territoire iranien en 2011.
=======
=======
Je n'en reviens pas que Google ait accepté de ne pas renouveler son contrat avec le ministère de la Défense des États-Unis dans le cadre du projet Maven.
C'est incroyable qu'un peu de communication et des démissions aient suffit.
Il y a aura peut être une entourloupe, Google va peut être bosser sur un autre projet que Maven pour le ministère de la Défense des États-Unis.
Avatar de Coriolan Coriolan - Chroniqueur Actualités https://www.developpez.com
le 08/06/2018 à 2:31
Google promet de ne pas utiliser l'IA pour le développement d'armes
Mais informe qu'il va continuer à coopérer avec les militaires

En mars, des rapports ont révélé la participation de Google dans un contrat de plusieurs milliards de dollars avec le Pentagone, des révélations qui ont suscité la colère de plusieurs milliers d’employés du géant de la recherche. Et pour cause, il a été révélé que Google aide le Pentagone à développer une IA pour analyser les vidéos par drone. Aussitôt, des organisations comme l’EFF et l’ICRAC ont mis en garde contre une éventuelle utilisation de l’IA pour développer des armes et pour la guerre.

L’implication de Google dans ce projet soulève certainement plusieurs questions d’ordre éthique, c’est pour cette raison que la firme a décidé de publier ce jeudi un guide regroupant les principes auxquels la société adhère pour le développement de l’intelligence artificielle. Parmi les limites que s’est fixées Google, il s’engage à ne pas utiliser son IA pour développer des armes, la surveillance illégale ou des technologies causant un préjudice global. Les nouvelles limites que s’est fixé pourrait aider l’entreprise à calmer l’euphorie de certains de ces employés.


Si Google s’engage à ne pas développer d’armes, il informe néanmoins qu’il va continuer à solliciter des contrats pour travailler avec le gouvernement sur des domaines tels que la cybersécurité, le recrutement militaire et la recherche et sauvetage, a dit Sundar Pichai, PDG de Google.

« Au sein de Google, nous utilisons l’IA pour rendre les produits plus pratiques, de l’email sans spam et plus facile à composer, à l'assistant personnel auquel vous pouvez parler naturellement, aux photos qui mettent en avant ce qui est amusant pour vous divertir, » a écrit Sundar Pichai. « Nous reconnaissons qu’une telle technologie aussi puissante soulève des questions aussi importantes sur son usage. La manière dont l'IA est développée et utilisée aura un impact significatif sur la société pendant de nombreuses années. En tant que leader dans l'IA, nous nous sentons une responsabilité particulière de faire les choses correctement. »

Le projet Maven sur lequel travaille Google vise à améliorer les opérations des drones en utilisant des technologies de reconnaissance d'images. Malgré la pétition des employés de Google et la démission d’au moins une douzaine de Googlers, la firme compte honorer le contrat jusqu’à son expiration en 2019. Selon certains rapports, Google viserait un autre contrat de 10 milliards de dollars avec le Pentagon, un projet auquel prétend aussi IBM, Microsoft et Amazon.

Avec le développement rapide de l’IA, ses applications ont été transférées des laboratoires de recherche aux applications directes dans plusieurs industries comme la défense et la santé. Et les géants de la Silicon Valley comme Google et ses grands rivaux sont devenus de véritables pionniers de la technologie, dotés d’outils capables d’analyser de larges quantités de données, faire des prédictions et identifier des anomalies de façon plus rapide que des humains.

Mais la décision de Google de se fixer des limites vient après des années de mises en garde contre le développement rapide de systèmes automatisés et le développement rapide de l’IA en général. Ainsi, une coalition de défenseurs des droits de l’Homme et d’entreprises technologiques a appelé à la mise sur pied de systèmes d’apprentissage machine respectueux des valeurs de la Déclaration des droits de l’homme.

À vrai dire, les craintes les plus farfelues sont en train de devenir une réalité, le potentiel des systèmes d’IA de mener des attaques par drone sans supervision ou identifier des dissidents grâce à la collecte en masse de données en ligne sont désormais possibles, autant d’exemples qui agacent les éthiciens et académiques. C’est pourquoi lors des dernières années, les critiques se sont multipliées au regard du développement de l’IA et de plus en plus de firmes de la Silicon Valley allouent plus de ressources pour la recherche et le développement d’une IA sans risque, à l’image d’Open IA et d’autres groupes de recherche partout dans le monde.

Google s’est fixé donc des limites éthiques aujourd’hui, mais il faut rappeler, cette promesse n’aurait pas pu avoir lieu si le grand public n’a pas été exposé au scandale du projet Maven, qui est devenu au final une véritable crise de relations publiques pour le géant de la recherche. Car, il faut le dire, lorsque Google s’est engagé dans le projet, la question d’éthique n’a pas été soulevée ni même considérée comme le révèlent les premiers échanges entre les directeurs de la firme, qui se sont concentrés surtout sur la rentabilité du projet et la crainte d’un contrecoup médiatique. Une fois que l’affaire a été révélée, Google a vite entrepris d’organiser des réunions et a prétendu que ce projet n’a pas une grande importance et que l’IA ne sera pas utilisée pour tuer des gens. Bien que la firme n’a pas forcément menti, les mêmes échanges par email entre les exécutifs de la société montrent que ce projet était destiné à évoluer plus tard pour rapporter 250 millions de dollars par an, une somme non négligeable !

Un responsable de Google a informé Reuters que la firme n’aurait pas participé au projet si ces principes étaient déjà en place. Le travail de Google dans le cadre du contrat se rapproche à l’armement, bien qu’il n’est pas destiné à tuer des gens.

Le responsable a décrit les principes comme un modèle auxquels peut adhérer tout développeur. Toutefois, Microsoft et d’autres firmes ont déjà mis en place leurs propres principes pour le développement de l’IA, mais l’attention particulière portée par la communauté aux efforts de Google est liée à la révélation du scandale et la protestation interne des employés contre le contrat de drones.

Source : Reuters

Et vous ?

Pensez-vous que Google a ignoré volontairement la question d'éthique lorsqu'il s'est engagé avec le Pentagone dans le projet Maven ?
Pensez-vous que la firme a déraillé de son slogan informel "Don't be evil" ?

Voir aussi :

IA : Google ne renouvellera pas son contrat avec le DoD dans le projet controversé Maven, sa réputation est mise en jeu
Une coalition appelle à l'implémentation de systèmes d'IA respectueux des droits de l'Homme, gouvernements et entreprises de la Tech interpellés
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Avatar de MikeRowSoft MikeRowSoft - I.A. en bêta-test https://www.developpez.com
le 08/06/2018 à 13:51
C'est les récentes " découvertes " au sujet des voitures autonomes qui ont voulu cela ?
Surtout que pour l'armée, il faut bien identifier l'objet avant d'agir, sinon, il y aura vraiment beaucoup de " victimes collatérales ".

Stratégiquement, certain ferait même un canon fictif pour forcer à paraitre découvert les forces qui leurs veulent du mal... (probabilités / statistiques)
Citation Envoyé par Coriolan Voir le message
Pensez-vous que la firme a déraillé de son slogan informel "Don't be evil" ?

Culturellement et religieuement, le "diable" est celui qui fait régner le mal et/ou qui puni ceux envoyer vers lui.
Ex: Hadès ou " les gardiens des enfers ". Pratiquement une boite de pandore.
L'enfers est comparable d'une certaine sorte à une prison où l'on ferait subir des sévis et où le directeur serait le diable, intellectuellement et culturellement parlant.

Religieusement, le diable y a été envoyer et y règne vue que c'est une zone de non droits pour les autres. Il peut ainsi faire tout ce qu'il souhaite et comme c'est lui le plus fort à cette endroit, il a le champs libre.
Avatar de frenchlover2 frenchlover2 - Membre du Club https://www.developpez.com
le 09/06/2018 à 20:04
Ce sera dommage laissant la chance au robots s'il sont meilleurs que nous alors il merite de prendre la relève n'est ce pas l'une des lois de la nature qui laisse l'avantage au espèces qui dominent
Avatar de MikeRowSoft MikeRowSoft - I.A. en bêta-test https://www.developpez.com
le 10/06/2018 à 10:53
Effectivement, vue de cette façon c'est pas l'armée qui apporte le " mieux vivre ". Pour peu que l'humain arrive à déterminer ce que c'est.

P.S. : j'y vois pas la même chose que les deux IA. Et même d'une personne à l'autre cela peut-être interprété différemment alors qu'il aurait passé leur vie ensemble sans jamais s'être quitté. (ex : bicéphale)
Contacter le responsable de la rubrique Accueil