L'intelligence artificielle est-elle l'arme de la prochaine guerre froide ? Oui
Répond un chercheur en informatique

Le , par Victor Vincent, Chroniqueur Actualités
Partagez-vous l'avis du chercheur quand il affirme que l'IA est l'arme de la prochaine guerre froide
Un chercheur de l’université North Dakota State du nom de Jeremy Straub estime que l’intelligence artificielle sera l’arme de la prochaine guerre froide. Le chercheur fait cette affirmation en se basant sur la situation géopolitique actuelle qu’il compare à celle des années 1980. Selon lui, les deux situations sont assez similaires dans la mesure où « les États-Unis et la Russie s’accusent mutuellement d'ingérence dans les affaires intérieures ». Il ajoute que « la Russie a annexé un territoire malgré les objections des États-Unis », ce qui fait craindre un conflit militaire entre les deux Êtas, déclare le chercheur.

Comme pendant la guerre froide après la Seconde Guerre mondiale, les nations développent et construisent des armes basées sur une technologie de pointe, explique le chercheur. Il ajoute que « pendant la guerre froide, l'arme de choix était les missiles nucléaires, aujourd'hui c'est un logiciel, qu'il soit utilisé pour attaquer des systèmes informatiques ou des cibles dans le monde réel. » Jeremy Straub fait remarquer que « la rhétorique russe sur l'importance de l'intelligence artificielle s'accélère ». Selon lui, « au fur et à mesure que l'intelligence artificielle se développera, elle sera capable de prendre des décisions basées sur plus de données et plus rapidement que les humains. »

« Tout comme pendant la guerre froide entre les années 1940 et 1950 chaque partie a des raisons de craindre que son adversaire ne prenne le dessus sur le plan technologique », déclare le chercheur. En effet, ajoute-t-il, « lors d'une récente réunion à la Strategic Missile Academy près de Moscou, le président russe Vladimir Poutine a suggéré que l'IA pourrait être le moyen par lequel la Russie peut rééquilibrer le changement de pouvoir créé par les États-Unis. » D’après lui, certains médias russes auraient affirmé que l’IA serait la clé de la victoire de la Russie sur les États-Unis.

Ce sont tous ces facteurs qui font que le chercheur établisse un lien entre l’époque de la guerre froide et le contexte actuel du monde. « Cela ressemble remarquablement à la rhétorique de la guerre froide, où les États-Unis et les Soviétiques ont chacun accumulé suffisamment d'armes nucléaires pouvant éliminer toute vie humaine sur terre », dit-il. Le chercheur rappelle que c’est « cette course aux armements qui conduisit au concept de destruction mutuellement assurée : c’est-à-dire qu’aucune des deux parties ne risquait de s'engager dans une guerre ouverte sans risquer sa propre ruine. » N’ayant rien à gagner dans une confrontation directe, les deux parties s’étaient alors livrées à une guerre indirecte à travers de « petits conflits armés et des conflits politiques ». Aujourd'hui, plus de 30 ans après la fin de la guerre froide, les États-Unis et la Russie ont mis hors service des dizaines de milliers d'armes nucléaires, remarque le chercheur. Ce qui lui fait dire que toute guerre froide de nos jours impliquerait inéluctablement des cyberattaques et l’engagement des puissances nucléaires dans les conflits de leurs alliés.

Jeremy Straub estime que les deux parties sont considérées comme étant à force égales en ce qui concerne les cyberarmes, en particulier celles alimentées par l'IA. En effet, il déclare que « la Russie et les hackers soutenant ce pays ont espionné électroniquement, lancé des cyberattaques contre des centrales électriques, des banques, des hôpitaux et des systèmes de transport et se sont ingérés dans le processus électoral américain ». De l’autre côté, « les États-Unis sont certainement capables de répondre et peuvent l'avoir fait », selon le chercheur.

« Les menaces posées par les attaques-surprises des armes nucléaires et des armes sous-marines placées près des frontières d'un pays peuvent conduire certaines nations à confier des tactiques d'autodéfense rapides à un système d'IA », estime le chercheur. Ce qui rend l’IA aussi redoutablement efficace dans ce domaine précis c’est le fait qu’« en cas d'attaque, l'IA pourrait agir plus rapidement sans l'hésitation ou la dissidence potentielle d'un opérateur humain », déclare le chercheur. Il estime que cela peut constituer un moyen de dissuasion efficace, chacune des deux parties sachant que l’autre partie est prête à répondre et que toute attaque impliquerait une destruction mutuelle.

« L'IA peut également être utilisée pour contrôler des armes non nucléaires comme des véhicules sans pilote, des drones et d’autres cyberarmes », d’après le chercheur. Il estime que l’IA pourrait notamment aider à contrôler les véhicules sans pilote même si la communication avec ces derniers était perdue. De même, ajoute le chercheur, « les cyberarmes peuvent devoir fonctionner au-delà de la portée des communications ». Dans certains contextes, « leur réaction peut exiger une réponse si rapide qu’elles seraient mieux lancées et contrôlées par les systèmes d'IA ».

« Les attaques coordonnées par l'IA peuvent lancer des armes cybernétiques ou réelles presque instantanément » , déclare le chercheur. Cela donne d’après lui, la possibilité aux puissances de prendre « la décision d'attaquer avant même que quelqu'un ne s'en aperçoive ». Les systèmes d'IA peuvent changer les cibles et les techniques plus rapidement que les humains, déclare le Jeremy Straub. Par exemple, « un système d'IA pourrait lancer un drone pour attaquer une usine, observer des drones qui répondent pour se défendre et lancer une cyberattaque contre ces drones, sans interruption notable. »

La course pour le contrôle des systèmes d’intelligences artificielles n’en est qu’à ses débuts, à en croire les observations du chercheur. En effet, il estime qu’ « un pays qui pense que ses adversaires ont ou obtiendront des armes dotées d’intelligence artificielle voudra les avoir aussi ». Cependant, on est encore loin de l’époque où les États utiliseront l’intelligence artificielle pour mener des cyberattaques de façon ouverte. D’après lui, « les pays pourraient convenir d'une sorte de convention numérique de Genève pour limiter les conflits qui pourraient être déclenchés par l’intelligence artificielle ». Il estime cependant que cela ne suffirait probablement pas à arrêter « les attaques menées par des groupes nationalistes indépendants, des milices, des organisations criminelles, des terroristes entre autres. »

L’intelligence artificielle n’est pas qu’une source de conflit potentiel, estime le chercheur. « Les IA avancées peuvent créer des avantages pour les entreprises d'un pays et pas seulement sur le plan militaire. » Cependant, cela peut creuser les inégalités et désavantager notamment les pays qui n’ont pas les moyens financiers nécessaires pour se lancer dans une course à l’intelligence artificielle, d’après le chercheur. Il pense qu’à terme, comme cela a été le cas pour les armes nucléaires, l’IA pourrait n’être qu’un moyen de dissuasion sur le plan militaire.

Source : theconversation.com

Et vous ?

Que pensez-vous de l'analyse du chercheur ?

Voir aussi

Bill Gates estime que l’IA rendra l’homme plus efficace dans son travail et lui donnera plus de temps libre dans le futur

IA : Google étend ses activités en France en ouvrant un nouveau centre dédié à la recherche dans le domaine de la santé et la science

L’IA et l’analyse prédictive permettraient de lutter plus efficacement contre les cyberattaques d’après les entreprises de cybersécurité françaises


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse

Avatar de AhyGoon AhyGoon - Membre du Club https://www.developpez.com
le 30/01/2018 à 13:24
Cela me rappelle le scénario d'un film ...
Avatar de commandantFred commandantFred - Membre régulier https://www.developpez.com
le 30/01/2018 à 14:21
L'IA n'est pas une arme. Pour qu'elle soit détournée à des fins militaires, il lui faut un "vecteur de coercition" qui sera vraisemblablement une arme mais l'IA ne fera que décider de son utilisation. L'arme ne change pas, l'IA n'est qu'un support de décision , à proprement parler, ce n'est donc pas une arme. Et très concrètement si je vous donne 100 milliards $ et que je vous demande d'utiliser l'IA pour annexer un pays, vous ferez quoi ?
Vous achèterez des armes !
L'IA n'est pas une arme.

La question est donc inepte. Or l'IA est déjà assez compliquée comme ça, si en plus, on se trompe de nom , ça n'aide pas à y voir plus clair !

EDIT :

A ma connaissance, l'USAF a fait des essais grandeur nature utilisant un genre de minimax pour coordonner des combats aériens. Les conclusions étaient très favorables. Il est évident que quand on connait bien les avions et qu'on sait faire des simulateurs de vol, on peut optimiser les mouvements de chaque "vecteur" pour parvenir à un avantage tactique maximum.
Mais on est bien d'accord : l'arme, ce sont les avions, l'IA ne fait que se substituer au commandement tactique et au pilotage.
Or ni l'un ni l'autre ne sont considérés comme des armes. Ce sont soit des cadres militaires soit des combattants.

Ce qui est sûr, c'est que l'IA se place surtout en substitution du management. Elle n'est pas l'outil qui va agir sur son environnement, elle n'en est que l'utilisateur.

Maintenant, on peut extrapoler sur ce que peut faire une IA dans une cyber-attaque mais ce ne sont que des spéculations. L'éternel paradigme de l'IA est qu'il est plus optimal de coder les comportements "en dur". Si on met de l'IA c'est pour prendre des décisions trop complexes pour un cerveau biologique pour diverses raisons mais celle qui revient toujours est le manque de temps.

Qu'on navigue dans les fantasmes des uns ou dans les références cinématographiques des autres, on aborde toujours ces questions du point de vue des gens qui ne pratiquent pas l'IA !
Personnellement , je m'attends à mieux de la part d'un site web consacré au développement !
Avatar de shadowmoon shadowmoon - Membre chevronné https://www.developpez.com
le 30/01/2018 à 15:21
Citation Envoyé par commandantFred Voir le message
L'IA n'est pas une arme. Pour qu'elle soit détournée à des fins militaires, il lui faut un "vecteur de coercition"
Je suis d'accord sur le fait que l'IA n'est pas une arme en elle-même. Par contre c'est un outil très puissant, qui n'a besoin d'aucun "vecteur de coercition", pour être utilisée à des fins militaires.

Surtout dans le cas d'une nouvelle "Guerre Froide", où le point stratégique primordial sera la collecte et le traitement de données pour obtenir les informations les plus exploitables et les plus rentables possibles.

En effet, dans notre monde "moderne" et "développé", constituer des "dossiers" incriminant les dirigeants adverses est une des meilleures garanties de "tranquillité".

Dans ce contexte, une IA, bien conçue et bien implémentée, sera bien plus efficace que n'importe laquelle des armes conventionnelles (cad non nucléaire).

En étant précis, je concède que, pour un gouvernement, l’intérêt de détourner une IA ne se situe pas sur le plan militaire au sens strict du terme, mais plutôt sur le plan de l'espionnage.
Avatar de commandantFred commandantFred - Membre régulier https://www.developpez.com
le 30/01/2018 à 15:42
Citation Envoyé par shadowmoon Voir le message
Je suis d'accord sur le fait que l'IA n'est pas une arme en elle-même. Par contre c'est un outil très puissant, qui n'a besoin d'aucun "vecteur de coercition", pour être utilisée à des fins militaires.

Surtout dans le cas d'une nouvelle "Guerre Froide", où le point stratégique primordial sera la collecte et le traitement de données pour obtenir les informations les plus exploitables et les plus rentables possibles.
(...)
En étant précis, je concède que, pour un gouvernement, l’intérêt de détourner une IA ne se situe pas sur le plan militaire au sens strict du terme, mais plutôt sur le plan de l'espionnage.
Ok, c'est plausible mais on n'a pas attendu l'IA pour faire ça...
Certaines agences gouvernementales le faisaient très efficacement juste après la seconde guerre mondiale, on appelait ça de "l'intelligence"

Mais alors , c'est le mot IA qui va poser problème. On peut dire qu'un vérin hydraulique est une IA fantastique et beaucoup plus efficace que beaucoup d'autres. C'est artificiel et ça abat le boulot de 50 gars en une pelletée ...

Je ne suis pas prof de langues , je me fiche pas mal qu'on utilise des mots à la place d'autres mais il faut admettre que l'IA est un peu plus exigeante en termes de précision, à moins qu'on se place volontairement dans un contexte de SF Fantasy. Je me demande juste quand on va se décider à faire évoluer la vieille référence à Terminator dés que quelqu'un aborde ce sujet qui est pourtant devenu très concret depuis que Tensorflow est en open source.

Si on parle plus d'IA aujourd'hui qu'avant , c'est surtout à cause des neurones de Tensorflow et on admet que des algorithmes plus anciens en font partie (minimaxes, recherches de chemin, asservissements, ...)

EDIT : Je précise que je fais de l'IA et que je suis dans les 3 premiers sur plusieurs hackatons
Avatar de MikeRowSoft MikeRowSoft - I.A. en bêta-test https://www.developpez.com
le 30/01/2018 à 17:26
[...]Il ajoute que « pendant la guerre froide, l'arme de choix était les missiles nucléaires, aujourd'hui c'est un logiciel, qu'il soit utilisé pour attaquer des systèmes informatiques ou des cibles dans le monde réel. »
[...]
Que pensez-vous de l'analyse du chercheur ?
[...]

Cependant, à l'E3, j'ai vue dans le même genre et pourtant c'est commercial.
Avatar de Namica Namica - Membre éprouvé https://www.developpez.com
le 31/01/2018 à 6:44
Citation Envoyé par commandantFred Voir le message
Mais alors , c'est le mot IA qui va poser problème. On peut dire qu'un vérin hydraulique est une IA fantastique et beaucoup plus efficace que beaucoup d'autres. C'est artificiel et ça abat le boulot de 50 gars en une pelletée ...
Pas d'accord avec ton acceptation du mot IA.
Ton vérin hydraulique n'est qu'un outil commandé par un opérateur. Le vérin ne propose pas de manière autonome une solution à un choix d'opérations face à un problème qu'il n'a même pas évalué et ne prend pas de décision. Il n'est pas autonome.
Sauf s'il serait commandé par une IA qui aurait les senseurs nécessaires pour analyser la situation et les algorithmes nécessaires pour agir.
Si non, tu pourrais dire qu'une simple viseuse pourquoi pas un bête tournevis est aussi une IA vu que cet outil multiple les capacités de l'être humain.
Le clavier de ta console est-il une IA parce qu'il t'évite d'actionner à la main une série de micro-interrupteur pour transmettre un caractère ?
Un robot de peinture dans l'industrie automobile n'est pas non plus une IA même s'il possède quelques senseurs pour positionner correctement ses buses de peinture et est relativement autonome.
Avatar de commandantFred commandantFred - Membre régulier https://www.developpez.com
le 31/01/2018 à 11:11
Citation Envoyé par Namica Voir le message
Pas d'accord avec ton acceptation du mot IA.
Ton vérin hydraulique n'est qu'un outil commandé par un opérateur. Le vérin ne propose pas de manière autonome une solution à un choix d'opérations face à un problème qu'il n'a même pas évalué et ne prend pas de décision. Il n'est pas autonome.
Sauf s'il serait commandé par une IA qui aurait les senseurs nécessaires pour analyser la situation et les algorithmes nécessaires pour agir.
Si non, tu pourrais dire qu'une simple viseuse pourquoi pas un bête tournevis est aussi une IA vu que cet outil multiple les capacités de l'être humain.
Le clavier de ta console est-il une IA parce qu'il t'évite d'actionner à la main une série de micro-interrupteur pour transmettre un caractère ?
Un robot de peinture dans l'industrie automobile n'est pas non plus une IA même s'il possède quelques senseurs pour positionner correctement ses buses de peinture et est relativement autonome.
Je suis parfaitement d'accord. Un vérin n'est absolument pas une IA et une arme non plus.

L'IA s'intercale entre une décision humaine et son exécution mais s'arrête au stade décisionnaire. Maintenant on a toute la fantasmatique Terminator qui l'associe à un robot surpuissant et celle d'E.Musk qui la voit comme l'apprenti sorcier de Disney, exécutant sa tâche à l'infini jusqu'à sacrifier l'humanité entière pour continuer indéfiniment son travail jusqu'à épuisement des ressources de l'univers. Tout ça est génial et divertissant mais pour l'instant, ce serait bien de savoir de quoi on parle !

L'article parle d'un chercheur anonyme qui présume que l'IA est une arme et construit des hypothèses sur ce principe. Or l'IA n'est pas une arme et les hypothèses sont donc sérieusement à revoir ...

EDIT : J'interviens sur cette question parce que je trouve cet article très négatif pour l'image de l'IA que je pratique quotidiennement. Le sentiment qu'on en retire est effrayant alors que son raisonnement est absurde.
Je rappelle qu'un candidat à la présidentielle avait inscrit dans son programme la taxation des robots pour des motifs malavisés. Il avait certainement lu des articles comme celui là et conclu que notre métier fait du mal à la société et que le rôle des politiques est de lui mettre des bâtons dans les roues.
Il me semble donc, qu'il est important de mieux cerner les enjeux de notre activité si on veut éviter de faire l'objet de chasse aux sorcières à la suite de tels articles.
Avatar de Balian d'Ibelin Balian d'Ibelin - Membre à l'essai https://www.developpez.com
le 31/01/2018 à 15:25
En premier lieu, le fait que le chercheur en question choisisse ici d'adopter une position relativement apaisée et objective constitue en soi un point positif qu'il convient à mon sens de souligner. En effet, malgré l'apparente virulence des termes de "guerre froide" employés par le spécialiste, nous sommes bien loin des envolées médiatiques que l'on peut souvent constater de la part de bon nombre de commentateurs (dont des spécialistes comme Elon Musk, qui invoque régulièrement au cours de ses interventions le risque imminent d'une "troisième guerre mondiale").

Or, la présence de l'adjectif "froide" n'est pas anodine puisqu'il renvoie à l'idée que l'intelligence artificielle qui aura été dédiée à l'exercice du pouvoir militaire serait finalement beaucoup plus utilisée dans un objectif de dissuasion que de confrontation directe entre les différents Etats, à condition bien sûr que ceux-ci disposent de moyens suffisants en la matière afin de conserver leur souveraineté.

En effet, si les Etats qui sont aujourd'hui les plus puissants financièrement et qui ont commencé à investir dans l'IA s'assurent presque une place confortable dans le domaine des relations internationales d'un futur proche, ceux qui subissent actuellement une situation de faiblesse voire de dépendance économique risquent de se trouver dans une situation d'inégalité dont la teneur ne fera qu'accroître avec le temps. D'autant plus que, d'après un rapport de la Conférence des Nations Unies sur le commerce et le développement rendu en 2016, les pays en voie de développement compteront parmi les premiers sinistrés de l'intelligence artificielle, puisque "l’utilisation accrue de robots dans les pays développés risque d’éroder l’avantage traditionnel du coût de la main-d’œuvre des pays en développement".

De ce fait, il apparaît que ce que l'on pourrait appeler poétiquement le monde de demain sera très probablement concentré entre les mains des grands leaders de la société internationale d'aujourd'hui, du moins si l'on s'en tient aux déductions auxquelles nous permettent de parvenir l'observation des investissements réalisés en ce moment même dans l'intelligence artificielle. On pourrait dès lors supposer que la Chine, les Etats-Unis, la Russie mais aussi d'autres Etats asiatiques tels que le Japon ou encore la Corée du Sud seront les entités dominantes du prochain système axé sur l'IA.
Malgré de gros efforts, les investissements réalisés par la France (et l'Union européenne ?) montrent que celle-ci semble être vouée à rester derrière le peloton de tête et, si guerre froide il y a, à se trouver une fois de plus à devoir choisir un camp... à condition qu'elle ne finisse pas par devenir une forme de colonie des Etats qui seront les plus développés.

Sources:
https://www.lexpress.fr/actualite/sc...e_1940453.html
https://iatranshumanisme.com/wp-cont...b2016d6_en.pdf
https://iatranshumanisme.com/2016/11...developpement/
https://pierre-antoine-rizk.com/2017...ete-nationale/
http://www.lemonde.fr/pixels/article...8_4408996.html
Avatar de Matthieu Vergne Matthieu Vergne - Expert éminent https://www.developpez.com
le 31/01/2018 à 20:42
Citation Envoyé par Namica Voir le message
Pas d'accord avec ton acceptation du mot IA.
Ton vérin hydraulique n'est qu'un outil commandé par un opérateur. Le vérin ne propose pas de manière autonome une solution à un choix d'opérations face à un problème qu'il n'a même pas évalué et ne prend pas de décision. Il n'est pas autonome.
Une IA est aussi un outil. Sans utilisateur, la machine ne se lance pas, n'évalue rien et ne prend pas de décision. Une IA ne va pas, de manière autonome, te suggérer ceci ou cela, elle va le faire parce qu'elle a été mise en marche pour cela. C'est certes un outil avancé, mais un outil quand même. On l'oublie trop souvent.
Avatar de Mat.M Mat.M - Expert éminent sénior https://www.developpez.com
le 31/01/2018 à 21:00
Citation Envoyé par shadowmoon Voir le message
Je suis d'accord sur le fait que l'IA n'est pas une arme en elle-même. Par contre c'est un outil très puissant, qui n'a besoin d'aucun "vecteur de coercition", pour être utilisée à des fins militaires.
d'accord mais sur quel critères se base-t-on dans le cadre d'opérations militaires pour définir ce qui appartient à l'ennemi ?
Par exemple en Afghanistan un combattant Taliban peut très bien récupérer un uniforme de soldat américain et essayer de s'infiltrer dans une base militaire américaine.
Citation Envoyé par Matthieu Vergne Voir le message
Une IA est aussi un outil. Sans utilisateur, la machine ne se lance pas, n'évalue rien et ne prend pas de décision. Une IA ne va pas, de manière autonome, te suggérer ceci ou cela, elle va le faire parce qu'elle a été mise en marche pour cela. C'est certes un outil avancé, mais un outil quand même. On l'oublie trop souvent.
je suis d'accord donc pour tout ce qui est Deep Learning et machin bidule cognitif c'est bidon alors ?
Contacter le responsable de la rubrique Accueil