L'intelligence artificielle pourrait mener à la troisième guerre mondiale :
Un nouvel épisode d'Elon Musk après la déclaration de Vladimir Poutine
Le 2017-09-04 20:43:23, par Michael Guilloux, Chroniqueur Actualités
Si les États-Unis ont une bonne longueur d’avance sur les autres pays dans le domaine de l’intelligence artificielle, il semble que les autres n’ont pas encore dit leur dernier mot. La course est lancée, la Chine a exprimé son intention de devenir leader mondial de l’IA. La France aussi ne veut pas rester en marge. Et c’est maintenant la Russie qui, à travers les propos de son président, a lancé un message clair à la jeunesse russe : « L’intelligence artificielle est le futur, pas seulement pour la Russie, mais pour toute l’humanité. Avec elle, arrivent d’énormes opportunités, mais également des menaces qu’il est difficile de prédire. Celui qui réussira à s’imposer comme leader dans cette sphère sera le maître du monde », a déclaré Vladimir Poutine dans son message du premier septembre, jour officiel de rentrée scolaire en Russie.
Cette course apparente pour devenir leader de l’intelligence artificielle vient encore alimenter les craintes d’Elon Musk, lui qui avait déjà qualifié l’IA comme étant un risque fondamental pour l’existence de la civilisation humaine. Il pense d’ailleurs qu'elle est potentiellement plus dangereuse que les armes nucléaires et le plan de terreur de la Corée du Nord. Après la déclaration de Vladimir Poutine, le patron de Tesla a tweeté pour dire qu’après la Chine et la Russie, bientôt tous les pays avec de grandes compétences en informatique se lanceront dans cette course. « Cette compétition pour la supériorité de l’IA au niveau national va probablement provoquer la troisième guerre mondiale, à mon avis », dit-il.
Le mois dernier, il faisait encore partie de plus de 100 signataires (spécialistes de l’IA et de la robotique) d’une lettre ouverte qui demandaient à un groupe d’experts gouvernementaux de l’ONU d’interdire les armes autonomes létales.
« Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre. Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes détournées pour se comporter de manière indésirable. Nous n'avons pas assez de temps pour agir », ont-ils averti. « Une fois que cette boîte de Pandore est ouverte, il sera difficile de la fermer. »
Et vous ?
Que pensez-vous de la course pour devenir leader mondial de l’intelligence artificielle ?
La France est-elle prête pour cette course ?
Les inquiétudes d’Elon Musk sont-elles fondées ?
Voir aussi :
L'intelligence artificielle : clé du futur pour dominer sur les nations d'après le président russe, Vladimir Poutine
Mark Zuckerberg pense que les prédictions d'Elon Musk sur l'IA sont irresponsables, le PDG de Tesla serait-il un peu trop pessimiste ?
La Chine veut devenir leader mondial de l'intelligence artificielle, avec un plan de développement national visant à augmenter son poids économique
Cette course apparente pour devenir leader de l’intelligence artificielle vient encore alimenter les craintes d’Elon Musk, lui qui avait déjà qualifié l’IA comme étant un risque fondamental pour l’existence de la civilisation humaine. Il pense d’ailleurs qu'elle est potentiellement plus dangereuse que les armes nucléaires et le plan de terreur de la Corée du Nord. Après la déclaration de Vladimir Poutine, le patron de Tesla a tweeté pour dire qu’après la Chine et la Russie, bientôt tous les pays avec de grandes compétences en informatique se lanceront dans cette course. « Cette compétition pour la supériorité de l’IA au niveau national va probablement provoquer la troisième guerre mondiale, à mon avis », dit-il.
Le mois dernier, il faisait encore partie de plus de 100 signataires (spécialistes de l’IA et de la robotique) d’une lettre ouverte qui demandaient à un groupe d’experts gouvernementaux de l’ONU d’interdire les armes autonomes létales.
« Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre. Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes détournées pour se comporter de manière indésirable. Nous n'avons pas assez de temps pour agir », ont-ils averti. « Une fois que cette boîte de Pandore est ouverte, il sera difficile de la fermer. »
Et vous ?
Voir aussi :
-
Que pensez-vous de la course pour devenir leader mondial de l’intelligence artificielle ?La France est-elle prête pour cette course ?Les inquiétudes d’Elon Musk sont-elles fondées ?
Le monde est toujours en guerre depuis des milliers d'années, qu'elle soit mondiale ou locale ne change pas grand chose et l'IA + robotique feront partie des armes future et y'a pas besoin de boule de cristal pour l'affirmer.le 05/09/2017 à 0:37 -
BufferBobExpert éminenttoujours plus...le 04/09/2017 à 21:36
-
NamicaMembre expérimentéHummm...
Le point GodWin ne mériterait-il pas une adaptation/élargissement ?
Pour rappel: https://fr.wikipedia.org/wiki/Loi_de_Godwin
« Plus une discussion en ligne dure longtemps, plus la probabilité d'y trouver une comparaison impliquant les nazis ou Adolf Hitler s’approche de 1. »
Je propose:
Plus un sujet concerne l'I.A., plus la probabilité d'y trouver des opinions
- ignorantes du sujet est élevée
- manifestant des avis retardataires/obscurantistes est élevée
Avis @ SuperLow
Si un type comme Elon Musk émet un avis, j'écoute ce qu'il a à dire.
Si je ne suis pas d'accord, j'expose mes arguments. Si je n'en ai pas, je m'abstiens de l'ouvrir.
Si tu n'es pas d'accord avec la ligne éditoriale de nos chroniqueurs, que fais-tu ici à part critiquer et sans fournir d'arguments alternatifs ?le 04/09/2017 à 23:58 -
Ryu2000Membre extrêmement actifNormalement il y a l'équilibre de la terreur, c'est : "J'ai des bombes atomiques donc si tu m'attaques, juste avant de me faire toucher je t'envoie une bombe atomique et comme ça on s'auto détruit".
C'est supposé empêcher les guerres (c'est un peu con comme système).
Par contre en Corée du Nord ce n'est pas un plan de terreur.
La Corée du Nord subit les provocation des USA (l'armée US est en Corée du Sud, alors que la Corée du Sud n'a rien demandé).
Il y a des avions militaires US qui survolent la Corée du Nord, c'est une grosse provocation :
US bombers fly over Korean Peninsula in response to N. Korea's ICBM test
La Corée du Sud et la Corée du Nord veulent se rapprocher mutuellement :
Le nouveau président sud-coréen peut-il réconcilier les deux Corées ?
Tweet de Trump :
South Korea is finding, as I have told them, that their talk of appeasement with North Korea will not work, they only understand one thing!
La vrai menace sur le monde ce sont les USA. La Corée du Nord veut juste vivre en paix.
Ouais alors interdire les armes autonomes ce serait cool.
Parce qu'après il va y avoir des drones muni de fusil d'assaut, ça va pas être marrant.
Des mini tanks, des robots, etc...
Mais bon intelligence artificielle ne signifie pas automatiquement armes autonomes létales.
On peut faire autre chose avec de l’intelligence artificielle...
Si l'IA avance elle va finir par conseiller aux humains de ne pas faire de guerre et de trouver une solution alternative.
le 05/09/2017 à 9:20 -
LapinGarouMembre confirméN'empêche, si certains s'en emparaient, comme par exemple, si Daesh s'en trouvait juste 1 ou 2 ou 3 qu'ils auraient reprogrammés, vu qu'il parait que n'importe qui peut être terroriste puisqu'il n'y pas de signes précurseurs à la radicalisation, ça peut être un militaire qui s'occupe de la maintenance de ces drones, et que ces andouilles (pour rester poli et ne pas me faire censurer) les lâchaient en plein Champs Elysées ou braderie de Lille... ça serait un massacre, parce qu'à priori si c'est bien codé avec une bonne détection des formes/mouvements, un tel robot ne loupe jamais sa cible en anticipant les trajectoires des cibles...
Par contre, un gros mouvement social de ceux qui perdent leurs jobs remplacés par de l'IA parce que... il n'y a pas besoin d'un seul développeur dédié à une seule par machine, donc on ne me fera pas croire que les emplois perdus sont tous replacés ailleurs, peut être des rixes, on envoie les drones à la place des CRS pour les gazer ou les disperser (après tout ils ont une meilleure protection contre les caillasses et les c. molotov) et hop ça dégénère parce que comme ce sont des robots, on peut y aller à fond on tue personne donc on fonce avec un camion dessus, etc... No limits...le 05/09/2017 à 14:38 -
Mat.MExpert éminent séniorc'est une véritable imbécilité et escroquerie orchestrée par les américains...
en fait les Américains veulent essayer de reproduire la course aux armements qui avait eu lieu à la fin de la seconde guerre mondiale et pendant la guerre froide.
L'intérêt de cette course aux armements était que l'ex Union Soviétique consacrait majoritairement ses efforts de production industrielle, ses ressources économique à fabriquer des missiles et armes nucléaires ( et classiques aussi)
Ce qui contribua à....appauvrir l'ex URSS et mena à sa banqueroute latente, ce n'est pas moi qui l'affirme c'est Michael Moore dans son livre "stupid white men"
Donc se lancer dans une telle course c'est un non-sens car beaucoup de fonds financiers vont être investis pour un résultat improbablele 05/09/2017 à 13:44 -
Ryu2000Membre extrêmement actifOu alors ils ne veulent pas créer des armes intelligentes, mais des intelligences qui se battent. :O
Au lieu d'envoyer des soldats, la prochaine guerre sera peut être joué par des IA sur Age Of Empires 2 ou aux échecs.le 05/09/2017 à 13:51 -
BufferBobExpert éminentje vois pas ce qui te fait dire ça, c'est pas comme si on était en train de dire que l'IA de Call of Duty 42 pourrait créer des robots-terroristes-zombis-nucléairesEnfin, dernière règle "Don't feed the troll"le 05/09/2017 à 17:52
-
Mat.MExpert éminent sénioroui mais la relation que l'on peut faire avec le régime nazi c'est très discutable et on dérive sur le hors-sujet
Le régime politique d'Hitler et des nazis était un système politique donc ayant pour objectivité de gérer un espace social, politique économique par la dictature certes; un robot est une entité individuelle à contrario
ça c'est exact mais l'ignorance ne vient pas seulement que des membres de ce forum elle vient aussi des gens que l'on entend dans les médias
Ensuite il faudrait d'abord définir précisément ce que c'est l'intelligence artificielle et ce que j'entends à droite et à gauche dans les médias c'est une vision plutôt protéiforme et hétérogène de choses diverses et variées bref pour parler franchement c'est un peu tout et n'importe quoi
Pour ce qui est des armes léthales robotisées qui ont été abordées précédemment, en quelques mots parce qu'il y a long à dire là dessus il est nécessaire de préciser les problématiques:-est ce qu'un robot "tueur" peut-être autonome ?
-comment fera-t-il pour désigner l'ennemi ? Sur quels critères peut-on déterminer un ennemi ? ( d'où la nécessité d'une normalisation)
-comment le robot fait s'il est à court de munnitions ?
bref c'est un tas de questions à se poser
d'une part s'il est dirigé à distance alors ce n'est plus tout à fait un robot et il n'ya aucune intelligence artificielle là-dedans..
ensuite admettons qu'un robot tueur est pourvu d'une intelligence artificielle, le temps qu'il soit occupé à tirer sur des cibles précises n'empêche pas un militaire ou policier de tirer dessus avec une arme anti-char par exemple ou un lance-roquettele 05/09/2017 à 19:18 -
Ryu2000Membre extrêmement actifÇa me rappelle cette vidéo que j'ai regardé il y a quelques années :
Ya un ingénieur qui dit qu'ils ne font pas un Terminator mais un C3PO. ^^le 06/09/2017 à 8:37