Que se passera-t-il si des robots tueurs sont piratés ou détournés ?
La question fait débat au sein de la communauté scientifique
Le 2018-10-01 13:25:33, par Bill Fassinou, Chroniqueur Actualités
Dans une lettre ouverte co-signée par une multitude de spécialistes en IA, Elon Musk a appelé les Nations Unies à tout simplement interdire les robots tueurs. « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre. Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes détournées pour se comporter de manière indésirable. Nous n'avons pas assez de temps pour agir. Une fois que cette boîte de Pandore est ouverte, il sera difficile de la fermer », avertissent-ils.
En effet, la menace que représentent les robots tueurs ou armes autonomes létales a été largement démontrée. Les intelligences artificielles sur lesquelles reposent les systèmes de ces robots sont tout sauf inviolables. Elles ont prouvé à maintes reprises qu’elles étaient faillibles. Par exemple, des scientifiques ont réussi à induire une IA en erreur en altérant quelques éléments d’une tortue imprimée en 3D. Le résultat en a été que l’IA a considéré la tortue comme étant un fusil.
A l’argument de la faillibilité des IA, les défenseurs de la cause des robots tueurs répondent que l’apprentissage automatique est encore à ses débuts et qu’il suffisait de le laisser progresser afin de rendre les IA moins vulnérables. Toutefois, on est tenté de se demander quelle intelligence artificielle, quel système informatique connecté ne peut pas être piraté ou détourné ? Imaginez qu’un drone autonome se fasse pirater par un terroriste. Imaginez combien de personnes pourraient perdre la vie à cause de cette même technologie conçue pour empêcher au maximum les dommages collatéraux. Car, rappelons-le, l’idée des armes autonomes létales a germé dans le but d’empêcher les pertes en vies humaines résultant d’erreurs de jugement humaines. Imaginez qu’un pirate décide de prendre le contrôle, non pas d’un mais d’une flotte entière de drones. Imaginez les dégâts qu’il pourrait occasionner. Des gens mourraient par milliers et des pans entiers de villes seraient réduits en cendres.
Cependant, la triste réalité est que les gouvernements semblent ne pas prendre ou ne pas vouloir prendre conscience. Le gouvernement américain, par exemple a déjà annoncé une subvention de 2 milliards de dollars visant à aider à la production de la prochaine vague d’intelligences artificielles avancées, l’objectif visé étant de concevoir des machines pouvant communiquer et raisonner comme des humains et pouvant s’adapter à tout nouvel environnement ou à toute nouvelle situation.
Les avis des internautes sur la question sont tranchés. Ils expliquent que la conception de soldats robotiques pour remplacer ceux humains était une mauvaise idée. Ils ajoutent que la seule chose qui empêche les pays de se faire la guerre comme ils l’entendent, c’est le coût colossal en vies humaines que cela peut engendrer. Supprimer cette restriction équivaudrait à laisser libre cours à l’éventualité de nouveaux conflits et de nouvelles guerres. Et contrairement à ce que les dirigeants semblent penser, aucune guerre ne peut se faire sans que des gens ne meurent. Les sacrifices et les dommages collatéraux sont inhérents à toute guerre.
Source : MarketWatch
Et vous ?
Qu’en pensez-vous ?
Quelle est votre position sur les armes autonomes létales ?
Voir aussi
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud en partenariat avec le fabricant d'armes Hanwha Systems
Elon Musk appelle les Nations Unies à bannir les robots tueurs dans une lettre ouverte signée par 116 spécialistes de l'IA et la robotique
Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes lors d'une conférence internationale sur l'IA
En effet, la menace que représentent les robots tueurs ou armes autonomes létales a été largement démontrée. Les intelligences artificielles sur lesquelles reposent les systèmes de ces robots sont tout sauf inviolables. Elles ont prouvé à maintes reprises qu’elles étaient faillibles. Par exemple, des scientifiques ont réussi à induire une IA en erreur en altérant quelques éléments d’une tortue imprimée en 3D. Le résultat en a été que l’IA a considéré la tortue comme étant un fusil.
A l’argument de la faillibilité des IA, les défenseurs de la cause des robots tueurs répondent que l’apprentissage automatique est encore à ses débuts et qu’il suffisait de le laisser progresser afin de rendre les IA moins vulnérables. Toutefois, on est tenté de se demander quelle intelligence artificielle, quel système informatique connecté ne peut pas être piraté ou détourné ? Imaginez qu’un drone autonome se fasse pirater par un terroriste. Imaginez combien de personnes pourraient perdre la vie à cause de cette même technologie conçue pour empêcher au maximum les dommages collatéraux. Car, rappelons-le, l’idée des armes autonomes létales a germé dans le but d’empêcher les pertes en vies humaines résultant d’erreurs de jugement humaines. Imaginez qu’un pirate décide de prendre le contrôle, non pas d’un mais d’une flotte entière de drones. Imaginez les dégâts qu’il pourrait occasionner. Des gens mourraient par milliers et des pans entiers de villes seraient réduits en cendres.
Cependant, la triste réalité est que les gouvernements semblent ne pas prendre ou ne pas vouloir prendre conscience. Le gouvernement américain, par exemple a déjà annoncé une subvention de 2 milliards de dollars visant à aider à la production de la prochaine vague d’intelligences artificielles avancées, l’objectif visé étant de concevoir des machines pouvant communiquer et raisonner comme des humains et pouvant s’adapter à tout nouvel environnement ou à toute nouvelle situation.
Les avis des internautes sur la question sont tranchés. Ils expliquent que la conception de soldats robotiques pour remplacer ceux humains était une mauvaise idée. Ils ajoutent que la seule chose qui empêche les pays de se faire la guerre comme ils l’entendent, c’est le coût colossal en vies humaines que cela peut engendrer. Supprimer cette restriction équivaudrait à laisser libre cours à l’éventualité de nouveaux conflits et de nouvelles guerres. Et contrairement à ce que les dirigeants semblent penser, aucune guerre ne peut se faire sans que des gens ne meurent. Les sacrifices et les dommages collatéraux sont inhérents à toute guerre.
Source : MarketWatch
Et vous ?
Voir aussi
-
Cpt AndersonMembre émériteJ'ai toute confiance en nos gouvernements, nos institution supranationales et en la sagesse des gens.le 01/10/2018 à 17:55
-
Une mauvaise arme létale, ça tue des gens d'après un mauvais jugement, alors qu'une bonne arme létale, ça tue des gens d'après un bon jugement...le 01/10/2018 à 21:02
-
ArkalMembre régulierhttps://fr.wikipedia.org/wiki/Planète_hurlantele 01/10/2018 à 21:34
-
JipétéExpert éminent séniorPourquoi "ça tue des gens" ? C'est pas fait pour ça, démonstration :
Une nation A veut faire la guerre mais ne veut pas que ses fils meurent au combat, elle fabrique des machines qui vont aller au combat à leur place, pour flinguer ceux d'en face, les fils de la nation B. Et si certaines de ces machines sont détruites, c'est pas grave, c'est le but ; bien sûr, personne ne prend jamais en compte l'impact environnemental, mais ceci est une autre histoire.
Mais la nation B ne voulant pas que ses fils meurent au combat, normal, elle fabrique elle aussi des machines qui vont aller au combat à leur place, et donc se faire flinguer par les robots de la nation A.
Or, pendant que certains B se font flinguer, d'autres peuvent répliquer et flinguer des robots A, bref une vraie guerre de robots pendant que les fils de A et les fils de B restent calés à mater ça devant leurs téloches, "tiens, repasse-moi le popcorn", tout en tétant leurs bières.
Et la nation à qui il reste des robots a gagné.
Elle est pas belle la vie ? Bon, les fils des deux nations vont devenir encore un peu plus grassouillets et la planète complètement ravagée mais c'est le prix à payer, faut savoir ce qu'on veut, hein...le 02/10/2018 à 9:57 -
JipétéExpert éminent séniorEt pourquoi donc ?
Ils vont rester là à glandouiller en se regardant dans le blanc des capteurs de vision ?
Pas rentable, ça ! Il faut consommer de la cartouche et du robot (donc de la ferraille et plein d'électronique, excellent pour la croissance !)
Sans compter que s'il n'y a pas de spectacle à la téloche, il n'y aura pas de coupures de pub, pas bon pas bon tout ça.le 02/10/2018 à 18:34 -
JipétéExpert éminent séniorOui, d'accord, mais ça n'explique en rien le "Pourquoi" qui est à la base de la question...le 03/10/2018 à 9:14
-
sebastianoMembre extrêmement actifL'entretien est très rentable. A titre d'exemple et à l'exception des Etats-Unis, personne n'a utilisé l'arme nucléaire. Son entretien, pour les forces françaises, coûte dans les 4 milliards d'Euros (en sachant qu'il s'agit d'une technologie maîtrisée depuis des décennies).
Entretenir une armée de robots neuve, prête au combat, suffira à combler les attentes des financiers les plus voraces.le 03/10/2018 à 9:15 -
Nym4xMembre avertiComme d'hab : il ne faut pas le faire mais nos chers
dirigeantsdictateurs vont le faire quand même car il y a masse de thunes à se faire + le pouvoir absolu. Et si cela ne passe pas vers l'opinion public ce sera comme d'habitude : on prend une tragédie (provoquée si nécessaire) et on explique que les robots tueurs sont LA solution pour que cela ne se reproduise pas.
Cela va aussi changer le rapport de force encore un peu plus entre une population (99%) qui voudrait potentiellement de rebeller contre un gouvernement autoritaire (1%) : jusqu'à maintenant vu que la population était beaucoup plus nombreuse (99%) qu'un gouvernement (1%), il était possible de se rebeller. Mais avec des robots tueurs cela ne sera plus une question de nombre mais d'argent... Une petite minorité pourra tenir tête à une grande majorité à condition d'avoir beaucoup d'argent. En plus des policiers, des militaires cela restent des humains capables de discernement et de se retourner le cas échéant contre un gouvernement devenant autoritaire. Mais pas des robots...le 01/12/2022 à 1:38 -
hotcryxMembre extrêmement actifSauf qu'à un moment, des fils de A vont prendre les armes pour se défendre et plusieurs fils de A seront tués.
Donc des robots de B auront tué des humains.
Alors peut-être que le boss de A va lancer sur les humains de B des bombes nucléaires pour tous les anéantir...le 02/10/2018 à 12:38 -
JipétéExpert éminent séniorT'as rien compris : les fils de A ne sont pas attaqués puisqu'ils sont devant la téloche à mater le spectacle.le 02/10/2018 à 13:46