IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un groupe d'experts de l'IA appelle le Canada et l'Australie à lutter pour l'interdiction des robots tueurs autonomes
Paranoïa ou problème réel ?

Le , par Olivier Famien

280PARTAGES

7  0 
Les robots tueurs autonomes abordés par le groupe d’experts relèvent-ils de la paranoïa ?
Non, le problème abordé est bien réel et arrivera tôt ou tard.
73 %
Oui, je pense que ce problème relève de la paranoïa.
18 %
Je n'ai pas d'avis.
9 %
Voter 11 votants
Depuis plusieurs années, l’on annonce des avancées prometteuses dans le domaine de l’intelligence artificielle. L’éducation, la science, la médecine, les infrastructures sont autant de secteurs dans lesquels l’intelligence artificielle montre des avantages intéressants. Mais à l’opposé des personnes qui souhaitent un développement rapide de l’intelligence artificielle, d’autres personnes entretiennent un point de vue plutôt sombre.

Dans un premier temps, ces personnes soulignent que l’intelligence artificielle va entraîner un chômage massif avec le remplacement des ressources humaines nécessaires dans certains domaines actuels par les machines. Toutefois, cette opinion n’est pas partagée par tout le monde. D’autres personnes plus optimistes estiment que l’intelligence artificielle n’entraînera pas plus de chômage que la révolution industrielle n’en a apporté. Pour ces derniers, l’intelligence artificielle conduira effectivement à automatiser certaines tâches qui sont actuellement réalisées par les hommes, mais créera aussi de nouveaux emplois comme ce fut le cas dans les années passées.

Alors que le débat économique fait rage parallèlement aux différentes avancées technologiques dans le domaine de l’IA, d’autres personnes attirent l’attention du public sur d’autres conséquences encore plus sérieuses. En 2015, plusieurs centaines de scientifiques dont Stephen Hawking, Elon Musk, Steve Wozniak pour ne citer que ceux-là, ont signé une lettre ouverte afin d’alerter l’opinion publique sur les conséquences funestes de l’IA au cas où les recherches dans ce secteur seraient utilisées dans le domaine militaire.

Pour ces scientifiques, nous sommes à l’orée d’une ère décisive semblable à celle à laquelle les dirigeants des années passées qui devaient trancher sur la question relative à l’acceptation ou à l’interdiction des armes biologiques ont fait face. Fort heureusement, le monde a été unanime pour ne pas produire, stocker ou utiliser l’usage des armes biologiques. À l’instar de cette question qui a été tranchée dès les premiers soupçons de dérives éventuelles, ces scientifiques ont lancé un appel afin d’amener les gouvernements à ne pas s’engager dans le développement d’armes autonomes basées sur l’intelligence artificielle.


Deux ans après cette lettre ouverte signée par plusieurs centaines de chercheurs, la communauté scientifique représentée par un groupe d’experts gouvernementaux sur les systèmes d’armes autonomes revient encore à la charge en adressant à nouveau des lettres ouvertes aux gouvernements du Canada et de l’Australie afin d’amener ces pays à soutenir l’interdiction des armes autonomes lors de la prochaine conférence des Nations Unies qui aura lieu dans ce mois sur la convention de certaines armes conventionnelles.

Comme arguments avancés pour soutenir cette suggestion, le groupe d’experts rappelle les paroles du professeur Christof Heyns qui affirmait que « ;les machines manquent de moralité et de mortalité ;». En conséquence, il serait contre nature de leur accorder le pouvoir de vie ou de mort sur les humains. En plus de ce fait que les experts relèvent, ils ajoutent que « ;les systèmes d’armes autonomes menacent de devenir la troisième révolution dans la guerre. S’ils sont développés, ils permettront le développement de conflits armés à une échelle plus grande que jamais auparavant, et à des échelles de temps plus rapides que les humains ne peuvent le comprendre ;». Ainsi, la conséquence inéluctable d’une telle orientation est que les machines, non les hommes, décideront qui doit vivre et qui doit mourir.

Bien que certaines personnes puissent défendre le fait que les États pourront créer des armées de robots et ne plus envoyer des hommes au combat, si ces armes autonomes ayant pouvoir de décision sur la vie ou la mort des hommes tombaient entre les mains de personnes malveillantes, cela aurait des conséquences inimaginables. Pour se faire une idée de ce qui pourrait arriver, l’on peut déjà apprécier les conséquences d’un tel scénario avec les pirates informatiques qui sèment de nombreux dégâts dans les infrastructures et les systèmes des entreprises et des particuliers en utilisant leurs compétences pour le mal.

Cette situation entraînerait une escalade perpétuelle d’abord au sein des États qui pourraient chercher à posséder les armes autonomes les plus destructrices, mais aussi entre les acteurs malveillants ayant accès à ces armes et les forces de l’ordre. Tuer quelqu’un deviendrait assez facile et de nombreux problèmes pourraient en découler, comme attribuer la paternité d’un meurtre commis par un robot tueur autonome piraté par un tiers pour commettre un forfait.

Au regard de toutes ces conséquences, le groupe d’experts exhorte le Canada et l’Australie et probablement d’autres pays à prendre une position tranchée contre la fabrication et l’utilisation des armes autonomes.

Mais au-delà des deux lettres adressées au Canada et à l’Australie, l’on se demande si cette démarche n’est pas motivée par de la paranoïa. Le groupe aborde-t-il un problème réel qui arrivera certainement si rien n’est fait aujourd’hui ;? Ou est-ce simplement une manœuvre pour faire peur au monde ;?

Source : Independent, Lettre adressée au gouvernement du Canada, Lettre adressée au gouvernement de l’Australie (PDF)

Et vous ?

Pensez-vous que cette démarche du groupe d’experts relève de la paranoïa ;?

Ou est-ce plutôt un problème réel que le groupe aborde ?

Voir aussi

Hawking, Musk, Wozniak et plusieurs scientifiques appellent à l’interdiction des armes autonomes en soutenant une lettre ouverte, qu’en pensez-vous ;?
Bill Gates exprime à son tour ses préoccupations au sujet des progrès de l’intelligence artificielle après Stephen Hawking et Elon Musk
Andrew NG, l’un des ténors de l’IA, considère le débat sur ses éventuelles dérives comme une perte de temps. Partagez-vous son point de vue ;?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 08/11/2017 à 17:27
Citation Envoyé par Olivier Famien Voir le message
Pensez-vous que cette démarche du groupe d’experts relève de la paranoïa ;?
franchement non, je pense que tôt ou tard on y arrivera c'est clair, en revanche je ne crois pas du tout au syndrome Skynet/le soulèvement des machines, je pense que oui tôt ou tard il y aura possiblement même des incidents avec des drones autonomes et cie., et je pense surtout qu'ils peuvent bien faire tous les groupes de discussion qu'ils veulent, si l'armée veut, elle aura, appel d'offre de plusieurs millions à l'appui auprès du secteur privé, la seule interrogation que j'ai c'est est-ce que Elon Musk essaiera de se positionner dessus pour décrocher la timbale ou est-ce qu'il tiendra encore son discours populiste ? ou... les deux en même temps ?
3  0 
Avatar de Chauve souris
Membre expert https://www.developpez.com
Le 09/11/2017 à 13:55
Citation Envoyé par hotcryx Voir le message
"La guerre ne meurt jamais!" (comprenne qui pourra)
Une très bonne citation de Fallout. Effectivement nous vivons de plus en plus dans des mondes en guerre permanente. La possibilité de se déplacer sur cette planète sans risques suicidaires majeurs se réduit de plus en plus. Dans les débuts du 20e siècle on pouvait aller partout sans trop de risques et, dans mes jeunes années j'avais un copain qui allait régulièrement en Afghanistan avec un VW bus pour ramener des coffres sculptés et autres objets qu'il revendait. Même aller dans certaines banlieues parisiennes dites "sensibles" par euphémisme de la bienpensance comporte une part sérieuse de risque.

Et je ne crois pas que cela va s'arranger dans le proche avenir (et dans le lointain ça sera un monde à la Fallout 4).
1  0 
Avatar de pgoetz
Membre à l'essai https://www.developpez.com
Le 08/11/2017 à 17:27
La cible des missiles est souvent programmée au lancement, et advienne qui pourra...
0  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 08/11/2017 à 18:57
Citation Envoyé par pgoetz Voir le message
La cible des missiles est souvent programmée au lancement, et advienne qui pourra...
Non.
0  0 
Avatar de Chauve souris
Membre expert https://www.developpez.com
Le 09/11/2017 à 5:26
Moi je veux mon terminator à moi tout seul. Comme ça je pourrais me balader dans le 9-3 et autres "quartiers sensibles" comme disent les journaleux. Elles seraient vite résolues les "incivilités" comme disent les même journaleux. Non ? C'est pas comme ça le "vivrensemble" ?
0  0 
Avatar de hotcryx
Membre extrêmement actif https://www.developpez.com
Le 09/11/2017 à 12:57
"La guerre ne meurt jamais!" (comprenne qui pourra)
0  0 
Avatar de
https://www.developpez.com
Le 09/11/2017 à 21:23
Au final c'est comme avec les dinosaures d'une série de films très connu, il faut éviter qu'il s'échappe dans la nature...
Mais aussi éviter matériellement que le non tueur puisse devenir tueur...

[spoiler] Ils ont beau ne pas avoir fait sciences po, qu'ils sont conscient que les labos de recherche (universitaire) non militaire vont surement revoir leurs budgets à la baisse... [/spoiler]
0  0