Depuis quelques années, nous connaissons de grandes avancées dans le domaine de l’intelligence artificielle. Étant un secteur nouvellement exploré, les voix ne manquent pas de s’élever pour soutenir ou décrier les conséquences de ce secteur d’activité.
Cette fois-ci, il s’agit non pas d’une personne, mais de plusieurs centaines de chercheurs et entités travaillant dans ce domaine parmi lesquels on peut citer Stephen Hawking, Elon Musk, Steve Wozniak qui ont signé une lettre ouverte afin de tirer la sonnette d’alarme sur les conséquences funestes de l’IA au cas où les recherches dans ce secteur s’invitent dans le domaine militaire.
Nombreux sont ceux qui trouvent des avantages à porter les machines autonomes sur le champ de bataille, car pour eux, elles éviteraient des pertes en vie humaine.
Toutefois, pour ceux qui soutiennent cette lettre, cette éventualité mènerait inexorablement à « une course mondiale aux armements » autonomes avec des risques de généralisation de ces armes comme c’est le cas aujourd’hui avec les armes automatiques. « Les armes autonomes deviendront les kalachnikovs de demain ».
Pendant qu’il est encore temps et que le pire ne s’est pas encore produit, ces chercheurs et scientifiques souhaitent que nous marquions un temps d’arrêt et réfléchissions un instant si l’humanité a besoin d’une course aux armements d’un genre nouveau ou si l’on doit agir maintenant pour baliser le secteur.
Bien évidemment, ce n’est pas la première fois qu’une telle problématique est posée au monde entier dans le domaine militaire. Lorsque la connaissance dans le domaine de la chimie et de la biologie a commencé à croitre, il a fallu s’accorder sur les principes de guerre.
Fort heureusement, des armes conventionnelles de guerre ont été établies. « Les chimistes et les biologistes ont largement soutenu les accords internationaux qui ont réussi à interdire les armes chimiques et biologiques, tout comme la plupart des physiciens ont soutenu les traités interdisant les armes nucléaires spatiales et armes à laser aveuglantes ».
En ce qui concerne les armes autonomes, si elles sont développées, il n’est pas exclu qu’elles tombent dans de mauvaises mains telles que les dictateurs, les assassins, les seigneurs de la guerre ou même le marché noir. C’est juste une question de temps pour que ces armes deviennent bon marché et à la portée de tous.
Au vu de toutes ces conséquences, ces scientifiques soutiennent ceci : « nous pensons donc que la course aux armements militaires basée sur l’intelligence artificielle ne serait pas bénéfique pour l’humanité. Il existe de nombreuses façons dans lesquelles l’IA peut rendre les champs de bataille plus sûrs pour les humains, en particulier les civils, sans créer de nouveaux outils pour tuer des gens ».
« Démarrer une course aux armements militaires IA est une mauvaise idée, et doit être empêchée par une interdiction des armes offensives autonomes au-delà de tout contrôle humain significatif ».
Source : Future of Life Institute
Et vous ?
Que pensez-vous de cette lettre ?
Êtes-vous d’accord avec son contenu ?
Êtes-vous d’accord avec l’interdiction des armes autonomes ?
Hawking, Musk, Wozniak et plusieurs scientifiques appellent à l'interdiction des armes autonomes
En soutenant une lettre ouverte, qu'en pensez-vous?
Hawking, Musk, Wozniak et plusieurs scientifiques appellent à l'interdiction des armes autonomes
En soutenant une lettre ouverte, qu'en pensez-vous?
Le , par Olivier Famien
Une erreur dans cette actualité ? Signalez-nous-la !