L’association américaine des libertés civiles (ACLU) s’est fait le relais de cette décision d’un employé de Clarifai il y a peu. L’employé de la firme spécialisée en développement de systèmes de reconnaissance faciale s’explique.
Envoyé par
l’ex-employé de Clarifai
Quand j'ai rejoint la société d'intelligence artificielle Clarifai au début de l'année 2017, on pouvait pratiquement sentir la promesse dans l'air. Mes collègues étaient brillants, dévoués et déterminés à rendre le monde meilleur.
Nous avons fondé Clarifai 4 Good, avons aidé des étudiants, des associations caritatives et avons fait don de nos logiciels à des chercheurs du monde entier porteurs de projets bénéfiques pour le social. Nous étions déterminés à être la seule société d'IA à prendre notre responsabilité sociale au sérieux.
Je n'aurais jamais pu prévoir que je devrais quitter ce travail pour des raisons morales deux ans plus tard. Et je n'aurais certainement jamais pensé que cela arriverait en construisant des armes qui intensifient et modifient le paradigme de la guerre.
Pour rappel : en 2014, Stephen Hawking et Elon Musk ont mené un effort avec des milliers de chercheurs d'Amnesty International pour s'engager collectivement à ne jamais contribuer à la recherche au développement de systèmes d'armement autonomes mortels - des armes qui pourraient chercher une cible et mettre fin à une vie sans un humain dans le circuit de décision. D'après des développements de chercheurs dans le domaine, la technologie pour créer de telles armes est à portée de main et son utilisation serait désastreuse pour l'humanité.
J'ai donc signé cet engagement et en janvier de cette année, j'ai écrit une lettre à Matt Zeiler, PDG de Clarifai, lui demandant de faire pareil. Je ne m'attendais pas du tout à sa réponse. Comme l'a rapporté le New York Times vendredi, Matt a convoqué une réunion à l'échelle de l'entreprise et a annoncé qu'il était tout à fait disposé à vendre la technologie des armes autonomes à notre gouvernement.
Je ne pouvais pas supporter d'en faire partie, alors j'ai démissionné. Mes objections sont fondées sur le fait que les robots tueurs ne relèvent pas de la science-fiction, mais sont bien utilisés sur les champs de bataille de nos jours.
D’après la publication du New York Times, Clarifai est en partenariat avec le Pentagone pour améliorer les capacités des drones à analyser les vidéos capturées en vol. L’intelligence artificielle doit ici servir à atteindre le même objectif que Google s’était fixé dans le cadre de
Project Maven avant que l’entreprise fasse l’annonce de
la rupture de son contrat avec le département de la Défense des États-Unis. Clarifai, comme l’a fait Google, met en avant l’IA qui doit servir à sauver les vies des civils et des militaires sur les champs de bataille. Seulement, ces « yeux de drones » boostés à l’intelligence artificielle peuvent aussi servir à décupler les capacités de ces engins à donner la mort.
Envoyé par
l’ex-employé de Clarifai
La question centrale est de savoir si un robot devrait être capable de sélectionner et d'acquérir sa propre cible à partir d'une liste de cibles potentielles et d'attaquer cette cible sans l'approbation d'un humain.
Israël n’a pas trop fait dans le questionnement. À date, le pays dispose de l’IAI Harop ; le drone est capable de détecter des systèmes anti-radar et de fondre sur ces derniers pour les détruire, ce, en toute autonomie. L’engin a fait l’objet d’une présentation lors d’un show organisé à Paris en 2013.
La décision de cet ex-employé de la société Clarifai fait suite à celle d’
une dizaine de personnes qui travaillaient pour Google. De façon globale, les protestations contre l’utilisation de l’intelligence artificielle pour le développement d’armes se multiplient. À mi-parcours de l’année précédente, des chercheurs en IA issus de près de 30 pays ont signé
une lettre de boycott d’un projet de développement d’armes de l’université sud-coréenne KAIST. Seulement, la question divise et s’il faut à nouveau souligner que l’actuel choix de Clarifai est de collaborer avec les militaires pour le développement d’armes aux capacités décuplées à l’IA,
Thalès le leader français de la sécurité et de la défense refuse de concevoir des robots autonomes. L’entreprise appelle d’ailleurs à une législation internationale sur le sujet. À propos de lois pour encadrer le développement des robots tueurs autonomes, des discussions ont démarré aux Nations Unies avec pour objectif de déboucher sur un traité d’interdiction, mais certains pays parmi lesquels on retrouve les USA et la Russie s’y opposent.
Source :
ACLU Et vous ? Que pensez-vous de la décision de cet employé ?
Quelle décision prendriez-vous si vous étiez amené par votre entreprise à travailler sur un projet de robot autonome tueur ?
Quelle est votre position sur le développement de robots autonomes tueurs ?
Voir aussi : Google promet de ne pas utiliser l'IA pour le développement d'armes, mais informe qu'il va continuer à coopérer avec les militaires Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur