Le mois dernier, Google avait déclaré que l'entreprise n'avait fourni que des « API TensorFlow » au département de la Défense par l'intermédiaire d'un compte Google régulier pour former les modèles TensorFlow. Google a ajouté qu'elle fait de la reconnaissance d'objets « pour des utilisations non offensives seulement ». Mais une lettre signée par des employés de l'entreprise vient souligner que Google a mis à la disposition du département de la Défense son expertise de pointe en apprentissage machine et ses ingénieurs travaillant dans ce domaine.
Partant de ces faits et de tous les documents publics, l'Electronic Frontier Foundation (EFF), organisation à but non lucratif qui défend les libertés civiles dans le monde numérique, demande à son tour à Google de ne pas aider les États-Unis à construire des systèmes d'IA qui pourrait causer des dégâts. Pour l'EFF, il est risqué d'utiliser des systèmes d'IA dans des situations militaires de peur d'engendrer des morts, l'escalade de conflits ou une instabilité mondiale. La gestion des systèmes d'IA est déjà assez compliquée et peut s'avérer très compliquée et plus délicate dans les situations militaires. L'EFF rappelle aussi que jusqu'à ce jour, il n'y a pas de règles et normes définies pour évaluer les risques et responsabilités pour les systèmes d'IA en général. L'organisme pense donc les entreprises de l'intelligence artificielle devraient se poser un certain nombre de questions avant d'accepter des contrats militaires.
- Est-il possible de créer des institutions ou des accords internationaux forts et contraignants qui définissent les utilisations militaires acceptables et les limites de l'utilisation de l'IA ?
- Existe-t-il un processus solide pour étudier et atténuer les problèmes de sécurité et de stabilité géopolitique qui pourraient résulter du déploiement de l'IA militaire ?
- Les organismes contractants sont-ils prêts à s'engager à ne pas utiliser l'IA pour des armes offensives autonomes ?
- Peut-il y avoir une surveillance transparente et responsable de la part d'un comité d'éthique constitué de façon indépendante ou d'une entité similaire ayant à la fois le pouvoir d'opposer son veto aux aspects du programme et le pouvoir d'apporter la transparence publique aux questions lorsque cela est nécessaire ou approprié ?
Enfin, EFF souligne que l'utilisation de l'IA dans les systèmes d'armes est un sujet d'une importance cruciale qui mérite un débat public international et probablement des accords internationaux pour assurer la sécurité mondiale. Les entreprises comme Google, ainsi que leurs homologues du monde entier, doivent tenir compte des conséquences et exiger une véritable responsabilisation et des normes de comportement de la part des organismes militaires qui recherchent leur expertise - et d'eux-mêmes.
Sources : L'EFF
Et vous ?
Qu'en pensez-vous ?
Voir aussi
Non, l'IA de Google ne doit pas être au service de la guerre !