Pour réaliser ce projet, l'armée US avait alors fait appel à des sociétés privées pour leur demander des idées sur la façon d’améliorer son système de ciblage semi-autonome, axé sur l’IA, prévu pour les chars. Comme le rapporte Gizmodo, après que plusieurs médias se soient opposés à cette utilisation potentiellement alarmante de l'intelligence artificielle, l'armée US a décidé d'ajouter une clause à l'appel à publication de livres blancs, afin de calmer les inquiétudes des civils tout en soulignant qu'ATLAS se conformerait à la politique du département de la défense sur le contrôle des robots par les humains.
La modification apportée consistait en l'ajout du passage suivant :
Tout développement et utilisation de fonctions autonomes et semi-autonomes dans des systèmes d'arme, y compris des plates-formes avec et sans personnel, reste soumis aux règles de la directive 3000.09 du ministère de la Défense mise à jour en 2017. Rien dans cet avis ne doit être compris comme un changement de politique du département de la défense en faveur de l'autonomie dans les systèmes d'armes. Toutes les utilisations de l'apprentissage automatique et de l'intelligence artificielle dans ce programme seront évaluées afin de s'assurer qu'elles sont conformes aux normes légales et éthiques du département de la défense.
On pourrait se demander pourquoi les Américains sont autant préoccupés par ces chars alimentés par l'IA quand on sait qu'ils n'ont rien dit en sachant que l'armée américaine utilise des avions-robotiques comme armes offensives depuis au moins la Seconde Guerre mondiale. Quoi qu'il en soit, il est évident que le ministère de la Défense continuera à progresser dans l'amélioration de ses armes, mais savoir si tout cela se passera toujours dans le respect des politiques écrites, là est toute la question.
Source : Gizmodo
Et vous ?
Que pensez-vous de l’utilisation de l’IA pour rendre autonomes des armes de guerre ?
Peut-on croire en ce qu'affirme l'armée américaine ?
Pensez-vous que les acteurs parviendront un jour à développer des règles éthiques qui limiteront l’IA dans ses utilisations recommandées ?
Voir aussi :
L'armée américaine voudrait enseigner à l'IA des notions basiques de bon sens dans le cadre de son programme Machine Common Sense
L'armée américaine veut transformer les chars d'assaut en machines à tuer alimentées par l'IA, à travers son projet ATLAS, selon un rapport
Les États-Unis veulent des drones autonomes alimentés par l'IA qui pourront décider seul de tuer, en recourant à des algorithmes d'autoapprentissage