IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'Armée américaine rassure le public sur ses chars d'assaut alimentés par l'IA
En précisant qu'ils resteront toujours sous contrôle humain

Le , par Jonathan

566PARTAGES

12  0 
La volonté de l'armée américaine à toujours se surpasser pour se doter d'équipements super sophistiqués n'est un secret pour personne. D'ailleurs, le département de la Défense des États-Unis a toujours bénéficié d'un énorme budget (706 milliards de dollars en 2018). Ces dernières années, avec l'intelligence artificielle qui est de plus en plus utilisée dans le domaine militaire, le pentagone avait lui aussi entrepris des projets dans ce sens et le dernier en date se nomme ATLAS, qui consistait à transformer les chars d'assaut en machines à tuer alimentées par l'IA.

Pour réaliser ce projet, l'armée US avait alors fait appel à des sociétés privées pour leur demander des idées sur la façon d’améliorer son système de ciblage semi-autonome, axé sur l’IA, prévu pour les chars. Comme le rapporte Gizmodo, après que plusieurs médias se soient opposés à cette utilisation potentiellement alarmante de l'intelligence artificielle, l'armée US a décidé d'ajouter une clause à l'appel à publication de livres blancs, afin de calmer les inquiétudes des civils tout en soulignant qu'ATLAS se conformerait à la politique du département de la défense sur le contrôle des robots par les humains.


La modification apportée consistait en l'ajout du passage suivant :
Tout développement et utilisation de fonctions autonomes et semi-autonomes dans des systèmes d'arme, y compris des plates-formes avec et sans personnel, reste soumis aux règles de la directive 3000.09 du ministère de la Défense mise à jour en 2017. Rien dans cet avis ne doit être compris comme un changement de politique du département de la défense en faveur de l'autonomie dans les systèmes d'armes. Toutes les utilisations de l'apprentissage automatique et de l'intelligence artificielle dans ce programme seront évaluées afin de s'assurer qu'elles sont conformes aux normes légales et éthiques du département de la défense.
Si vous vous demandez en quoi consiste la directive 3000.09 du ministère de la Défense, et bien sachez qu'elle stipule qu'il est impératif que les êtres humains contrôlent les armes, de manière autonome ou non, afin de pouvoir exercer un jugement approprié sur l’emploi de la force. C'est donc l'humain qui devra finalement décider de tuer quelqu'un et pas seulement une machine. L'armée veut donc faire savoir par là qu'elle ne lancera pas des robots entièrement autonomes sur un champ de bataille et ne leur permettra pas de décider indépendamment de tuer quelqu'un.

On pourrait se demander pourquoi les Américains sont autant préoccupés par ces chars alimentés par l'IA quand on sait qu'ils n'ont rien dit en sachant que l'armée américaine utilise des avions-robotiques comme armes offensives depuis au moins la Seconde Guerre mondiale. Quoi qu'il en soit, il est évident que le ministère de la Défense continuera à progresser dans l'amélioration de ses armes, mais savoir si tout cela se passera toujours dans le respect des politiques écrites, là est toute la question.

Source : Gizmodo

Et vous ?

Que pensez-vous de l’utilisation de l’IA pour rendre autonomes des armes de guerre ?
Peut-on croire en ce qu'affirme l'armée américaine ?
Pensez-vous que les acteurs parviendront un jour à développer des règles éthiques qui limiteront l’IA dans ses utilisations recommandées ?

Voir aussi :

L'armée américaine voudrait enseigner à l'IA des notions basiques de bon sens dans le cadre de son programme Machine Common Sense
L'armée américaine veut transformer les chars d'assaut en machines à tuer alimentées par l'IA, à travers son projet ATLAS, selon un rapport
Les États-Unis veulent des drones autonomes alimentés par l'IA qui pourront décider seul de tuer, en recourant à des algorithmes d'autoapprentissage

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de pierre-y
Membre chevronné https://www.developpez.com
Le 10/03/2019 à 14:54
"Si vous vous demandez en quoi consiste la directive 3000.09 du ministère de la Défense, et bien sachez qu'elle stipule qu'il est impératif que les êtres humains contrôlent les armes, de manière autonome ou non, afin de pouvoir exercer un jugement approprié sur l’emploi de la force. C'est donc l'humain qui devra finalement décider de tuer quelqu'un et pas seulement une machine."

Dommage qu'il n'est pas appelé ça la directive 66, ça m'aurait bien fait rire. Après si le jugement de l'humain consiste a mettre la machine en on ou off ça va pas aller bien loin ^^.

Apres il y aura forcement une autonomie d'intégrer, ne serais ce que si la machine se retrouve isolé (par un brouillage, etc) et que l'armement risque de tomber dans des mains ennemis. Voir plus simplement des zones interdite ou c'est canardage automatique si tu pointes tes fesses.

je veux dire par la que c'est un des principaux intérêt justement la notion d'autonomie pour ce genre de machine, donc ça serait étonnant qu'elles ne soient pas implémenté. Parce que le fait que l'on disent que les humain contrôleront les armes est plus que vagues.
0  0