IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une "IA éthiquement correcte" pourrait-elle mettre fin à la violence des armes à feu ?
Elle pourrait reconnaître l'intention et bloquer les tireurs de masse

Le , par Stan Adkens

54PARTAGES

6  0 
L’ intelligence artificielle est un élément clé dans l’informatique des temps modernes qui a gagné tous les secteurs d’activité dans le monde, et des efforts pour une mise en œuvre qui serait capable de suivre des normes éthiques sont devenus une nécessité. Une récente recherche décrit une intervention éthique qui permet à l’IA d’empêcher le meurtre par un verrouillage éthique des armes. L’idée étant de mettre un terme aux fusillades de masse et autres utilisations éthiquement incorrectes des armes à feu grâce au développement d'une IA capable de reconnaître l'intention, de juger s'il s'agit d'une utilisation éthique, et finalement de rendre une arme à feu inerte si un utilisateur tente de la préparer pour un tir inapproprié.

La recherche menée par trois informaticiens de l'Institut polytechnique de Rensselaer à New York ne décrit pas la création d'une arme à feu intelligente en soi, mais l'efficacité potentielle d'un système d'intelligence artificielle qui peut prendre le même genre de décisions pour les utilisateurs d'armes à feu que, par exemple, les voitures qui peuvent bloquer les conducteurs s'ils ne peuvent pas passer un alcootest.


La recherche publiée dans l’archive de prépublications ArXiv semble avoir un objectif noble, les chercheurs eux-mêmes le qualifiant d'idée du "ciel bleu", mais la technologie pour le rendre possible est déjà là, selon eux. On peut lire dans le document de recherche de l'équipe :

« Comme on pouvait s'y attendre, certains objecteront ce qui suit : "Le concept que vous présentez est attrayant. Mais malheureusement, ce n'est rien d'autre qu'un rêve ; en fait, rien d'autre qu'une chimère. Cette IA est-elle vraiment réalisable, du point de vue de la science et de l'ingénierie ?" Nous répondons par l'affirmative, en toute confiance. »

En effet, la recherche explique également comment les récentes percées impliquant des études à long terme ont conduit au développement de divers systèmes de raisonnement basés sur l'IA qui pourraient servir à banaliser et à mettre en œuvre un système de jugement éthique assez simple pour les armes à feu.

Selon les chercheurs, leur IA serait formée à reconnaître l'intention humaine derrière une action. Ils décrivent la récente fusillade de masse dans un Walmart à El Paso et offrent un point de vue différent sur ce qui aurait pu se passer :

« Le tireur se dirige vers Walmart, un fusil d'assaut et une quantité massive de munitions, dans son véhicule. L'IA que nous envisageons sait que cette arme est là, et qu'elle ne peut être utilisée qu'à des fins très spécifiques, dans des environnements très spécifiques (et bien sûr elle sait quels sont ces fins et ces environnements).

Chez Walmart même, dans le parking, toute tentative de la part de l'agresseur potentiel d'utiliser son arme, ou même de la positionner pour une utilisation quelconque, aura pour conséquence de la verrouiller par l'IA. Dans le cas particulier qui nous occupe, l'IA sait que tuer quelqu'un avec une arme, sauf peut-être à des fins d'autodéfense, est contraire à l'éthique. Puisque l'IA exclut la légitime défense, l'arme est rendue inutile et verrouillée ».

Cela donne une image magnifique, mais tout le monde ne sera certainement pas d’accord avec le concept de "verrouillage éthique" par l’intelligence artificielle des scientifiques. La responsabilité des créateurs de l’IA est engagée à une époque où les systèmes automatisés sont impliqués dans toutes les facettes de l'existence humaine.

Les quelques rubriques sur lesquelles les entreprises de l’IA comme Microsoft, IBM et DeepMind de Google basent leurs principes éthiques pour le développement de l’IA consistent dans les points suivants : l'intelligence artificielle doit utiliser l’équité dans le traitement de toutes les personnes, donner à chacun les moyens d'agir, être fiable et sûre, être compréhensible, sécurisée et respectueuse de la vie privée, et avoir une responsabilité algorithmique. Elle doit être conforme aux valeurs humaines existantes, être explicable, être équitable et respecter les droits des utilisateurs en matière de données.

Selon Tom Chatfield, auteur et philosophe technologique britannique, dans un article publié l’année dernière, les technologues seraient convaincus que les codes d'IA sont des recettes pour automatiser l'éthique elle-même, et qu'une fois que la majorité serait d’accord avec ces codes, « le problème de la détermination d'une direction future éthiquement positive pour le code informatique aura commencé à être résolu ».

Cependant selon Chatfield, alors même que le monde prend conscience de l'importance de ce domaine, une tendance troublante est évidente lorsqu'il est question de la manière dont les codes d'éthique de l'IA sont discutés. Pour la simple raison du manque de consensus sur ce qui est éthique, l’auteur dit que nous ne pouvons pas le programmer. « Il n'existe pas d'ensemble unique de principes éthiques qui puisse être justifié rationnellement d'une manière que tout être rationnel acceptera », a-t-il écrit à l’époque.

Il ne s’agit pas du développement d'une arme à feu intelligente, mais la création d'une IA éthiquement correcte

Les chercheurs ont prévu certainement une myriade d'objections à leur concept d’IA éthiquement correcte, alors qu’ils se concentrent sur la navigation dans le paysage politique américain. Dans la plupart des pays civilisés, le contrôle des armes à feu est une question de bon sens. L'équipe prévoit que des personnes feront remarquer que les criminels utiliseront simplement des armes à feu qui n'ont pas de système de surveillance à l’IA intégré :

« En réponse, nous notons que notre conception du "ciel bleu" ne se limite pas à l'idée que l'IA de surveillance ne se trouve que dans les armes en question », ont dit les informaticiens dans leur document de recherche.

Selon les chercheurs, leur contribution ici n'est pas le développement d'une arme à feu intelligente, mais la création d'une IA éthiquement correcte. Si les criminels continuent à utiliser des armes sans leur système, l'IA peut toujours être efficace lorsqu'elle est installée dans d'autres capteurs, d’après les chercheurs. Elle pourrait, hypothétiquement, être utilisée pour remplir un certain nombre de fonctions une fois qu'elle aura déterminé l'intention humaine violente.

Elle pourrait verrouiller les portes, arrêter les ascenseurs, alerter les autorités, modifier les feux de circulation, envoyer des alertes par SMS en fonction de la localisation, et toute une série d'autres mesures réactionnaires, y compris le déverrouillage des armes des forces de l'ordre et du personnel de sécurité pour la défense.

Les chercheurs pensent également qu'il y aura des objections basées sur l'idée que des personnes pourraient pirater les armes. Celle-ci est assez facilement écartée : les armes à feu seront plus faciles à sécuriser que les robots, et nous y intégrons déjà l'IA, disent-ils. Bien qu'il n'y ait pas de sécurité totale, l'armée américaine remplit ses navires, ses avions et ses missiles d'IA et nous avons réussi à trouver comment empêcher l'ennemi de les pirater. Nous devrions être en mesure de garder les armes de service des policiers tout aussi sûres.

De manière réaliste, il faut un acte de foi pour supposer qu'une IA éthique peut être mise en place pour comprendre la différence entre des situations telles que, par exemple, l'invasion de domicile et la violence domestique, mais le travail de base est déjà là, selon les chercheurs. Si vous regardez les voitures sans conducteur, nous savons que des gens sont déjà morts parce qu'ils comptaient sur une IA pour les protéger. Mais nous savons aussi que le potentiel de sauver des dizaines de milliers de vies est trop important pour l'ignorer face à un nombre, jusqu'à présent relativement faible, de décès accidentels, lit-on.

Il est probable que, tout comme l'IA de Tesla, une IA de contrôle des armes pourrait entraîner des morts accidentelles et inutiles. Mais environ 24 000 personnes meurent chaque année aux États-Unis à la suite d'un suicide par arme à feu, 1 500 enfants sont tués par la violence armée et près de 14 000 adultes sont assassinés avec des armes à feu, selon UC Davis Health. Il va sans dire qu'une intervention d'un système d’IA pourrait faire baisser ces chiffres de manière significative.

Il se peut que l’utilisation de cette IA dans d'autres capteurs pour d’autres fonctions citées par les chercheurs pourrait devenir l’utilisation la plus courante en lieu et place de son utilisation pour surveiller une arme à feu. Pourquoi quelqu'un dans la communauté des armes à feu achèterait-il une arme avec une telle IA ? « Et il est évident que l'armée et la police n'auront pas à être paralysées par de tels dispositifs », a écrit un commentateur. Et vous, qu’en pensez-vous ?

Source : ArXiv

Et vous ?

Que pensez-vous de l’idée de "l’IA éthiquement correcte" des chercheurs ?
Pensez-vous que les gens utiliseront ce système sur leur arme à feu ?
La police peut-elle être amenée à utiliser une telle IA alors qu’en face elle ne sera certainement pas adoptée ?

Voir aussi :

Les experts de l'Union européenne publient le premier draft sur les lignes directrices d'une IA éthique, la version finale est attendue en mars 2019
Un nombre croissant d'entreprises reconnaissent la nécessité d'une intelligence artificielle éthique et de confiance, mais les progrès en la matière restent inégaux, selon Capgemini
L'« IA éthique » pourrait-elle exister ? Les technologues pensent que les défis éthiques de l'IA pourraient être résolus par du code, mais ces défis seraient beaucoup plus complexes, selon un auteur
Le Pentagone annonce l'adoption de cinq principes visant à garantir l'utilisation éthique et responsable de l'IA par les États-Unis, dns le domaine militaire

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 22/02/2021 à 14:14
Citation Envoyé par Stan Adkens Voir le message

Que pensez-vous de l’idée de "l’IA éthiquement correcte" des chercheurs ?
Qui décide de ce qui est éthique? Est-ce que fabriquer des armes est éthique? Est-ce que donner un accès libre aux armes à feu est éthique? Leur problème c'est que tout le monde peut avoir une arme à feu chez eux.

Citation Envoyé par Stan Adkens Voir le message

Pensez-vous que les gens utiliseront ce système sur leur arme à feu ?
Il faudrait être le dernier des abrutis pour accepter une perte de contrôle sur son arme.

Citation Envoyé par Stan Adkens Voir le message

La police peut-elle être amenée à utiliser une telle IA alors qu’en face elle ne sera certainement pas adoptée ?
Donner le contrôle à une IA, va sans doute amener de belles backdoors gouvernementales (comme dans tous nos logiciels). Donc en gros ce serait un bon moyen pour armer la police ("oh zut alors, l'IA n'a pas fonctionné" tout en désarmant ceux d'en face ("ce qu'ils faisaient n'était pas éthique".
2  0 
Avatar de pierre-y
Membre chevronné https://www.developpez.com
Le 22/02/2021 à 9:24
"Elle pourrait verrouiller les portes, arrêter les ascenseurs, alerter les autorités, modifier les feux de circulation, envoyer des alertes par SMS en fonction de la localisation, et toute une série d'autres mesures réactionnaires, y compris le déverrouillage des armes des forces de l'ordre et du personnel de sécurité pour la défense."

C'est flippant, je suppose qu'on doit trouver les même système en prison...
1  0 
Avatar de forthx
Membre éprouvé https://www.developpez.com
Le 22/02/2021 à 10:21
Que pensez-vous de l’idée de "l’IA éthiquement correcte" des chercheurs ?
Ca serait un beau sujet de philo pour le bac 2021
(je ne débâterai pas d'étique, de culture ou de morale sur ce sujet, c'est bien trop épineux)

Pensez-vous que les gens utiliseront ce système sur leur arme à feu ?
Probablement pas. Quelle serait la cible commercial ?
La ménagère ou le pere de famille américain.e qui veux se protéger d'un éventuel agresseur ?
Je pense que la plupart des gents n’ont pas suffisamment confiance pour mettre leur vie entre les main d'une IA.

La police peut-elle être amenée à utiliser une telle IA alors qu’en face elle ne sera certainement pas adoptée ?
J'imagine une grosse levé de bouclier dans ce cas.

A la limite l'IA pourrai remplacer la sécurité ou proposer un mode intermédiaire :
sécurité mise, IA active, je ne suis pas responsable en cas de tir, l'IA le légitime automatiquement. Si il y a des poursuite, c'est contre le developpeur de l'IA.
Dans une situation de dissuasion, le danger peut arriver mais il n'est pas immédiat par exemple.

securité off : je tire ou je veux, Je suis dans une situation ou je m'estime en danger, je veux contrôler mon outil de défense (je répondrai des mes actes plus tard au besoin).
securité off : je fait un raid, je suis l'agresseur (potentiellement légitime) ...
0  0 
Avatar de
https://www.developpez.com
Le 23/02/2021 à 9:29
Ca me rappelle un film avec Tom Cruise
0  0 
Avatar de TotoParis
Membre expérimenté https://www.developpez.com
Le 23/02/2021 à 11:25
On peut demander à Google pour l'éthique et l'IA, ils en connaissent un rayon :
https://www.developpez.net/forums/d2...-ethique-l-ia/
Chez Facebook aussi, ils en connaissent un rayon : https://www.bvoltaire.fr/laurent-ale...-linformation/
0  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 23/02/2021 à 19:50
Ca doit être plus simple de refaire minority report contre les tueurs de masse que de détecter la maltraitance et le harcèlement scolaire faut croire.
0  0