IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Doit-on confier les décisions de vie ou de liberté à une intelligence artificielle ?
Aux USA, une IA envoie des gens en prison et souvent à tort

Le , par Michael Guilloux

716PARTAGES

15  0 
Doit-on confier les décisions de vie ou de liberté aux technologies d'intelligence artificielle ? La question mérite d'être posée étant donné que l'IA est aujourd'hui vue comme la solution à tous les problèmes dans notre société. À la vitesse avec laquelle les choses avancent, c'est possible que l'IA soit le décideur de demain dans presque tous les domaines, y compris sur le champ de bataille dans des zones de guerre. En tout cas, de nombreux pays y travaillent, en commençant par les USA. Rappelons qu'ils comptaient sur Google pour développer leur projet Maven, qui vise à fournir à l'armée une vision par ordinateur avancée permettant de détecter et identifier automatiquement des objets, dans pas moins de 38 catégories, capturés par la caméra d'un drone. Ce qui laisse croire que Maven pourrait être utilisée pour des frappes ciblées. Heureusement, Google a fait marche arrière après la vague de protestations à laquelle l'entreprise a fait face. Mais cela ne semble pas avoir freiné les USA dans leurs ambitions d'IA militaires.

Le pays de l'Oncle Sam s'approprie de bien d'autres manières l'IA dans des décisions qui pourraient mettre en péril la vie ou la liberté des populations. Par exemple, les services de police utilisent des algorithmes prédictifs pour décider où envoyer leurs agents. Les forces de l'ordre utilisent aussi des systèmes de reconnaissance faciale pour identifier les suspects. À propos, les chercheurs et les défenseurs des droits civils ont maintes fois démontré que les systèmes de reconnaissance faciale pouvaient commettre de grosses erreurs. Ils présentent des biais au détriment des personnes de couleur ; un danger qui a été montré l'année passée quand la technologie de reconnaissance faciale d'Amazon a identifié à tort 28 membres du Congrès US comme étant des criminels.

Mais l'outil IA le plus redoutable est sans doute celui qui doit être utilisé par le système judiciaire pour emprisonner des accusés ou fixer leur peine correctionnelle : des algorithmes d'évaluation des risques criminels. Les USA sont en effet confrontés à un gros problème, ils emprisonnent plus de personnes que tout autre pays au monde. À la fin de 2016, près de 2,2 millions d'adultes étaient détenus en prison et 4,5 millions supplémentaires dans d'autres établissements correctionnels. En d'autres termes, un Américain adulte sur 38 était sous une forme ou une autre de surveillance correctionnelle. Sous la pression immense de réduire le nombre de prisonniers sans risquer d'augmenter la criminalité, les salles d'audience à travers les États-Unis se sont donc tournées vers des outils automatisés pour tenter d'affecter les accusés dans le système judiciaire de la manière la plus efficace et sûre possible. Et c'est là que cette IA en entrée en jeu.

Les outils d’évaluation des risques sont conçus pour faire une chose : noter les détails du profil de l’accusé et lui attribuer un score de récidive. En se basant sur ce score et d'autres paramètres, un juge peut déterminer le type de services de réhabilitation que doivent recevoir certains accusés, s’ils doivent être incarcérés avant le procès et quelle doit être la durée de leur peine. Un score faible ouvre la voie à un destin plus généreux. Et un score élevé vous expose à un destin pénible. L'idée derrière l'utilisation de tels outils algorithmiques est que si vous pouvez prédire avec précision un comportement criminel, vous pouvez affecter des ressources en conséquence, que ce soit pour sa réhabilitation ou pour des peines de prison. En théorie, cela réduit également tout biais influençant le processus, car les juges prennent leurs décisions en se basant sur des recommandations fondées sur des données et non sur leur instinct.

Mais le problème est que ces outils modernes d'évaluation de risques reposent souvent sur des algorithmes formés à partir de données historiques sur la criminalité. Ainsi, les populations qui historiquement ont été ciblées de manière disproportionnée par les forces de l'ordre - en particulier les minorités et les communautés à faible revenu - risquent de se voir attribuer des scores élevés de récidive. En 2016 par exemple, il a été découvert en Floride que l'outil IA utilisé pour prédire si un accusé commettra de futurs crimes juge les Noirs plus sévèrement que les Blancs. À titre d'exemple, Propublica, le média qui relatait l'affaire a révélé que deux personnes arrêtées pour possession de drogue, l'une (un homme blanc) a été classée comme étant à faible risque (niveau 3/10), alors que l'autre (un homme noir) a été classée comme étant à risque élevé (niveau 10/10). Le premier a pourtant été coupable de la même infraction trois fois plus tard, contrairement à l'autre accusé qui n'a été coupable d'aucune infraction plus après sa libération.


Le débat sur l'utilisation de ces outils fait rage. En juillet dernier, plus de 100 organisations de défense des droits civils et communautaires, y compris l'ACLU (Union américaine pour les libertés civiles) et la NAACP (l'Association nationale pour l'avancement des personnes de couleur), ont signé une déclaration appelant à ne pas utiliser ces outils d'évaluation de risques. Mais pendant ce temps, de plus en plus de juridictions et d’États US, y compris la Californie, se sont tournés vers ceux-ci dans un objectif de résoudre leur problème de prisons surchargées.

Alors, au cours de la conférence Data for Black Lives le week-end dernier, des technologues, des experts juridiques et des activistes communautaires ont tenté encore une fois de mettre le problème sur la place publique. « L’intelligence artificielle n’aura peut-être pas d’impact personnel considérable si vous utilisez souvent les algorithmes d’apprentissage automatique via les flux de nouvelles de Facebook ou les classements des résultats de recherche de Google... Mais dans le système de justice pénale américain, un algorithme peut déterminer la trajectoire de votre vie », rapporte le MIT Media Lab qui a accueilli cette conférence.

Dans un article, il explique que les algorithmes d’apprentissage automatique utilisent des statistiques pour rechercher des modèles dans les données. Donc, si vous alimentez des données historiques sur la criminalité, il déterminera les modèles associés à la criminalité. Mais ces modèles déterminent des corrélations statistiques et non des relations de causalité. « Si un algorithme constatait, par exemple, que le faible revenu était corrélé à un taux de récidive élevé, vous ne seriez pas averti de la question de savoir si le faible revenu était réellement un facteur criminel. Mais c’est précisément ce que font les outils d’évaluation des risques : ils transforment les connaissances corrélatives en mécanismes de notation causale », rapporte le MIT Media Lab. L'utilisation des données historiques pour entraîner des outils d'évaluation de risques peut signifier que les algorithmes copient les erreurs du passé. Ils pourraient donc amplifier et perpétuer les biais incorporés et générer encore plus de données entachées de biais pour alimenter un cercle vicieux. Un problème auquel s'ajoute le fait que les algorithmes d’évaluation des risques sont propriétaires, il est donc également impossible d'auditer leurs décisions ou de les tenir responsables.

Et en France, doit-on utiliser l'IA dans le système judiciaire ?

La question tombe à pic, puisque l'idée d'utiliser l'intelligence artificielle dans les décisions de justice a récemment été abordée. D'après Daniel Chen, directeur de recherche à l'Université Toulouse Capitole, on devrait utiliser l'IA dans le système judiciaire. Dans une étude intitulée « Apprentissage automatique et État de droit », M. Chen préconise notamment d’utiliser l’apprentissage automatique pour réduire les décisions parfois biaisées des juges. L’apprentissage automatique va apprendre des décisions déjà rendues dans les cours et tribunaux, faire des analyses et apporter des améliorations sur celles contenant des biais humains.

« L’analyse judiciaire prédictive promet d’accroître l’équité du droit. De nombreux travaux empiriques observent des incohérences dans le comportement des juges. En prédisant les décisions judiciaires avec plus ou moins de précision, en fonction d'attributs judiciaires ou de caractéristiques de procédure, le machine learning permet de détecter les cas où les juges sont le plus susceptibles de laisser des préjugés extra juridiques influencer leur prise de décision », dit-il dans son étude. Mais quand on voit ce qui se produit aux USA, ne devrait-on pas se montrer prudent à l'égard de l'étude de M. Chen ? Pourquoi l'IA serait-elle plus efficace dans le système judiciaire français que dans celui des USA ?

Source : MIT Media Lab

Et vous ?

Que pensez-vous de la place accordée à l'IA dans des domaines comme la justice pénale ?
En France, doit-on utiliser l'IA dans le système judiciaire ? Pourquoi une IA pourrait-elle être meilleure qu'un juge ?
Doit-on confier les décisions de vie ou de liberté à l'IA ? Dans quels cas ?
Où devrait s'arrêter l'utilisation des technologies d'intelligence artificielle ?

Voir aussi :

L'intelligence artificielle peut-elle aider à rendre les décisions de justices moins biaisées ? Oui, selon un expert
L'intelligence artificielle menace-t-elle la démocratie dans le monde ? Oui, selon un conseiller principal à la Commission européenne
Intelligence artificielle : le public semble plus soutenir son développement qu'y être opposé, d'après un sondage
Google ne vendra pas la technologie de reconnaissance faciale pour l'instant, avant d'aborder d'importantes questions de technologie et de politique
La technologie de reconnaissance faciale d'Amazon identifie à tort 28 membres du Congrès US comme des criminels, quels dangers pour les Américains ?
Microsoft développe un outil pour détecter automatiquement les biais dans les algorithmes d'IA, une solution pour éviter les discriminations ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre émérite https://www.developpez.com
Le 15/10/2024 à 9:02
Tuer des gens avec 3 scripts python c'est vraiment vulgaire, même pas du C ? /S

On vit vraiment dans une époque formidable...
4  0 
Avatar de Minato Sensei
Membre habitué https://www.developpez.com
Le 15/10/2024 à 15:05
Il faut vraiment un débat dessus ? Sérieusement ? Donner à une IA le droit de « décider » de tuer c'est non, non et non. Y a qu'à voir déjà comment le FSD de son excellence Elon Musk se comporte (entre le freinage fantôme, le piéton bien détecté par le FSD qui « choisit » de ne pas ralentir, etc.), je trouve que donner en plus le droit de vie ou de mort à une entité susceptible d'être boguée c'est la porte ouverte à l'absurdité.

Et hop, on vous pirate vos jolis joujoux qui se retournent contre vous et commencent à flinguer leurs « alliés » (toute ressemblance avec des guerres qu'on a mené avec les amerloques pendant lesquelles ils ont canardé nos compatriotes - les « tirs amis » comme ils disent - est strictement fortuite)

Citation Envoyé par Jules34 Voir le message
Tuer des gens avec 3 scripts python c'est vraiment vulgaire, même pas du C ? /S

On vit vraiment dans une époque formidable...
Elle est excellente hahahaha
2  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 15/10/2024 à 16:49
Citation Envoyé par Jules34  Voir le message
Tuer des gens avec 3 scripts python c'est vraiment vulgaire, même pas du C ? /S

On vit vraiment dans une époque formidable...

C'est toujours mieux que JS.
Code python : Sélectionner tout
1
2
3
4
5
def can_shoot(target): 
    return not target.isChild 
  
target = Target() 
print("Can shoot ? :", can_shoot(target))
Provoque l'erreur suivante mais s'arrête : AttributeError: 'Target' object has no attribute 'isChild'

Code javascript : Sélectionner tout
1
2
3
4
5
6
7
function can_shoot(target) 
{ 
    return !target.isChild 
} 
  
let target = { }; 
console.log("Can shoot ? : " + can_shoot(target))
Retourne "Can shoot ? : true"
2  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 16/10/2024 à 11:06
Citation Envoyé par Minato Sensei Voir le message
Il faut vraiment un débat dessus ? Sérieusement ? Donner à une IA le droit de « décider » de tuer c'est non, non et non.
Entièrement d'accord !! C'est pour ça qu'il n'y a pas de débat public, je pense que la société civile si on lui demandait par référendum elle interdirait tout ça.

Mais comme ce sont nos visionnaires de la Sillicon Valley ils décident entre eux, nous sommes des gueux à qui il convient de faire passer la pilule une fois que la décision est prise.
1  0 
Avatar de LittleWhite
Responsable 2D/3D/Jeux https://www.developpez.com
Le 16/10/2024 à 20:34
En réalité, un débat public est concevable (pour laisser penser que l'opinion publique est utile et que le public a une sorte de décision à prendre). Il suffit de débuter le débat en disant :
Seriez-vous prêt à laisser votre frère ou votre fils aller à la guerre et se faire tuer par les balles de l'ennemi (n'oubliez pas d'exagérer sur qui est l'ennemi, que c'est un monstre, qu'il est loin d'être humain). Imaginez un monde où, votre fils, votre frère n'a pas besoin de mettre sa vie en danger sur le terrain. C'est possible, grâce à l'IA et notre super robot méga sophistiqué. Votre fils/frère vous reviendra, c'est certain grâce à nous.
Alors, pour ou contre les IA qui peuvent "prendre la décision" de tuer ? Que voulez vous, une IA, ou votre fils mort ?
1  0 
Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 22/01/2019 à 9:41
Autant qu'on doit faire confiance aux marchés pour s'autoréguler. J'ai toute confiance en notre élite sur ce sujet.
0  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 15/10/2024 à 4:13
Lavender a joué un rôle central dans le bombardement sans précédent des Palestiniens, en particulier au début de la guerre. Le rapport fait état de ce que son influence était telle que les opérateurs humains traitaient les données mises en avant par cette intelligence artificielle comme s'il s'agissait d’apports humains. Ainsi, les militaires en charge de valider les frappes n’accordaient qu’environ 20 secondes par cas – juste pour s’assurer que la cible marquée par Lavender est bien un homme – avant d'autoriser un bombardement et ce, sachant que le taux de faux positif tourne autour de 10 %.
On comprend mieux maintenant les frappes 'aveugles' sur des camps de réfugiés.... Israël justifiant des dizaines de Palestiniens tués par la soi-disant présence de terroristes du Hamas.
0  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 15/10/2024 à 9:05
Citation Envoyé par marsupial Voir le message
On comprend mieux maintenant les frappes 'aveugles' sur des camps de réfugiés.... Israël justifiant des dizaines de Palestiniens tués par la soi-disant présence de terroristes du Hamas.
Ca risque effectivement de délégitimer encore un peu plus l'action publique. Quand on voit les manifestations qu'il peut-y avoir en France quand un dealer se fait tuer après moult refus d'obtempérer et mise en danger de la vie d'autrui, on s'imagine déjà que si l'IA doit se mêler à ces histoires on ne saura jamais démêler le vrai du faux, ce qui est catastrophique...
0  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 17/10/2024 à 15:50
Citation Envoyé par LittleWhite Voir le message
En réalité, un débat public est concevable (pour laisser penser que l'opinion publique est utile et que le public a une sorte de décision à prendre). Il suffit de débuter le débat en disant :
Alors, pour ou contre les IA qui peuvent "prendre la décision" de tuer ? Que voulez vous, une IA, ou votre fils mort ?
Effectivement...

ça leur permet de ne pas parler du moment ou l'état armera aussi des robots pour vous faire payer vos impôts ou éborgner des gilets jaunes. ça risquerait de déplacer le pathos du mauvais côté de la barrière
0  0 
Avatar de saturn1
Membre confirmé https://www.developpez.com
Le 22/01/2019 à 22:17
C'est quoi ce bull shit.
C'est vraiment n'importe quoi.

Plus c'est de la merde... plus il y a IA/ARGENT/USA
0  1