Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'intelligence artificielle peut-elle aider à rendre les décisions de justices moins biaisées ?
Oui, selon un expert

Le , par Bill Fassinou

165PARTAGES

11  0 
Alors que des spéculations font état de ce dont l’intelligence artificielle serait en train de menacer la démocratie telle que nous la connaissons, des études sur les possibilités d’user de l'intelligence artificielle et/ou de l’apprentissage automatique pour rendre la justice font surface. Un récent b de Paul Nemitz présentait, ce qu’il pense être les raisons pour lesquelles l’IA avance vers un niveau dangereux pour la démocratie. Il ne fait aucun doute, l’intelligence artificielle atteint des proportions grandissantes au sein de notre société et cela dans beaucoup de domaines. Cependant, le cadre juridique autour des TIC et notamment cette technologie semble très en retard pour contrôler leur ingérence dans nos vies.

La santé, l’éducation, la médecine, la mobilité, la communication, le commerce, etc. ; tous ses domaines sont couverts par l’IA d’aujourd’hui. À l’horizon, selon Daniel Chen, Chercheur et Professeur à l'Université Toulouse Capitole, on pourrait bientôt inclure dans cette longue liste le droit dans l’objectif d’avoir plus de crédibilité dans certaines décisions rendues par les juges de tribunaux. On pourrait penser à ce stade que l’IA viendra combler les "lacunes" du droit. Jugez-vous cela possible ? Les idées de Chen sont publiées dans un document intitulé “Apprentissage automatique et État de droit”. Chen préconise donc d’utiliser l’apprentissage automatique pour réduire les décisions parfois biaisées des juges. L’apprentissage automatique va apprendre des décisions déjà rendues dans les cours et tribunaux, faire des analyses et apporter des améliorations sur celles contenant des biais humains.

Encore une fois, le big data, l’apprentissage automatique et l’intelligence artificielle tenteront peut-être de voler la vedette aux juges. Une invention de l’homme pour le juger lui-même ? « L’analyse judiciaire prédictive promet d’accroître l’équité du droit. De nombreux travaux empiriques observent des incohérences dans le comportement des juges. En prédisant les décisions judiciaires avec plus ou moins de précision, en fonction d'attributs judiciaires ou de caractéristiques de procédure. L'application automatique permet de détecter les cas où les juges sont le plus susceptibles de laisser des préjugés juridiques supplémentaires influencer leur prise de décision.


En particulier, une faible précision prédictive peut identifier des cas d'indifférence judiciaire, lorsque les caractéristiques de l'affaire (interaction avec les attributs judiciaires) ne disposent pas d'un juge en faveur d'un résultat ou d'une autre. Dans de tels cas, les préjugés peuvent avoir une plus grande influence, impliquant l'équité du système juridique », écrit-il comme résumé au sein de son document. Pour expliquer ses paroles, il parle du fait que de plus en plus de juges s'aventurent dans le vaste monde de la politique et d’autres domaines qui pourraient influencer sur leurs décisions de justice. Il cite également d’autres éléments qui seraient aussi des causes des nombreux biais judiciaires.

Il conte notamment l’influence de l'ancrage ou encore le biais égocentrique. « L'avènement des outils d'apprentissage automatique et leur intégration avec les données juridiques offre un mécanisme pour détecter les biais juridiques en temps réel temps, et ainsi remédier au comportement judiciaire qui porte atteinte à la règle de loi. Ce commentaire présente un cadre conceptuel pour comprendre le vaste ensemble de conclusions comportementales sur la prise de décision judiciaire et puis, prendre des mesures pour assurer un traitement plus juste des sujets de droit par le système légal », explique-t-il. D’après lui donc, les biais comportementaux sont plus susceptibles de se manifester dans des situations où les juges sont plus proches des sujets de droit.

Si les algorithmes peuvent identifier les contextes susceptibles de générer des biais, ils peuvent également réduire ces biais en donnant des coups de pouce comportementaux et autres mécanismes tels que l’éducation judiciaire. Le moins que l'on puisse dire, c'est que les progrès de l'IA dans ce sens sont en de bonnes voies. En effet, une étude effectuée en octobre 2018 a soumis une vingtaine d’avocats à un test au cours duquel ils devaient déceler les problèmes dans cinq accords de non-divulgation qui constituent une base contractuelle pour la plupart des transactions commerciales.

Pour le test, les vingt avocats experts en révision de contrats se sont retrouvés opposés à une intelligence artificielle, LawGeex AI. Ladite intelligence artificielle à laquelle les avocats ont été confrontés, a réussi à atteindre un taux de précision moyen de 94 %, un chiffre largement supérieur à celui des avocats qui s’élevait à 85 %. Il a fallu en moyenne 92 minutes aux avocats pour mener à bien la recherche contre 26 secondes pour l’intelligence artificielle.

Rappelons qu’en 2016, le journal Le Monde écrivait par rapport à l’échec des logiciels de préventions des risques de récidive aux USA. « Une enquête de ProPublica montre que ces logiciels, très utilisés outre-Atlantique, donnent des résultats erronés et défavorisent les Noirs. Aux États-Unis, de nombreuses juridictions locales utilisent des logiciels prédictifs pour tenter d’évaluer les risques de récidive des prévenus. Conçus comme des programmes d’aide à la décision pour les juges, lorsqu’ils doivent décider d’une mise en liberté sous caution ou d’une condamnation, ces programmes notent le plus souvent les prévenus sur une échelle de 1 à 10, 10 représentant un risque exceptionnellement fort de récidive », avait écrit le journal. Un exemple de ces algorithmes est le logiciel COMPAS utilisé aux Etats-Unis.

Source : SSRN, Le Monde

Et vous ?

Qu'en pensez-vous ?

Voir aussi

L'intelligence artificielle menace-t-elle la démocratie dans le monde ? Oui, selon un conseiller principal à la Commission européenne

Intelligence artificielle : vingt avocats expérimentés se font battre par un algorithme lors d'un test de détection de problèmes juridiques

Google absorbe l'unité de santé de DeepMind pour transformer son application mobile Streams en assistant boosté à l'IA pour infirmières et médecins

70 % des projets d'IA dans le commerce numérique sont couronnés de succès d'après un sondage réalisé par Gartner

Des chercheurs du MIT créent la première intelligence artificielle psychopathe pour illustrer le problème de biais des données nourries aux IA

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 24/01/2019 à 23:31
Citation Envoyé par Bill Fassinou Voir le message
L'intelligence artificielle peut-elle aider à rendre les décisions de justices moins biaisées ?
Oui, selon un expert
Bien sûr, à condition qu'on l'utilise dans ce sens.

La tendance actuelle est d'utiliser et sur-utiliser les systèmes à apprentissage basés sur des jeux de données (supervisés). Or, ceux-ci ne font que "répéter" les comportements observés dans les données. C'est bien pour gagner du temps, mais ça conserve la plupart des biais, utiles comme préjudiciables. Ce n'est donc pas vers cela qu'il faut se tourner si l'on souhaite éviter les biais existants. Il reste cependant intéressant d'en faire pour gagner du temps, un besoin réel mais tout à fait différent.

Les systèmes sans jeu de données (non supervisés) apparaissent comme les moins sujets aux biais, mais manquent hélas de la dimension humaine nécessaire pour juger. En effet, juger ne se limite pas à appliquer des règles strictes, exprimables de manière mathématique. Il s'agit d'interpréter des lois en ayant conscience de pratiques et situations, actuelles ou historiques.

Les systèmes experts, je n'en parle même pas, ceux-là dépendent encore plus de ces règles qu'on aurait tant de mal à exprimer mathématiquement.

Bref, il ne fait aucun doute qu'il y a de la matière à travailler pour améliorer l'application du droit, mais il ne s'agit pas de se lancer bêtement dans des techniques populaires en se disant qu'on va révolutionner la justice.
3  0 
Avatar de CoderInTheDark
Membre chevronné https://www.developpez.com
Le 22/01/2019 à 13:15
La justice est aveugle et doit l'être.
Et une machine peut l'être

Pour ne pas défavoriser le prévenu qui se défend mal, qui ne présente pas bien.
Ou l'inverse celui trop parfait qui agace les jurées, par sa perfection ou son assurance.
Et encore qui va touché par son histoire, car parfois ça va bien au delà des circonstances atténuantes.
Il est dur pour les victimes de s'entendre dire qu'elles sont victimes des victimes de la société.
C'est dur pour un humain de ne pas être influencé.
Juger les faits et rien que les fait.

Mais le danger est que cette machine judiciaire soit impitoyable, qu'elle se détraque, comme dans le film Brazil.
1  0 
Avatar de matthius
Inactif https://www.developpez.com
Le 19/01/2019 à 17:44
Pour que l'IA soit utilisée pour jugement, il faudrait que les juges comprennent non seulement ce qu'est un ordinateur, mais aussi la programmation.

En effet, l'IA ne fonctionne qu'avec du triage. Or quelqu'un qui réfléchit scientifiquement grâce à son intelligence inter-personnelle pourrait faire mieux, encore faudrait-il qu'on apprenne à philosopher scientifiquement à l'école, ce qu'ont fait les enfants pour apprendre à parler et à marcher.

Un cours de philosophie ça n'est pas philosopher. Lorsque j'ai demandé à quelqu'un qui apprenait le droit ce sur quoi il devait philosopher, il ne savait pas. Un autre ne voulait aucunement réfléchir, ce qui est encore plus problématique. Or juger consiste à philosopher autour de la phrase "la liberté des uns s'arrête là où commence celle des autres." Le livre Le droit des gens a été construit sur cette base :
https://archive.org/details/Liberlog

Voici le parcours de quelqu'un qui a réussi à philosopher, parmi notre élite :

https://rutube.ru/video/b2f473ad903c1d819c60aea302a71dee/
0  1