Alors que des spéculations font état de ce dont l’intelligence artificielle serait en train de menacer la démocratie telle que nous la connaissons, des études sur les possibilités d’user de l'intelligence artificielle et/ou de l’apprentissage automatique pour rendre la justice font surface. Un récent b de Paul Nemitz présentait, ce qu’il pense être les raisons pour lesquelles l’IA avance vers un niveau dangereux pour la démocratie. Il ne fait aucun doute, l’intelligence artificielle atteint des proportions grandissantes au sein de notre société et cela dans beaucoup de domaines. Cependant, le cadre juridique autour des TIC et notamment cette technologie semble très en retard pour contrôler leur ingérence dans nos vies.
La santé, l’éducation, la médecine, la mobilité, la communication, le commerce, etc. ; tous ses domaines sont couverts par l’IA d’aujourd’hui. À l’horizon, selon Daniel Chen, Chercheur et Professeur à l'Université Toulouse Capitole, on pourrait bientôt inclure dans cette longue liste le droit dans l’objectif d’avoir plus de crédibilité dans certaines décisions rendues par les juges de tribunaux. On pourrait penser à ce stade que l’IA viendra combler les "lacunes" du droit. Jugez-vous cela possible ? Les idées de Chen sont publiées dans un document intitulé “Apprentissage automatique et État de droit”. Chen préconise donc d’utiliser l’apprentissage automatique pour réduire les décisions parfois biaisées des juges. L’apprentissage automatique va apprendre des décisions déjà rendues dans les cours et tribunaux, faire des analyses et apporter des améliorations sur celles contenant des biais humains.
Encore une fois, le big data, l’apprentissage automatique et l’intelligence artificielle tenteront peut-être de voler la vedette aux juges. Une invention de l’homme pour le juger lui-même ? « L’analyse judiciaire prédictive promet d’accroître l’équité du droit. De nombreux travaux empiriques observent des incohérences dans le comportement des juges. En prédisant les décisions judiciaires avec plus ou moins de précision, en fonction d'attributs judiciaires ou de caractéristiques de procédure. L'application automatique permet de détecter les cas où les juges sont le plus susceptibles de laisser des préjugés juridiques supplémentaires influencer leur prise de décision.
En particulier, une faible précision prédictive peut identifier des cas d'indifférence judiciaire, lorsque les caractéristiques de l'affaire (interaction avec les attributs judiciaires) ne disposent pas d'un juge en faveur d'un résultat ou d'une autre. Dans de tels cas, les préjugés peuvent avoir une plus grande influence, impliquant l'équité du système juridique », écrit-il comme résumé au sein de son document. Pour expliquer ses paroles, il parle du fait que de plus en plus de juges s'aventurent dans le vaste monde de la politique et d’autres domaines qui pourraient influencer sur leurs décisions de justice. Il cite également d’autres éléments qui seraient aussi des causes des nombreux biais judiciaires.
Il conte notamment l’influence de l'ancrage ou encore le biais égocentrique. « L'avènement des outils d'apprentissage automatique et leur intégration avec les données juridiques offrent un mécanisme pour détecter les biais juridiques en temps réel temps, et ainsi remédier au comportement judiciaire qui porte atteinte à la règle de loi. Ce commentaire présente un cadre conceptuel pour comprendre le vaste ensemble de conclusions comportementales sur la prise de décision judiciaire et puis, prendre des mesures pour assurer un traitement plus juste des sujets de droit par le système légal », explique-t-il. D’après lui donc, les biais comportementaux sont plus susceptibles de se manifester dans des situations où les juges sont plus proches des sujets de droit.
Si les algorithmes peuvent identifier les contextes susceptibles de générer des biais, ils peuvent également réduire ces biais en donnant des coups de pouce comportementaux et autres mécanismes tels que l’éducation judiciaire. Le moins que l'on puisse dire, c'est que les progrès de l'IA dans ce sens sont en de bonnes voies. En effet, une étude effectuée en octobre 2018 a soumis une vingtaine d’avocats à un test au cours duquel ils devaient déceler les problèmes dans cinq accords de non-divulgation qui constituent une base contractuelle pour la plupart des transactions commerciales.
Pour le test, les vingt avocats experts en révision de contrats se sont retrouvés opposés à une intelligence artificielle, LawGeex AI. Ladite intelligence artificielle à laquelle les avocats ont été confrontés a réussi à atteindre un taux de précision moyen de 94 %, un chiffre largement supérieur à celui des avocats qui s’élevait à 85 %. Il a fallu en moyenne 92 minutes aux avocats pour mener à bien la recherche contre 26 secondes pour l’intelligence artificielle.
Rappelons qu’en 2016, le journal Le Monde écrivait par rapport à l’échec des logiciels de préventions des risques de récidive aux USA. « Une enquête de ProPublica montre que ces logiciels, très utilisés outre-Atlantique, donnent des résultats erronés et défavorisent les Noirs. Aux États-Unis, de nombreuses juridictions locales utilisent des logiciels prédictifs pour tenter d’évaluer les risques de récidive des prévenus. Conçus comme des programmes d’aide à la décision pour les juges, lorsqu’ils doivent décider d’une mise en liberté sous caution ou d’une condamnation, ces programmes notent le plus souvent les prévenus sur une échelle de 1 à 10, 10 représentant un risque exceptionnellement fort de récidive », avait écrit le journal. Un exemple de ces algorithmes est le logiciel COMPAS utilisé aux États-Unis.
Source : SSRN, Le Monde
Et vous ?
Qu'en pensez-vous ?
Voir aussi
L'intelligence artificielle menace-t-elle la démocratie dans le monde ? Oui, selon un conseiller principal à la Commission européenne
Intelligence artificielle : vingt avocats expérimentés se font battre par un algorithme lors d'un test de détection de problèmes juridiques
Google absorbe l'unité de santé de DeepMind pour transformer son application mobile Streams en assistant boosté à l'IA pour infirmières et médecins
70 % des projets d'IA dans le commerce numérique sont couronnés de succès d'après un sondage réalisé par Gartner
Des chercheurs du MIT créent la première intelligence artificielle psychopathe pour illustrer le problème de biais des données nourries aux IA
L'intelligence artificielle peut-elle aider à rendre les décisions de justice moins biaisées ?
Oui, selon un expert
L'intelligence artificielle peut-elle aider à rendre les décisions de justice moins biaisées ?
Oui, selon un expert
Le , par Bill Fassinou
Une erreur dans cette actualité ? Signalez-nous-la !