IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La France bannit les IA de prédiction des comportements des juges
Les technologies de justice prédictive sont-elles une menace pour la société ?

Le , par Michael Guilloux

248PARTAGES

24  0 
L'intelligence artificielle et l'analytics touchent un nombre croissant de secteurs et le domaine juridique n'en est pas épargné. Outre les tentatives de remplacer les juges par des algorithmes ou de laisser à ces derniers le soin de décider du sort de certains criminels, l'IA est également utilisée en justice prédictive.

En effet, dans certains pays, y compris en France, des cabinets d'avocats font appel à des entreprises qui vantent des technologies juridiques capables d'analyser des millions de décisions de justice à la seconde, ce qui permet par exemple d'évaluer la probabilité de succès d'une action contentieuse. Mais ces entreprises technologiques du secteur juridique construisent également des modèles de comportement des juges sur certaines questions ou face à différents arguments juridiques. Avec de telles informations, les cabinets d'avocats peuvent optimiser leurs stratégies devant les tribunaux.


Aux États-Unis et au Royaume-Uni, les juges semblent avoir accepté le fait que des entreprises technologiques analysent leurs décisions de manière extrêmement détaillée et créent ensuite des modèles de leurs comportements. Mais en France, les juges n'acceptent pas ces pratiques. Dans une mesure qui vise à limiter le secteur émergent de l’analyse et de la prédiction de l'issue des contentieux, le gouvernement français a en effet interdit la publication d’informations statistiques sur les décisions des juges. C'est ce que stipule un passage de l'article 33 de la loi n° 2019-222 du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice :

« Les données d'identité des magistrats et des membres du greffe ne peuvent faire l'objet d'une réutilisation ayant pour objet ou pour effet d'évaluer, d'analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées. » Toute personne qui enfreint la nouvelle règle peut encourir jusqu'à cinq ans de prison, ce qui semble être en ce moment le plus dur exemple de réglementation de technologie juridique dans le monde.

Cette nouvelle loi vise à empêcher quiconque de révéler le comportement des juges dans les décisions de justice, mais ce sont visiblement les sociétés de technologie juridique spécialisées dans l’analyse et la prédiction de l'issue des litiges qui sont le plus ciblées.

La nouvelle loi résulte directement d'un effort antérieur visant à rendre les décisions de justice facilement accessibles au grand public, pour plus de transparence dans le secteur. Mais cet effort a connu des oppositions à cause du besoin général d'anonymat ou encore de la crainte parmi les juges que leurs décisions révèlent un écart trop important par rapport aux normes attendues du droit civil. Cette loi serait donc un compromis avec le gouvernement : « les noms des juges ne devraient pas être retirés (à quelques exceptions près) des décisions de justice rendues publiques, mais ils ne pourront pas non plus être utilisés à des fins statistiques », explique un expert français de technologie juridique.

Il est clair qu'il doit y avoir des limites aux données que les sociétés de technologie de l'information peuvent être autorisées à collecter sur des particuliers. Mais pour les critiques de cette nouvelle loi, les décisions des juges rendues publiques sont des « données publiques » et leur utilisation ne devrait pas être restreinte de cette manière. Ce serait en effet comme donner à quelqu'un l’accès à une bibliothèque publique, mais lui interdire de lire certains livres qui se trouvent juste sur l’étagère, à la vue de tous. Pour eux, si une affaire juridique relève déjà du domaine public, toute personne qui le souhaite devrait avoir le droit de procéder à une analyse statistique des données qui en découlent afin de répondre à des questions qu'elle se pose. Après tout, comment une société peut-elle dicter comment les citoyens sont autorisés à utiliser des données et à les interpréter si ces données ont déjà été rendues disponibles au public par un organisme public tel qu'un tribunal ?

Source : Legifrance

Que pensez-vous de cette loi ?
Selon vous, faut-il pénaliser l'analyse des décisions de justice à des fins de prédiction des comportements des juges ou de l'issue des contentieux ?
Ces technologies de justice prédictive constituent-elles une menace pour la société ?

Voir aussi :

Doit-on confier les décisions de vie ou de liberté à une intelligence artificielle ? Aux USA, une IA envoie des gens en prison et souvent à tort
L'intelligence artificielle peut-elle aider à rendre les décisions de justice moins biaisées ? Oui, selon un expert
Intelligence artificielle : vingt avocats expérimentés se font battre par un algorithme lors d'un test de détection de problèmes juridiques
Une intelligence artificielle peut-elle être un juge équitable dans un tribunal ? L'Estonie pense que oui
La technologie de reconnaissance faciale d'Amazon identifie à tort 28 membres du Congrès US comme des criminels, quels dangers pour les Américains ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Neckara
Inactif https://www.developpez.com
Le 05/06/2019 à 7:08
Il ne s'agit pas de bannir les IA de prédiction des comportements des juges, mais de bannir les IA de prédiction et les statistiques relatives à un juge donné et identifié.

L'objectif est donc d'éviter que les juges subissent une pression sous prétexte qu'ils ne "feraient pas comme leur collègues"/n'obtiendrait pas les mêmes chiffres. Ce qui pourrait alors biaisé les jugements rendus et compromettre l'impartialité et l'équité du juge.

Il n'y a en revanche, a priori aucun problème si les données sont pseudomysée.
Mais il faudrait tout de même que les instances de contrôles de la Justice puisse tout de même avoir accès à certains chiffres, ne serait-ce que pour détecter les cas qu'il faudrait suivre de plus près.
5  0 
Avatar de abriotde
Membre chevronné https://www.developpez.com
Le 04/06/2019 à 23:03
C'est plus que ridicule car rien n'interdit une entreprise Suisse ou américaine de lire et analyser ces données et rien n'empêche les français de la consulter. Je suis pour l'Open Source, l'Open data afin de combattre la corruption, d'améliorer le système par une remise en cause permanente. L'IA peut se tromper mais elle peut aussi nous ouvrir les yeux. Un peu comme un enfant dit la vérité que personne ne voit même s'il dit beaucoup de stupidité.
4  0 
Avatar de saturn1
Membre confirmé https://www.developpez.com
Le 04/06/2019 à 17:37
Je pense que cela aurait révélé la vraie nature de l'Homme. (car entre autre basé sur le deep learning et apprise sur des cas humains: l'histoire).
Pour pas voir sa vraie médiocrité/cruauté/responsabilité le bourreau ne préfère pas que ca se sache.
3  1 
Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 05/06/2019 à 8:43
Citation Envoyé par Mingolito Voir le message
C'est dommage cet obscurantisme de la part du gouvernement, parce que ce genre d'études aurait peut être pu révéler des dysfonctionnements ou des points à améliorer du coup.
Pour ce qui est des points à améliorer :
  • En finir avec l'empilement législatif
  • Supprimer les textes obsolètes et ceux qui se contredisent
  • Rédiger la loi dans un français clair et compréhensible ne donnant pas lieu à diverses interprétations
  • Simplifier les procédures et les rendre plus rapides
  • Arrêter de tout judiciariser (le droit opposable à ci et à ça)


Tenter d'analyser le comportement d'un juge c'est lorsque l'on sait que l'on pas des arguments légaux assez solides, on va donc essayer de jouer sur la psychologie, cherchant des biais et/ou des sensibilités particulières pour essayer d'échapper à la sanction. De toute façon c'est pas pour les vulgaires péquins en délicatesse avec la police ou les mauvais payeurs de pensions alimentaires ça : c'est pour les gros poissons qui peuvent avoir les moyens de s'offrir ce genre de services "haut-de-gamme" (je pense à Monsanto par exemple) pour échapper à leur responsabilités...

C'est très bien que la loi y mette un frein !
2  0 
Avatar de Itachiaurion
Membre confirmé https://www.developpez.com
Le 04/06/2019 à 20:09
Le fait est que il est a peu près sur que les grandes entreprises et autres personnes qui en ont les moyens utiliserais très certainement ces données à leurs avantages pour influer sur une décision de jugement ce qui ne devrais pas être possible et rendrais la justice plus inégalitaire encore, la fracturant plus encore notamment entre les riches et les pauvres. Je ne suis pas tout a fait contre une utilisation pour "améliorer" la justice et peut être la rendre moins biaisé, mais les algorithme ont tendance aussi a se biaisé même sans volontés préalable aussi je suis assez, disons septique. Sur un sujet aussi important que la justice il faudrait vraiment des études très approfondis pour définir le rôle de l'IA (même si c'est un abus de langage) et du deep learning dans les apports qu'ils peuvent avoir.
2  1 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 07/06/2019 à 1:45
Si j'ai bien compris, il ne s'agit pas d'interdire l'analyse statistique/la prédiction des décisions juridiques de manière générale. Il s'agit d'interdire que celles-ci se fassent avec une granularité de l'ordre de l'individuel. On évite donc l'optimisation juridique, qui vise à faire face aux juges les plus avantageux, mais on permet par exemple de faire une prédiction sur les chances de succès en général, et donc de savoir si ça vaut le coup d'aller en justice ou non. Pour faire une métaphore : les soldes existent toujours, mais on évite que certains arrivent à les avoir tous les jours.

Je suis moi aussi dubitatif sur l'efficacité d'une telle mesure : les données sont de toutes façon disponibles. Si les statistiques ne sont plus compilées de manière officielle, cela engendrera juste un marché parallèle de compilation de ces données. Du reste : pas vu, pas pris.

Mais au delà de l'efficacité de la mesure, autant je comprends l'idée de vouloir éviter les optimisations juridiques, autant pour moi c'est encore une fois viser à côté, comme toutes ces lois liées à l'"IA". Ce genre d'analyse permettrait par exemple d'identifier les corruptions potentielles des juges, tel un juge plus généreux que ses confrères sur certains types d'affaires. On me dit dans l'oreillette que ça forcerait psychologiquement les juges à aller toujours dans le même sens, et donc favoriserait un jugement biaisé par des normes de jugement pas forcément justifiées. Moi je pense que ces postes sont ceux d'intellectuels et de personnes autonomes, et que ça favoriserait donc plutôt les échanges de visions et réflexions entre juges, permettant d'améliorer les compétences de chacun.

Il s'agit donc encore une fois d'un outil, qui peut bien sûr être utilisé à de bonnes comme de mauvaises fin. Ce qu'il faut interdire ce sont les mauvais usages, et non l'outil lui-même. On interdit de tuer, pas d'utiliser un couteau. On interdit d'électrocuter des gens, pas d'avoir son éolienne dans son jardin. On interdit de voler les gens, pas de crocheter sa propre serrure parce qu'on a paumé la clé. De la même manière, il ne s'agit pas d'interdire ce genre d'analyse et de prédiction, mais d'interdire leurs mauvais usages, tels que l'optimisation juridique.
1  0 
Avatar de laerne
Membre éprouvé https://www.developpez.com
Le 05/06/2019 à 0:33
Mmh... Google translate a un problème d'auto-feedback : google translate crawle des sites traduit dans différentes langues pour apprendre à traduire, puis les gens utilisent google translate pour traduire leur site que google translate crawle par ensuite pour apprendre à traduire à partir de ses propres traductions foireuses… Et au final c'est l'IA qui a un certain degré décide d'elle-même des traductions correctes…

Je me méfierais d'un problème similaire avec les juges… Je n'ai pas la naïveté de croire qu'il est impossible d'influencer l'impartialité d'un cours par réaction ou contre-réaction, ce sont des êtres humains, après tout. Je crois pas que ce soit un trop gros problème avec l'opinion publique plus émotionnelle qu'autre chose. Mais est-ce qu'il y a des psychologues qui se sont penchés si et comment des modèles « rationnels » peuvent influencer les juges, par auto-correction inconsciente de savoir qu'on a un score trop « hors-norme » ou trop « conforme » ? Et si c'est le cas a-t-on envisagé quel poids l'IA peu prendre dans les décision de justice par ce système d'auto-feedback ?
0  0 
Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 05/06/2019 à 1:24
Ça intéresse surtout les sociétés d'avocats, pouvoir estimer les chances de gagner ou de perdre et combien, donc de savoir combien investir dans une affaire.
Certains avocats ne demandent rien à leur client ils se paient avec un pourcentage sur la "recette".
0  0 
Avatar de sinople
Membre chevronné https://www.developpez.com
Le 05/06/2019 à 12:36
Je pense que l'adaptation d'un avocat en fonction du juge est quelque chose qui n'a pas attendu le Big Data pour se faire.

Dans le circuit, ils doivent se connaître (le cercle n'est pas si grand que ça) et je doute pas un instant que le juge à une certaine partialité (de part son humanité) qu'il est possible d'exploité. La question se pose surtout sur "l'industrialisation" de ce processus d'apprentissage et le risque d'abus systématique.

Un arrogant aura certainement une peine plus lourde que celui qui baisse la tête et ferme sa bouche quand le juge lui fait la morale pour un même délit. Ça c'est l'exemple évident du concept.
0  0 
Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 04/06/2019 à 17:24
C'est dommage cet obscurantisme de la part du gouvernement, parce que ce genre d'études aurait peut être pu révéler des dysfonctionnements ou des points à améliorer du coup.

Donc la on doit s'obliger à se bander les yeux, donc si on fait de la merde on en saura rien et on va continuer à faire de la merde. Technique typique de fonctionnaire.
1  2