Une IA peut prédire si une plainte est recevable ou non devant la CEDH
Avant même que les juges se soient penchés sur le dossier

Le , par Coriolan

9PARTAGES

3  0 
L’intelligence artificielle est le nom donné à la discipline scientifique qui cherche à créer et à simuler l’intelligence. Cette discipline a été toujours un sujet de polémique, puisqu’elle cherche à mettre au point des programmes informatiques capables de réaliser de façon plus satisfaisante des tâches qui sont pour l’instant accomplies par des humains, autrement dit, on cherche à créer des machines capables d’imiter les différents aspects humains comme le raisonnement, la compréhension des langages naturels, la perception visuelle ou auditive, etc. Le développement de l’IA a suscité de nombreuses réactions tant dans les récits de science-fiction que dans les essais philosophiques. Si pour certains enthousiastes, elle constitue un grand pas pour l’humanité, d’autres, au contraire sont inquiets et voient d’un mauvais œil l’avancée rapide de cette technologie.

C’est dans le domaine de la justice que les dernières avancées ont été faites, des chercheurs du University College London (UCL) ont réussi à mettre au point un système d’IA capable de prédire si une plainte adressée à la Cour européenne des droits de l’homme (CEDH) est recevable ou non, avec un taux de réussite de 79 %. L’objectif affiché est d’aider la Cour à faire face à l’explosion du nombre de dossiers à examiner et qui entraine des retards conséquents dans la prise des décisions de justice.

Pour comprendre l'intérêt de ce système, il faudrait savoir qu’en 2015, la CEDH a reçu le double du nombre de plaintes reçues l’année antérieure. Cet afflux croissant de procédures est dû à plusieurs raisons, notamment l’arrivée de nouveaux membres et l’importance grandissante que prend la CEDH dans les systèmes judiciaires européens. Selon les chercheurs, cette technologie pourrait automatiser le processus de l’analyse des plaintes et prioriser celles les plus susceptibles d'être reçues par les juges.

Le système d’apprentissage-machine a examiné des documents publics de la Cour liés à 584 cas de violation des articles 3 (interdiction de la torture), 6 (droit à un procès équitable) et 8 (droit au respect de la vie privée et familiale) de la Convention européenne des droits de l’homme ratifiée par 47 États membres. Ces documents ont une structure distinctive, mettant en évidence d’abord la procédure qui a permis à la plainte d’arriver à la Cour, l’ensemble des faits et les circonstances, les lois pertinentes et les arguments légaux appliqués. Ensuite, pour chaque plainte, l’IA examine les allégations faites par les parties concernées et l’évaluation de leurs mérites par les juges, avant d’en conclure les dispositions opérationnelles. L’approche suivie par l’équipe de chercheurs est assez simple et s’appuie sur les avancées majeures réalisées dans le domaine de l’apprentissage de réseaux de neurones profonds. De cette façon, la machine a pu distinguer les aspects qui sont les plus susceptibles d'être en corrélation avec un verdict particulier.

L’équipe a pu se rendre compte que les décisions des juges découlent en premier lieu des circonstances spécifiques qui entourent chaque cas individuel et donnent une grande importance aux détails non légaux. C’est pourquoi l’équipe pense que des humains sont toujours requis pour trancher et prendre des décisions qui affectent les vies d’autres individus, une mission qu’on ne peut toujours pas confier à un ordinateur. « C’est comme lorsqu’on veut remplacer des instituteurs ou des docteurs par des machines, c’est impossible pour le moment », a précisé Vasileios Lampos, un chercheur de l’équipe. « Les lois ne sont pas assez structurées pour qu’une machine puisse prendre des décisions. Je pense que les juges ne suivent pas des règles spécifiques pour prendre une décision, et je peux dire en tant que citoyen et informaticien que différentes cours de justice ont des interprétations différentes des mêmes lois et cela arrive chaque jour. »

Pour le moment donc, il s’agit uniquement de juger la recevabilité des plaintes, ce qui reste néanmoins une décision très lourde sachant qu’en 2015, la CEDH a rejeté 43 100 plaintes. Les chercheurs estiment qu’il est dans l’intérêt des tribunaux de présenter les faits et les circonstances des plaintes de la manière la plus neutre possible, afin d’aider à filtrer les dossiers et de voir le degré de corrélation entre les verdicts et les plaintes déposées, une chose qu'il est impossible de savoir aujourd’hui.

Source : Motherboard

Et vous ?

Qu'en pensez-vous ?

Voir aussi :

La reconnaissance vocale de Microsoft peut maintenant rivaliser avec des humains avec un taux d'erreurs de transcription comparable ou inférieur
La première chanson composée par une intelligence artificielle vient de voir le jour, en attendant la sortie d'un album complet en 2017

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de ParseCoder
Membre averti https://www.developpez.com
Le 25/10/2016 à 13:42
C'est typiquement le genre de cas où il ne faut pas utiliser une IA, et pourtant on le fait quand même!

Aujourd'hui le taux de réussite est à 79%, ce qui est pas mal mais pas extraordinaire non plus. A partir de quel taux d'erreur trouvera-t-on ça suffisamment satisfaisant pour ne confier cette tâche qu'à des machines? Et qu'on ne me dise pas que ça n'arrivera jamais et que c'est juste un sujet de recherche! Si ça n'arrivera jamais alors pourquoi faire l'expérience? Et jusqu'où iront-ils? C'est grave!

Et si on embauchait tout simplement le personnel nécessaire pour faire face aux besoins?
Avatar de Andarus
Membre averti https://www.developpez.com
Le 25/10/2016 à 13:57
Citation Envoyé par ParseCoder Voir le message
A partir de quel taux d'erreur trouvera-t-on ça suffisamment satisfaisant pour ne confier cette tâche qu'à des machines?
Ce n'est même pas le problème selon moi.
Aujourd’hui l'IA n'est pas réellement "intelligente" elle se contente d'apprendre d'exemple pour déduire l'avenir. Si l'on avais développé une IA(avec un taux de réussite de 100%) dans les années 80 on aurait bloqué la justice à cette période. Pourtant même au delà des lois la société et donc la justice a évolué.
Je pense qu'une IA est encore loin de pouvoir appréhender ces changements.
Avatar de spyserver
Membre averti https://www.developpez.com
Le 25/10/2016 à 14:24
Les IAs sont encore trop cantonnés à des rôles intermédiaires, les lois sont créées par des hommes, les jugements sont effectués par des hommes, la recevabilité par une IA ...
Est-ce qu'une machine pourra un jour prendre une décision morale ? L’embêtant c'est qu'un juge s'appuie sur les lois mais ne fonde pas son verdict final intégralement dessus, c'est le fameux "droit à la seconde chance" par exemple qu'une machine serait incapable de donner car ne reposant sur aucun critères/conditions vérifiables.
Avatar de joublie
Membre confirmé https://www.developpez.com
Le 25/10/2016 à 18:20
Si j'ai bien lu, il faudrait ne pas utiliser l'IA pour juger une affaire parce que les lois sont trop complexes. Bon, très bien. Mais comment obtiendra-t-on un jugement si une IA a rejeté la plainte dès le départ ?
Avatar de Mrsky
Membre éprouvé https://www.developpez.com
Le 25/10/2016 à 22:03
Avatar de abriotde
Membre éprouvé https://www.developpez.com
Le 26/10/2016 à 8:27
L'informatique c'est comme toute nouvelles technologie. On en a peur. Pourtant la voiture n'a jamais remplacé la marche à pied même si elle l'a réduite.

Il en est de même ici le but n'est pas de remplacer mais de priorisé les demandes les plus recevables. Les humains feront pareil mais avec un taux d'erreur bien plus grand. Un humain est plus intelligent qu'une IA, il n'y a là aucun doute mais par contre plus la tâche est répétitive et moins il est fiable. L'informatique, c'est l'inverse. Il y a complémentarité tout comme la voiture et la marche.

En outre les erreurs de jugements par les humains sont très courante c'est d'ailleurs pour essayer d'avoir une chance qu'un jugement soit plus favorable que l'on s'en remet à la CEDH après d'autres procédures défavorables mais bien malin qui peut prévoir le jugement fût'il avocat ou juge avec toutes les compétences nécéssaires.
Avatar de athlon64
Membre confirmé https://www.developpez.com
Le 26/10/2016 à 19:53
Citation Envoyé par Coriolan Voir le message


C’est dans le domaine de la justice que les dernières avancées ont été faites, des chercheurs du University College London (UCL) ont réussi à mettre au point un système d’IA ...
Algorithme ça suffit, pas besoin d'invoquer l'IA.
Contacter le responsable de la rubrique Accueil

Partenaire : Hébergement Web