IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les prisons américaines envisagent d'utiliser l'IA pour analyser les appels téléphoniques des détenus
Les défenseurs des libertés montent au créneau

Le , par Stéphane le calme

228PARTAGES

9  0 
Pour des personnes comme Heather Bollin, une femme de 43 ans au Texas fiancée à un homme actuellement incarcéré, la surveillance constante est une réalité : les trois appels téléphoniques quotidiens qu'ils ont ensemble sont soumis au contrôle des autorités pénitentiaires. « Nous ne pouvons jamais communiquer sans être surveillés », a-t-elle déclaré lors d'un entretien téléphonique, demandant que la prison dans laquelle se trouve son fiancé reste anonyme, car elle craignait des représailles.

Les prisons des États-Unis pourraient bénéficier d'une aide de la haute technologie pour écouter ce que disent les détenus, après qu'un panel clé de la Chambre des représentants a demandé un rapport pour étudier l'utilisation de l'intelligence artificielle (IA) afin d'analyser les appels téléphoniques des détenus.

Mais les défenseurs des prisonniers et les familles des détenus affirment que le fait de s'appuyer sur l'IA pour interpréter les communications ouvre le système aux erreurs, aux malentendus et aux préjugés raciaux.

L'appel fait au ministère de la Justice (DOJ) pour explorer davantage la technologie, pour aider à prévenir les crimes violents et le suicide, accompagne une facture de dépenses de plus de 81 milliards de dollars pour financer le DOJ et d'autres agences fédérales en 2022 que le Comité des crédits a adoptés le mois dernier.

La technologie peut transcrire automatiquement les appels téléphoniques des détenus, analyser leurs modes de communication et signaler certains mots ou expressions, y compris l'argot, que les autorités préprogramment dans le système.

Un membre du House Democratic Caucus (un caucus du Congrès composé de tous les représentants démocrates à la Chambre des représentants des États-Unis et est responsable de la nomination et de l'élection des dirigeants du Parti démocrate à la chambre) a déclaré qu'il encourageait le DOJ « à s'engager avec les parties prenantes au cours de l'examen de la faisabilité de l'utilisation d'un tel système ».

Plusieurs installations nationales et locales à travers les États-Unis ont déjà commencé à utiliser la technologie, notamment en Alabama, en Géorgie et à New York. Le panel de la Chambre souhaite que le DOJ examine la possibilité d'exploiter la technologie à des fins fédérales et identifie les lacunes ou les lacunes dans les informations qu'il produit.

« C'est très troublant - et si je dis quelque chose de mal lors d'un appel ? » a déclaré Bollin, qui craint d'avoir accidentellement créé des ennuis à son fiancé. « Cela pourrait être mal interprété par cette technologie, puis il pourrait être puni ? »


« Sujets d'expérimentations »

Les groupes de protection de la vie privée affirment que la technologie pourrait amplifier les préjugés raciaux dans le système judiciaire et soumettre injustement les prisonniers à une intelligence artificielle irresponsable.

« Ce Congrès devrait interdire la technologie de police raciste - il ne devrait pas la financer », a déclaré Albert Fox Cahn, directeur exécutif du Surveillance Technology Oversight Project (STOP), un groupe de défense basé à New York. « Les personnes qui ont été prises dans le système de justice pénale sont toujours transformées en sujets d'expérimentation pour les nouveaux systèmes technologiques ».

Les partisans contestent ces critiques, affirmant que la technologie est un outil essentiel pour gagner du temps pour les forces de l'ordre et ne cible pas de groupes spécifiques.

Bill Partridge, chef de la police d'Oxford, en Alabama, a déclaré que les forces locales avaient réussi à résoudre des cas d'homicides non résolus après que des prisonniers aient été signalés pour avoir dit au téléphone qu'ils avaient « réellement commis le meurtre ».

Le département de Partridge fait partie d'une poignée d'agences de l'État qui ont utilisé un logiciel de LEO Technologies, une société californienne, qui utilise les outils de traitement du langage naturel et de transcription d'Amazon Web Services (AWS) pour traiter et signaler les appels des détenus à des fins d'analyse en temps quasi réel.

Le chef de la police a déclaré que la technologie, appelée Verus, est particulièrement utile pour prévenir les suicides : « Je pense que si le gouvernement fédéral commence à l'utiliser, il empêchera beaucoup de décès de détenus », a-t-il déclaré.

Scott Kernan, PDG de LEO Technologies et ancien secrétaire du California Department of Corrections and Rehabilitation, a déclaré que la technologie « sauve des vies à la fois à l'intérieur et à l'extérieur des environnements correctionnels que nous surveillons » : « Parce que nous écoutons toutes les communications, nous ne ciblons pas une race, un sexe ou un groupe protégé », a déclaré Kernan.


Surveillance de masse et problèmes de confidentialité

Les personnes incarcérées ont très peu de protections juridiques à l'intérieur pour riposter si une machine détermine qu'elles sont sur le point de sortir des sentiers battus, a déclaré Bianca Tylek, fondatrice de Worth Rises, une organisation à but non lucratif travaillant sur les questions de justice pénitentiaire.

« Je pense que l'idée qu'une machine puisse entendre et comprendre ce qu'une personne dit et que cela devienne une sorte d'outil au tribunal est ridicule », a-t-elle déclaré.

La technologie qui transcrit les conversations vocales est imparfaite et présente un taux d'erreur particulièrement élevé lorsqu'elle est appliquée aux voix des Noirs, selon un article de 2020 sur les cinq principaux systèmes rédigé par des chercheurs de l'Université de Stanford et de l'Université de Georgetown : « La technologie parole-texte n'est pas dans un endroit où elle peut être utilisée pour prendre ce genre de décisions de justice pénale », a déclaré Allison Koenecke, l'auteur principal de l'étude.

Les chercheurs ont découvert que le logiciel de reconnaissance vocale automatique d'Amazon avait un taux d'erreur pour les locuteurs noirs presque deux fois plus élevé que pour les locuteurs blancs.

Dans un communiqué, un porte-parole d'AWS a déclaré que le service Amazon Transcribe de la société était « très précis », mais a reconnu que des accents prononcés ou une mauvaise qualité audio peuvent entraîner des variations dans les mots individuels.

Ils ont déclaré que le service « n'a jamais reçu de rapports d'abus ou de mauvaise utilisation », qu'il est inapproprié d'attribuer des variations à une « catégorie unique » comme la race, et qu'ils s'efforcent d'identifier les domaines potentiels pour apporter des améliorations.

Aux États-Unis, les hommes noirs sont six fois plus susceptibles d'être derrière les barreaux que les hommes blancs, selon le Sentencing Project, un groupe de recherche.

Kentrell Owens, informaticien à l'Université de Washington qui étudie la surveillance des prisons, a déclaré qu'une bonne surveillance des systèmes d'IA est essentielle : « Avant de mettre en œuvre une technologie capable de contrôler la liberté des personnes, vous avez besoin d'une évaluation et d'un audit indépendants de l'outil pour déterminer si la technologie vous aide à atteindre vos objectifs », a-t-il déclaré.


Automatiser le profilage racial ?

Les avocats affirment que la technologie d'IA à laquelle le rapport sur le projet de loi de dépenses fait référence s'étend à la technologie actuelle de surveillance des prisons, développée par des sociétés comme Securus Technologies, un fournisseur majeur de services d'appels téléphoniques pour les prisonniers.

Dans un rapport STOP 2020, Cahn a examiné la plateforme Securus, qui utilise la technologie de reconnaissance vocale automatisée pour enregistrer et analyser les conversations pour le Département des services correctionnels et de surveillance communautaire de l'État de New York (DOCCS). Il a déclaré que le logiciel violait les droits à la vie privée des détenus et de leurs familles et avait le potentiel « d'automatiser le profilage racial ».

Le DOCCS a déclaré dans un communiqué qu'il prenait la sécurité du personnel, des visiteurs et des détenus « très sérieusement » et qu'il utilisait de nombreux outils en plus du logiciel Securus pour atteindre ses objectifs.

Un porte-parole de Securus n'a pas répondu aux questions sur le rapport de Cahn et les préjugés potentiels, mais a déclaré que la société n'avait pas fait pression pour que le langage de l'IA soit inclus dans le rapport du projet de loi de la Chambre.

Pour des gens comme Bollin, l'initiative du Congrès fait craindre de devoir renoncer encore plus à sa vie privée pour continuer à parler avec son fiancé : « Nous sommes censés être des gens libres, nous ne sommes pas incarcérés », a-t-elle déclaré. « Mais j'ai l'impression que mes droits sont constamment bafoués. »

Source : Verus (LEO Technologies), Reuters

Une erreur dans cette actualité ? Signalez-nous-la !