IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un shérif lance un algorithme pour prédire qui pourrait commettre un crime,
Des dizaines de personnes ont déclaré avoir été harcelées par des agents sans raison

Le , par Bill Fassinou

230PARTAGES

10  0 
Les algorithmes peuvent-ils prédire le crime avant qu’il ne soit commis ? Si certains restent sceptiques sur la question, beaucoup y croient cependant, et notamment les éléments des forces de l’ordre. Un rapport de Tampa Bay Times a révélé qu’un shérif de Floride a mis en place un algorithme devant lui permettre de surveiller les gens et de prédire les agissements criminels. Mais au final, l’algorithme n’aurait servi qu’à agacer les gens et des dizaines d’entre eux se sont de plaints de harcèlement. Le rapport a aussi révélé que l’algorithme se basait sur des renseignements non spécifiés.

Ce nouveau rapport met en lumière les pièges de la “police prédictive” et renforce la méfiance et le doute sur les outils de haute technologie, pilotés par l'IA, destinés à lutter contre la criminalité. Plusieurs de ces outils sont en cours d’utilisations de part et d’autre dans le monde, mais les rapports sur les nombreux biais qu’ils renferment ne cessent de se multiplier. Ces derniers parviennent le plus souvent à la même conclusion selon laquelle les systèmes de surveillance de masse et de prédiction conduisent surtout à une discrimination et à un déchirement du tissu social.

Le shérif du comté de Pasco, Chris Nocco, a doté son unité d’un système de renseignement de pointe censé anticiper le crime. Mais l’étude menée par le média américain a révélé qu’il a surtout déployé un système pointu de harcèlement rempli de biais. Sur la base des données qu’il a recueillies au cours des six mois d’enquête, le média a révélé qu’en effet, l'algorithme repose essentiellement sur des données douteuses ainsi que des décisions arbitraires et des antécédents d’arrestations. Ces données lui servent à générer une liste de noms de personnes susceptibles d’enfreindre la loi.

Le shérif Nocco envoie ensuite des agents pour trouver et interroger toute personne dont le nom apparaît sur la liste, souvent sans mobile probable, sur un mandat de perquisition ou sur les preuves d'un crime spécifique. Ils fourmillent dans les maisons au milieu de la nuit, réveillant les familles et mettant les gens dans l'embarras devant leurs voisins. Ils dressent des procès-verbaux pour des numéros de boîtes aux lettres manquants et de l'herbe envahie, infligeant aux gens des dates de procès et des amendes. Ils reviennent encore et encore, procédant à des arrestations pour toutes les raisons qu'ils peuvent.Le but serait de les obliger à quitter le comté.


« Rendre leur vie misérable jusqu'à ce qu'ils déménagent ou intentent un procès », a déclarant un ancien agent pour décrire la directive. Le rapport estime qu’en seulement cinq ans, le programme de surveillance de Nocco a pris au piège près de 1000 personnes. En fin de compte, la conclusion du média est que l'outil de haute technologie déployé par le bureau du shérif n'a pas permis de réduire les crimes violents. Mais au contraire, des dizaines de familles ciblées par l'algorithme ont été systématiquement harcelées par les agents, même lorsqu'il n'y avait pas de preuve d'un crime spécifique.

Lorsqu’une personne fait l’objet d’une interpellation, les accusations dont il est victime sont réintégrées à la base de données de l’algorithme. L’idée est semblable à ce qu’on voit très souvent dans des séries télévisées au cours de ces dernières décennies, comme “Person of interest”. Par exemple, en septembre 2019, des agents se sont présentés à la porte de Rio Wotjecki, 15 ans, parce que l'algorithme avait déterminé que Wotjecki faisait partie du “Top 5” du comté qui risquait de commettre plus de crimes. Le rapport a donné d’autres exemples de ce type.

Pour en revenir à Wotjecki, l’enquête estime qu’il n'avait été arrêté qu'une seule fois, un an auparavant, pour s'être introduit dans un abri de voiture et avoir volé des vélos motorisés. Il avait purgé une peine de détention juvénile pour ce délit, et n'avait commis aucun autre crime par la suite, mais à cause de l'algorithme, la police s'est présentée à son domicile de Wotjecki pour l'interroger pas moins de 21 fois à partir de cette visite en septembre. Wotjecki en est finalement mort, car il a commencé à avoir des difficultés respiratoires en raison d'une anxiété extrême.

Mais, les visites chez Rio Wotjecki n’ont pas cessé pour autant, une chose qu’on pourrait qualifier de dangereuse et hors-la-loi selon d’autres médias. Le rapport met en évidence les pièges de la police algorithmique, parfois appelée police prédictive, qui s’appuie sur les données criminelles passées pour prédire les crimes ou les futurs délinquants. Les groupes de défense des droits civiques ont qualifié cette pratique d'anticonstitutionnelle et les chercheurs en application de la loi remettent en question son efficacité. Il y a encore plusieurs algorithmes de ce type en service dans le pays.

Lors de ces dernières années, les services de police de grandes villes, dont Los Angeles et Richmond en Virginie, ont mis fin à leurs programmes de police prédictive en raison de préoccupations quant à leur équité et leur efficacité. Cette semaine, la ville de Portland a adopté l'interdiction de la reconnaissance faciale la plus stricte à ce jour dans le pays, en bannissant l'utilisation publique et privée de la technologie. Il y a un mois, le Congrès a aussi présenté un projet de loi visant à interdire aux agences fédérales de se servir de la technologie de reconnaissance faciale.

En attendant, beaucoup de comté et de villes continuent d’en faire usage et leur algorithme a de très fortes similitudes avec celui du shérif Nocco. En juin dernier, le chef de la police de la ville de Detroit a admis que leur algorithme de reconnaissance faciale a un taux d'erreur de 96 %. Cette déclaration fait suite à de nombreuses accusations soulignant que la police procède à des arrestations par erreur en usant de cette technologie. Cela semble être pareil en Europe également où plusieurs villes font aussi usage de cette technologie.

En juin 2019, un rapport a fait état de ce que 81 % des suspects signalés par le système de reconnaissance faciale de la police du Grand Londres sont innocents. En France, l’utilisation de la technologie est aussi d’actualité et les appels à son interdiction continuent toutefois de se multiplier. Pour le cas qui nous concerne, un porte-parole du bureau du shérif du comté de Pasco a défendu cette pratique, arguant que d'autres services de police utilisent des méthodes similaires et accusant le Times de dépeindre les “fonctions de base de l'application de la loi” comme un harcèlement inutile.

Le bureau du shérif a également publié un post sur Facebook critiquant le rapport du Times. « Malheureusement, le média responsable de cet article ne s'est pas senti obligé de faire la lumière sur les faits, et a plutôt choisi de tisser une histoire fictive et salace », a déclaré le porte-parole.

Source : Tampa Bay Times

Et vous ?

Qu'en pensez-vous ?

Voir aussi

Reconnaissance faciale : le chef de la police de Detroit admet un taux d'erreur de 96 %. La police de Detroit croule sous les critiques pour une arrestation par erreur en usant de cette technologie

L'utilisation de la reconnaissance faciale par la police viole les droits de l'homme, selon un tribunal britannique. Cependant, la Cour n'a pas complètement interdit l'utilisation de la technologie

81 % des suspects signalés par la technologie de reconnaissance faciale de la police du Grand Londres sont innocents, selon un rapport

USA : Portland adopte l'interdiction de la reconnaissance faciale la plus stricte à ce jour dans le pays, bannissant l'utilisation publique et privée de la technologie

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de marsupial
Expert éminent https://www.developpez.com
Le 12/09/2020 à 14:33
La technologie n'est déjà pas au point mais lorsqu'elle est utilisée par des amateurs cela donne ce genre de scandaleux fiasco.
4  0 
Avatar de melka one
Membre expérimenté https://www.developpez.com
Le 13/09/2020 à 12:28
jour

on laisse un logiciel prendre les décisions afin soustraire l’être humain de toute responsabilité sur lesdites décision et leurs conséquences que c'est dérisoire.
2  0 
Avatar de Kalen66
Candidat au Club https://www.developpez.com
Le 14/09/2020 à 9:01
if(dude.isANeger()) { crimePossibility+=10000; }
2  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 14/09/2020 à 10:15
Citation Envoyé par Bill Fassinou Voir le message
« Rendre leur vie misérable jusqu'à ce qu'ils déménagent ou intentent un procès », a déclarant un ancien agent pour décrire la directive.
(...)
Pour en revenir à Wotjecki, l’enquête estime qu’il n'avait été arrêté qu'une seule fois, un an auparavant, pour s'être introduit dans un abri de voiture et avoir volé des vélos motorisés. Il avait purgé une peine de détention juvénile pour ce délit, et n'avait commis aucun autre crime par la suite, mais à cause de l'algorithme, la police s'est présentée à son domicile de Wotjecki pour l'interroger pas moins de 21 fois à partir de cette visite en septembre. Wotjecki en est finalement mort, car il a commencé à avoir des difficultés respiratoires en raison d'une anxiété extrême.
C'est nul comme plan.

Citation Envoyé par Kalen66 Voir le message
if(dude.isANeger())
Ça vient des données qu'on donne à l'algorithme, si on prenait 100% des crimes et délits commis aux USA, l'algorithme pourrait se dire que le criminel est souvent noir.

C'est comme le logiciel de recrutement qui n'acceptait pas beaucoup de femmes et de noirs, parce qu'on lui avait fourni comme données en entré les recrutements réaliser par les humains avant lui.
1  0 
Avatar de miaous
Membre averti https://www.developpez.com
Le 14/09/2020 à 12:42
Ou le le logiciel de la carte de credit d'apple qui accordé des credits au femmes moins important qu"au hommes car elles demandaient mois que le hommes pour les crédits ( il me semble qu'y a eu un article sur Développez , il y a quelque mois )
1  0