IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une technologie basée sur l'IA a permis d'emprisonner un homme de 65 ans pendant près d'un an
Malgré des preuves insuffisantes

Le , par Nancy Rey

361PARTAGES

6  0 
Michael Williams a été emprisonné en août dernier, accusé d'avoir tué un jeune homme du quartier qui lui avait demandé de le raccompagner lors d'une nuit d'agitation contre les brutalités policières en mai à Chicago. Mais la principale preuve contre Williams n'est pas venue d'un témoin oculaire ou d'un informateur, mais d'une vidéo de sécurité silencieuse montrant une voiture traversant une intersection et d'une forte détonation captée par un réseau de microphones de surveillance. Les procureurs ont déclaré que la technologie alimentée par l’algorithme secret de ShotSpotter qui analyse les bruits détectés par les capteurs indiquait que Williams avait tiré et tué le jeune homme. Williams est resté derrière les barreaux pendant près d'un an avant qu'un juge n'abandonne les poursuites contre lui le mois dernier à la demande des procureurs, qui ont finalement déclaré qu'ils n'avaient pas assez de preuves. Cette situation remet sur la table les conséquences concrètes de la dépendance croissante de la société à l'égard des algorithmes pour prendre des décisions importantes dans de nombreux domaines de la vie publique.

Il est dit qu'en mai de l'année dernière, Michael Williams conduisait, 65 ans, dans Chicago une nuit dans l'espoir d'acheter des cigarettes. Safarian Herring, 25 ans, lui a fait signe de le déposer et Williams, reconnaissant le jeune homme du quartier, l'a fait monter dans sa voiture. Peu après, « un autre véhicule s'est arrêté à côté de lui, et quelqu'un sur le siège passager a sorti une arme et a tiré sur Herring à la tête », a déclaré Williams à la police. Herring, qui a été emmené à l'hôpital par Williams, est décédé des suites de la blessure par balle et Williams a fini par être accusé de son meurtre. L'un des principaux éléments de preuve contre lui provient de ShotSpotter, une société qui exploite des microphones répartis dans plusieurs villes américaines, dont Chicago, qui, à l'aide d'algorithmes d'apprentissage automatique, détectent et identifient les bruits de coups de feu afin d'alerter immédiatement la police.

Michael William assis pour une interview


Les procureurs ont déclaré que ShotSpotter a capté le son d'un coup de feu à l'endroit où Williams a été vu sur les images des caméras de surveillance dans sa voiture, avançant tout cela comme preuve que Williams a tiré sur Herring à cet instant précis. La police n'a pas cité de motif, n'a pas eu de témoin oculaire et n'a pas trouvé l'arme utilisée dans l'attaque. Williams avait un passé criminel, ayant purgé une peine pour tentative de meurtre, vol qualifié et décharge d'une arme à feu lorsqu'il était plus jeune, et a déclaré avoir changé de vie de manière significative depuis. Il a été interrogé par des enquêteurs et a été arrêté.

Les avocats de Williams, les défenseurs publics Lisa Boughton et Brendan Max, ont déclaré que les dossiers montraient que ShotSpotter avait initialement capté ce qui ressemblait à un feu d'artifice à un kilomètre de distance, et que le personnel de ShotSpotter l'avait ensuite reclassé comme étant un coup de feu à l'intersection où et quand Williams a été vu sur la caméra. ShotSpotter a fermement insisté sur le fait qu'il n'avait pas modifié de manière inappropriée les données pour favoriser l'affaire de la police et a déclaré qu'indépendamment de l'alerte initiale en temps réel, sa preuve du coup de feu était le résultat d'une analyse scientifique de suivi, qui a été soumise aux tribunaux.

Après que les avocats de Williams ont demandé au juge de mener une enquête, l'accusation a retiré le mois dernier le rapport du ShotSpotter et a demandé un non-lieu pour insuffisance de preuves, ce que le juge a accepté. Williams est à nouveau un homme libre.

La fiabilité de ShotSpotter remise en question

ShotSpotter est un outil alimenté par l'IA qui prétend être capable de détecter le son des coups de feu. Son installation pourrait coûter jusqu'à 95 000 dollars par kilomètre carré - par an - rapporte l'Associated Press. Il y a juste un problème. L'algorithme qui analyse les sons pour distinguer les coups de feu des autres bruits n'a jamais été évalué par des universitaires ou des experts externes. « Si ShotSpotter est utilisé comme preuve directe, le problème, c'est qu'il n'existe tout simplement aucune étude permettant d'établir la validité ou la fiabilité de cette technologie. Rien », a déclaré Tania Brief, une avocate de The Innocence Project, un organisme à but non lucratif qui cherche à annuler les condamnations injustifiées.

Une étude de 2011 commandée par The Innocence Project a découvert que les bennes à ordures, les camions, les motos, les hélicoptères, les feux d'artifice, la construction, la collecte des ordures et les cloches d'église déclenchaient tous des alertes faussement positives, confondant ces sons avec des coups de feu. Le PDG de ShotSpotter, Ralph Clark, a déclaré que l'entreprise améliorait constamment ses classifications audio, mais que le système enregistrait encore un faible pourcentage de faux positifs. Dans le passé, ces fausses alertes (et l'absence d'alertes) ont incité des villes, de Charlotte, en Caroline du Nord, à San Antonio, au Texas, à résilier leurs contrats ShotSpotter. Et le potentiel de problèmes n'est pas seulement spéculatif. Il suffit de regarder le cas de Michael Williams.

L'expérience de Williams met en évidence les conséquences concrètes de la dépendance croissante de la société à l'égard des algorithmes pour prendre des décisions importantes dans de nombreux domaines de la vie publique. Ce phénomène n'est nulle part plus apparent que dans les forces de l'ordre, qui se sont tournées vers des entreprises technologiques telles que la société de détection de tirs ShotSpotter pour lutter contre la criminalité. Les preuves fournies par ShotSpotter sont de plus en plus souvent admises dans des affaires judiciaires, dont le nombre s'élève aujourd'hui à quelque 200 aux USA. Le site Web de ShotSpotter indique qu'il s'agit d'un "leader en matière de solutions technologiques de police de précision" qui contribue à mettre fin à la violence armée en utilisant "des capteurs, des algorithmes et l'intelligence artificielle" pour classer 14 millions de sons dans sa base de données exclusive comme des coups de feu ou autre chose.

Mais une enquête de l'Associated Press, basée sur l'examen de milliers de documents internes, de courriels, de présentations et de contrats confidentiels, ainsi que sur des entretiens avec des dizaines de défenseurs publics dans les communautés où ShotSpotter a été déployé, a identifié un certain nombre de défauts graves dans l'utilisation de ShotSpotter comme preuve pour les procureurs. L'enquête a révélé que le système pouvait manquer des coups de feu en direct juste sous ses microphones, ou classer à tort les sons de feux d'artifice ou de voitures qui tournent comme des coups de feu.

Des rapports scientifiques préparés par des employés de ShotSpotter ont été utilisés au tribunal pour affirmer à tort qu'un accusé avait tiré sur la police, ou pour fournir un décompte douteux du nombre de coups de feu prétendument tirés par l'accusé. Dans un certain nombre d'affaires, les juges ont rejeté ces preuves... Les méthodes d'identification des tirs de l'entreprise ne sont pas toujours guidées uniquement par la technologie. Les employés de ShotSpotter peuvent modifier, et modifient souvent, la source des sons captés par ses capteurs après avoir écouté des enregistrements audio, ce qui introduit la possibilité d'un biais humain dans l'algorithme de détection des coups de feu. Les employés peuvent modifier et modifient effectivement l'emplacement ou le nombre de coups de feu à la demande de la police, selon les dossiers judiciaires. Et dans le passé, les répartiteurs de la ville ou la police elle-même pouvaient également effectuer certains de ces changements.

D’autres détails surprenants tirés du rapport l'AP. D’abord, une étude publiée en avril dans le Journal of Urban Health s'est penchée sur ShotSpotter dans 68 comtés métropolitains importants de 1999 à 2016, la plus grande étude à ce jour. Elle a constaté que la technologie n'a pas réduit la violence armée ni augmenté la sécurité de la communauté. Ensuite, les outils médico-légaux tels que l'ADN et les preuves balistiques utilisés par les procureurs ont vu leurs méthodologies examinées en détail depuis des décennies, mais ShotSpotter affirme que son logiciel est propriétaire et ne publiera pas son algorithme. Et enfin, en 2018, il a acquis une société de police prédictive appelée HunchLab, qui intègre ses modèles d'IA avec les données de détection de tir de ShotSpotter pour prétendument prédire les crimes avant qu'ils ne se produisent.

Sources : CSG Analysis, Réponses de ShotSpotter à l'Associated Press

Et vous ?

Quels commentaires faites-vous de la situation ?

Voir aussi :

L'utilisation de la reconnaissance faciale par la police viole les droits de l'homme, selon un tribunal britannique, cependant, la Cour n'a pas complètement interdit l'utilisation de la technologie

L'IA basée sur Microsoft Azure est retenue par la police de Nouvelle-Galles du Sud. Elle apporte une analyse plus rapide et aide à l'examen des preuves

« L'IA n'est ni artificielle ni intelligente », selon Kate Crawford de Microsoft Research, l'universitaire estime que cette technologie donne du pouvoir à des institutions déjà puissantes

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de marsupial
Expert éminent https://www.developpez.com
Le 23/08/2021 à 14:09
Mais ils sont graves ces paranos d'américains ! Déjà l'IA appliquée à la reconnaissance faciale n'est pas fiable, alors appliquée aux sons... Et ils se permettent de modifier les données pour s'en servir comme preuve. Ils déraisonnent complètement. Comment créer des coupables.
10  0 
Avatar de Dymmm
Membre actif https://www.developpez.com
Le 24/08/2021 à 12:55
Pour / jusqu’à 95 000 dollars par kilomètre carré - par an ne serait il pas plus profitable d'employer des humains pour protéger et servir la communauté ?
5  0 
Avatar de KEKE93
Membre éclairé https://www.developpez.com
Le 24/08/2021 à 9:07
Je suis tout à fait d'accord avec Marsupial; l'utilisation de l'IA appliquée aux sons peut difficilement servir de preuve pour inculper une personne d'homicide dans une ville mais je tiendrai à ajouter que dans les sous-marins d'attaque et sous marins SNLE américains, la recherche de sous-marins ennemis se fait sur l'analyse sonore par le biais d'algorithmes sur ordinateurs depuis au moins vingt ans. Les sous-marins américains ont au préalable une base de données d'échantillons sonores et les comparent avec les bruits d'hélices suspects environnant.
C'est à ma connaissance surtout dans la marine française qu'un sous-marinier avec un casque écoute les bruits anvironnants de nos sous-marins. Bref chez la marine francaise être "grand oreille" est tout un métier.
4  0 
Avatar de Arya Nawel
Membre extrêmement actif https://www.developpez.com
Le 25/08/2021 à 4:52
Pourquoi était-il en prison sans aucune sorte de preuve directe ? Oh oui, c'est Chicago et il est noir... bien sûr, les flics corrompus et le système juridique l'ont jeté en prison. Cette technologie peut être utile pour alerter où se trouve un coup de feu potentiel. Mais c'est là que ça s'arrête. Sans recodage vidéo, elle ne peut pas produire de preuves réelles pour déclarer quelqu'un coupable. A moins d'enregistrer une vidéo haute résolution de la personne tirant avec l'arme. Sans preuve vidéo incontestable, Shotspotter et les technologies associées ne devraient jamais être utilisées dans un tribunal. Toutes les "preuves" produites par cette technologie sont au mieux circonstancielles et très probablement l'équivalent de ouï-dire dans la plupart des situations réelles.
3  1 
Avatar de jean12
Membre régulier https://www.developpez.com
Le 02/09/2021 à 15:16
L'homme peut parfois modifier(corriger) certaines prédictions de l'algorithme en vue de l'améliorer davantage lors des prochaines prédictions. Cependant, il faut que les décideurs en soient bien informés afin de prendre en compte seulement les cas qui ne souffrent d'aucune ambiguïté. La technologie peut être aussi volontairement trompée par l'humain (ce qui est un crime), un peu comme les fausses alertes 911.
En dehors de cela, même dans son état actuel, ShotSpotter peut être utile pour améliorer les patrouilles et permettre aux agents de passer vérifier physiquement, etc., mais il faut être très prudent durant le processus de son adoption et aider la technologie à devenir mature pour le bénéfice de l'humanité.
Je suis vraiment désolé pour le cas de Michael Williams, je compatis sincèrement...
0  0 
Avatar de tom_45
Membre habitué https://www.developpez.com
Le 31/08/2021 à 12:16
Citation Envoyé par Arya Nawel Voir le message
Pourquoi était-il en prison sans aucune sorte de preuve directe ? Oh oui, c'est Chicago et il est noir... bien sûr, les flics corrompus et le système juridique l'ont jeté en prison. Cette technologie peut être utile pour alerter où se trouve un coup de feu potentiel. Mais c'est là que ça s'arrête. Sans recodage vidéo, elle ne peut pas produire de preuves réelles pour déclarer quelqu'un coupable. A moins d'enregistrer une vidéo haute résolution de la personne tirant avec l'arme. Sans preuve vidéo incontestable, Shotspotter et les technologies associées ne devraient jamais être utilisées dans un tribunal. Toutes les "preuves" produites par cette technologie sont au mieux circonstancielles et très probablement l'équivalent de ouï-dire dans la plupart des situations réelles.
Peut être parce qu'il "avait un passé criminel, ayant purgé une peine pour tentative de meurtre, vol qualifié et décharge d'une arme à feu lorsqu'il était plus jeune", non ? ou tu ne peux pas le concevoir uniquement parce que l'accusé est noir ?
Mais tu vas nous affirmer que l'ia sur les sons est aussi raciste comme l'ia sur la reconnaissance faciale ? uniquement si l'ia accuse un noir ? d'ailleurs, c'est à cause des gens comme toi qu'il n'y a pas de surveillance vidéo ...

Bref, ça aurait été intéressant que l'article précise s'il y a été enfermé comme l’équivalent de la "détention provisoire" (ce qui aurait été légitime vu son passé de criminel) ou enfermé après son jugement.
ça aurait été intéressant aussi de savoir si on a retrouvé le vrai meurtrier, car si on ne l'a pas retrouvé, cet ancien criminel est toujours suspect même s'il est libre !
Et il ne faut pas oublier que la vrai victime ici, est celui qui a été tué, peu importe sa couleur de peau, la vrai victime n'est pas cet ancien criminel, même s'il est noir !
0  4