
Il est dit qu'en mai de l'année dernière, Michael Williams conduisait, 65 ans, dans Chicago une nuit dans l'espoir d'acheter des cigarettes. Safarian Herring, 25 ans, lui a fait signe de le déposer et Williams, reconnaissant le jeune homme du quartier, l'a fait monter dans sa voiture. Peu après, « un autre véhicule s'est arrêté à côté de lui, et quelqu'un sur le siège passager a sorti une arme et a tiré sur Herring à la tête », a déclaré Williams à la police. Herring, qui a été emmené à l'hôpital par Williams, est décédé des suites de la blessure par balle et Williams a fini par être accusé de son meurtre. L'un des principaux éléments de preuve contre lui provient de ShotSpotter, une société qui exploite des microphones répartis dans plusieurs villes américaines, dont Chicago, qui, à l'aide d'algorithmes d'apprentissage automatique, détectent et identifient les bruits de coups de feu afin d'alerter immédiatement la police.
Michael William assis pour une interview
Les procureurs ont déclaré que ShotSpotter a capté le son d'un coup de feu à l'endroit où Williams a été vu sur les images des caméras de surveillance dans sa voiture, avançant tout cela comme preuve que Williams a tiré sur Herring à cet instant précis. La police n'a pas cité de motif, n'a pas eu de témoin oculaire et n'a pas trouvé l'arme utilisée dans l'attaque. Williams avait un passé criminel, ayant purgé une peine pour tentative de meurtre, vol qualifié et décharge d'une arme à feu lorsqu'il était plus jeune, et a déclaré avoir changé de vie de manière significative depuis. Il a été interrogé par des enquêteurs et a été arrêté.
Les avocats de Williams, les défenseurs publics Lisa Boughton et Brendan Max, ont déclaré que les dossiers montraient que ShotSpotter avait initialement capté ce qui ressemblait à un feu d'artifice à un kilomètre de distance, et que le personnel de ShotSpotter l'avait ensuite reclassé comme étant un coup de feu à l'intersection où et quand Williams a été vu sur la caméra. ShotSpotter a fermement insisté sur le fait qu'il n'avait pas modifié de manière inappropriée les données pour favoriser l'affaire de la police et a déclaré qu'indépendamment de l'alerte initiale en temps réel, sa preuve du coup de feu était le résultat d'une analyse scientifique de suivi, qui a été soumise aux tribunaux.
Après que les avocats de Williams ont demandé au juge de mener une enquête, l'accusation a retiré le mois dernier le rapport du ShotSpotter et a demandé un non-lieu pour insuffisance de preuves, ce que le juge a accepté. Williams est à nouveau un homme libre.
La fiabilité de ShotSpotter remise en question
ShotSpotter est un outil alimenté par l'IA qui prétend être capable de détecter le son des coups de feu. Son installation pourrait coûter jusqu'à 95 000 dollars par kilomètre carré - par an - rapporte l'Associated Press. Il y a juste un problème. L'algorithme qui analyse les sons pour distinguer les coups de feu des autres bruits n'a jamais été évalué par des universitaires ou des experts externes. « Si ShotSpotter est utilisé comme preuve directe, le problème, c'est qu'il n'existe tout simplement aucune étude permettant d'établir la validité ou la fiabilité de cette technologie. Rien », a déclaré Tania Brief, une avocate de The Innocence Project, un organisme à but non lucratif qui cherche à annuler les condamnations injustifiées.
Une étude de 2011 commandée par The Innocence Project a découvert que les bennes à ordures, les camions, les motos, les hélicoptères, les feux d'artifice, la construction, la collecte des ordures et les cloches d'église déclenchaient tous des alertes faussement positives, confondant ces sons avec des coups de feu. Le PDG de ShotSpotter, Ralph Clark, a déclaré que l'entreprise améliorait constamment ses classifications audio, mais que le système enregistrait encore un faible pourcentage de faux positifs. Dans le passé, ces fausses alertes (et l'absence d'alertes) ont incité des villes, de Charlotte, en Caroline du Nord, à San Antonio, au Texas, à résilier leurs contrats ShotSpotter. Et le potentiel de problèmes n'est pas seulement spéculatif. Il suffit de regarder le cas de Michael Williams.
L'expérience de Williams met en évidence les conséquences concrètes de la dépendance croissante de la société à l'égard des algorithmes pour prendre des décisions importantes dans de nombreux domaines de la vie publique. Ce phénomène n'est nulle part plus apparent que dans les forces de l'ordre, qui se sont tournées vers des entreprises technologiques telles que la société de détection de tirs ShotSpotter pour lutter contre la criminalité. Les preuves fournies par ShotSpotter sont de plus en plus souvent admises dans des affaires judiciaires, dont le nombre s'élève aujourd'hui à quelque 200 aux USA. Le site Web de ShotSpotter indique qu'il s'agit d'un "leader en matière de solutions technologiques de police de précision" qui contribue à mettre fin à la violence armée en utilisant "des capteurs, des algorithmes et l'intelligence artificielle" pour classer 14 millions de sons dans sa base de données exclusive comme des coups de feu ou autre chose.
Mais une enquête de l'Associated Press, basée sur l'examen de milliers de documents internes, de courriels, de présentations et de contrats confidentiels, ainsi que sur des entretiens avec des dizaines de défenseurs publics dans les communautés où ShotSpotter a été déployé, a identifié un certain nombre de défauts graves dans l'utilisation de ShotSpotter comme preuve pour les procureurs. L'enquête a révélé que le système pouvait manquer des coups de feu en direct juste sous ses microphones, ou classer à tort les sons de feux d'artifice ou de voitures qui tournent comme des coups de feu.
Des rapports scientifiques préparés par des employés de ShotSpotter ont été utilisés au tribunal pour affirmer à tort qu'un accusé avait tiré sur la police, ou pour fournir un décompte douteux du nombre de coups de feu prétendument tirés par l'accusé. Dans un certain nombre d'affaires, les juges ont rejeté ces preuves... Les méthodes d'identification des tirs de l'entreprise ne sont pas toujours guidées uniquement par la technologie. Les employés de ShotSpotter peuvent modifier, et modifient souvent, la source des sons captés par ses capteurs après avoir écouté des enregistrements audio, ce qui introduit la possibilité d'un biais humain dans l'algorithme de détection des coups de feu. Les employés peuvent modifier et modifient effectivement l'emplacement ou le nombre de coups de feu à la demande de la police, selon les dossiers judiciaires. Et dans le passé, les répartiteurs de la ville ou la police elle-même pouvaient également effectuer certains de ces changements.
D’autres détails surprenants tirés du rapport l'AP. D’abord, une étude publiée en avril dans le Journal of Urban Health s'est penchée sur ShotSpotter dans 68 comtés métropolitains importants de 1999 à 2016, la plus grande étude à ce jour. Elle a constaté que la technologie n'a pas réduit la violence armée ni augmenté la sécurité de la communauté. Ensuite, les outils médico-légaux tels que l'ADN et les preuves balistiques utilisés par les procureurs ont vu leurs méthodologies examinées en détail depuis des décennies, mais ShotSpotter affirme que son logiciel est propriétaire et ne publiera pas son algorithme. Et enfin, en 2018, il a acquis une société de police prédictive appelée HunchLab, qui intègre ses modèles d'IA avec les données de détection de tir de ShotSpotter pour prétendument prédire les crimes avant qu'ils ne se produisent.
Sources : CSG Analysis, Réponses de ShotSpotter à l'Associated Press
Et vous ?

Voir aussi :



Vous avez lu gratuitement 455 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.