IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

81 % des suspects signalés par la technologie de reconnaissance faciale de la police du Grand Londres sont innocents
Selon un rapport

Le , par Bill Fassinou

112PARTAGES

9  1 
Dans les pays comme la Grande-Bretagne ou les États-Unis, intégrer l’intelligence artificielle dans les zones stratégiques telles que les tribunaux et la police est un exercice auquel les autorités se livrent depuis quelques années maintenant. En Grande-Bretagne par exemple, la police utilise depuis trois années environ une technologie de reconnaissance faciale pour retrouver les suspects. Cependant, la technologie est vivement contestée. Selon un rapport indépendant révélé exclusivement au média britannique Sky News, environ 81 % des suspects signalés par la technologie de reconnaissance faciale de la police du Met seraient en effet innocents.

Depuis que la police de ces pays a commencé à faire appel à la technologie de reconnaissance faciale, les avis qui sont contre cela sont les plus nombreux. Cette technologie est-elle sans biais ? Certainement pas, concluent certains. À Londres, la police métropolitaine (Metropolitan Police Service ou The Met) soutient depuis l’intégration de sa technologie de reconnaissance faciale que sa marge d’erreur est quasiment négligeable. Autrement dit, selon le Met, la technologie ne commet qu’une seule erreur sur 1000 cas. Le Met utilise cependant une métrique assez particulière pour arriver à cette conclusion.

Par contre, selon un rapport indépendant fourni par des chercheurs à Sky News, la technologie de reconnaissance faciale de la police se trompe presque tout le temps. Ils estiment que dans 81 % des cas, la technologie identifie des personnes innocentes comme étant des suspects alors qu’ils ne figurent sur aucune liste de personnes recherchées. Le rapport souligne des préoccupations majeures quant à la fiabilité de la technologie. Les chercheurs ont avancé que la technologie utilisée par Scotland Yard (quartier général du Met) souffre d’insuffisances majeures et en appellent à l'arrêt du programme de reconnaissance faciale.

Lorsque les tests ont commencé à Londres l’année passée, les inquiétudes étaient nombreuses et l’une d’elles concernait son imprécision. Dans une publication parue en mai 2018, The Independant faisait état de ce que l’IA utilisée par les forces de police anglaises a rapporté des faux positifs dans 98 % des cas, apostrophant des individus qui n’avaient pas leur profil enregistré dans une base de données criminelle ; de quoi exacerber les craintes des populations déjà accrochées au reproche de la violation de leur vie privée. « S’ils en font usage, nous devons être au courant. Espérons que cela apportera des avantages, car la dernière chose dont on veut entendre parler est un meurtre ou une agression au couteau », a laissé entendre l'un des cobayes des tests.

La police du Met maintient que son outil ne commet qu’une erreur sur mille cas, mais elle utilise une mesure différente pour arriver à cette conclusion. Autrement dit, le Met mesure l'exactitude en comparant les correspondances réussies et non réussies avec le nombre total de visages traités par le système de reconnaissance faciale. Selon cette mesure, le taux d'erreur n'était que de 0,1%. Cependant, dans l’approche du Met, les chercheurs ont souligné plusieurs imperfections. Ils ont cité des problèmes techniques, opérationnels et juridiques.


La première évaluation indépendante du projet a été commandée par Scotland Yard et menée par des universitaires de l'Université d'Essex. Selon une conclusion du rapport, « il est grandement possible que l'utilisation du système de reconnaissance faciale par le Met soit jugée illégale si elle était contestée devant un tribunal ». De plus, les professeurs Pete Fussey et Daragh Murray qui ont procédé à l’évaluation de l’outil ont affirmé que l'utilisation de la reconnaissance faciale par le Met lors de ces procès manquait d'une « base légale explicite » et ne tenait pas compte de la manière dont cette technologie violait les droits fondamentaux de l'homme.

« Notre rapport a mené une analyse juridique académique détaillée de la documentation utilisée par le Met comme base pour les procès de reconnaissance faciale. Il y a quelques lacunes et si le Met était traduit devant un tribunal, il y avait de bonnes chances qu'il soit contesté avec succès », a déclaré le professeur Fussey à Sky News. Contrairement au Met, les professeurs Pete Fussey et Daragh Murray ont tiré des conclusions très préoccupantes. Ils ont évalué la précision de la technologie dans six des dix procès de la police.

Ces derniers ont constaté que sur 42 correspondances, seules huit avaient été vérifiées, soit un taux d'erreur de 81 %. Quatre des 42 personnes étaient des personnes qui n'ont jamais été retrouvées parce qu'elles ont été absorbées par la foule. La question qui brûle les lèvres est de savoir si le Met utilise illégalement la technologie de reconnaissance faciale. D’après le rapport, lorsque la reconnaissance faciale en direct est utilisée dans des lieux publics, toute personne se trouvant à portée de vue des caméras est considérée comme étant sous surveillance apparente. Le Met a indiqué qu’il a informé les passants des essais en affichant des panneaux et en tweetant sur l'événement.

Cela dit, les chercheurs ne trouvent pas cela assez suffisant. De plus, il apparaît que toutes les personnes qui évitent les caméras LFR ou les caméras de reconnaissance faciale sont considérées comme des suspects par la technologie. Selon les coauteurs de l’évaluation, traiter l'évitement des caméras LFR comme un comportement suspect mine la prémisse du consentement éclairé. « L'arrestation d'individus évitant d’être flashés par les caméras LFR pour des infractions plus mineures que celles utilisées pour justifier les déploiements de tests soulève des questions claires en ce qui concerne l'extension des pouvoirs de la police », ont-ils expliqué.

Selon le rapport, les données utilisées pour créer des listes de surveillance n'étaient pas à jour et des personnes ont été arrêtées alors que leur cas avait déjà été traité. Dans d'autres cas, il n'y avait aucune raison claire pour laquelle des personnes ont été mises sur des listes de surveillance, laissant “une ambiguïté significative” sur l'objectif de la reconnaissance faciale. Les contestations visant la technologie de reconnaissance faciale du Met sont de plus en nombreuses. L'utilisation par le Met de la reconnaissance faciale est contestée devant les tribunaux par Big Brother Watch (BBW), un groupe de campagne anti-surveillance.

Le groupe réclame évidemment l’arrêt de l’utilisation du programme par le Met. « La seule question à présent est de savoir quand le Met va enfin s'engager à cesser d'utiliser la reconnaissance faciale », a déclaré la directrice du groupe BBW, Silkie Carlo. Mais dans le même temps, le Met possède également ses défenseurs. Le Home Office a défendu le Met, en affirmant qu’il apporte son aide à la police du Met à mettre à l'essai les nouvelles technologies destinées à protéger le public, y compris la reconnaissance faciale, ce qui peut les aider à identifier les criminels.

« Le gouvernement estime qu'il existe un cadre juridique pour l'utilisation de la technologie de reconnaissance faciale en direct, bien que cela soit contesté devant les tribunaux et nous ne voudrions pas anticiper l'issue de cette affaire », a déclaré le Home Office. À cet effet, un procès est en cours à Cardiff contre l’utilisation de la technologie de reconnaissance faciale. Le groupe de défense des droits de l'homme Liberty a également lancé un recours judiciaire contre la police du Pays de Galles, qui entreprend un programme de reconnaissance faciale en direct dans le Sud du pays financé par le Home Office.

Source : Sky News

Et vous ?

Quel est votre avis sur le sujet ?
Selon vous, les conclusions de ce rapport sont-elles satisfaisantes ?
Êtes-vous pour ou contre l'utilisation de la technologie de reconnaissance facile par les forces de l'ordre ? Pourquoi ?

Voir aussi

À Londres, la police teste une technologie de reconnaissance faciale pour retrouver des suspects : les populations entre approbation et condamnation

UK : la technologie de reconnaissance faciale de la police aurait permis d'arrêter un suspect grâce à l'amélioration du logiciel et de son algorithme

Des policiers tentent d'empêcher San Francisco d'interdire la surveillance par reconnaissance faciale, le projet de loi a de nombreux défenseurs

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de onilink_
Membre émérite https://www.developpez.com
Le 05/07/2019 à 14:55
En même temps, il faut faire quelques calculs pour se rendre compte que c'est un problème difficile.

On mesure l'efficacité d'un algorithme de reconnaissance faciale pour sa capacité a comparer deux visages.
Un algorithme comme deepface de facebook est efficace a 97% a peu près je crois, ce qui est impressionnant.

Mais maintenant, dans le contexte de la surveillance, même un algorithme efficace a 99% va vite donner des résultat totalement faux.

Imaginez une caméra qui cherche une personne, mais qui voit des milliers de visages chaque jour.
Pour un algorithme efficace a 99%, ça fait donc 1 erreur toutes les 100 personnes, soit 10 erreurs pour chaque millier d'individu.
Si on cumule ça chaque jour, les zones a fort trafic génèrent forcement plus d'erreurs que des résultats valides, si on n'utilise ce système juste pour faire de la comparaison.

Pour rendre ce genre de système réellement efficace, il faut le combiner a du tracking d'individus, comme ça on évite de comparer des personnes qui n'ont pas besoin de l'être, et on peut grandement diminuer les taux d'erreurs, surtout sur le long terme.
Si je ne m'abuse, c'est ce que font la chine.
Par contre je doute qu'en Angleterre une telle chose soit possible (enfin, je l'espère, utiliser la reconnaissance faciale comme ça est déjà assez folle...).
2  0 
Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 10/07/2019 à 17:10
il y a eu vol à l'arrachée, l'inspecteur Bob (un humain) mène l'enquête, à la fin il demande ou interpelle 5 personnes qui peuvent potentiellement correspondre au coupable, la victime s'écrit "c'est lui ! je le reconnais !"

quel est le pourcentage de suspects identifiés par Bob l'humain qui sont en réalité innocents ?
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/07/2019 à 15:55
Citation Envoyé par Bill Fassinou Voir le message
Quel est votre avis sur le sujet ?
Il reste une marge de progression, ils ne sont pas encore au niveau des chinois.

Citation Envoyé par Bill Fassinou Voir le message
Êtes-vous pour ou contre l'utilisation de la technologie de reconnaissance facile par les forces de l'ordre ? Pourquoi ?
Évidement contre, tout le monde sait qu'il ne faut jamais aller vers la surveillance de masse.
Perdre des libertés pour un peu de "sécurité" c'est toujours un mauvais plan.

Citation Envoyé par BleAcheD Voir le message
ça présage que du bon quand tout sera automatisé et qu'il n'y aura plus de vérification humaine
Ben ça va il faut juste que ton robot avocat explique qu'être reconnu par une IA ce n'est pas une preuve.
Un bon avocat peut déjà convaincre tout le monde qu'une emprunte digitale ou une trace d'ADN ce n'est pas une preuve.
L'ADN n'est pas infaillible comme on dit.
0  1 
Avatar de BleAcheD
Membre confirmé https://www.developpez.com
Le 05/07/2019 à 15:15
ça présage que du bon quand tout sera automatisé et qu'il n'y aura plus de vérification humaine, et j'en suis sûr qu'on y viendra.
1  3