Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des actionnaires demandent à Amazon d'arrêter de vendre son IA de reconnaissance faciale
Aux forces de l'ordre

Le , par Patrick Ruiz

221PARTAGES

16  0 
L’intelligence artificielle une fois de plus au centre de toutes les attentions … Des actionnaires d’Amazon appellent Jeff Bezos à arrêter de fournir une technologie de reconnaissance faciale mise au point par l’entreprise aux forces de l’ordre américaines.

Il y a en effet que l’intelligence artificielle en tant qu’outil peut rendre d’énormes services. L’un des exemples les plus récents est celui d’une IA de Google qui permet de prédire le risque pour un patient de mourir bientôt ou d’être réadmis à l’hôpital entre autres, mais il peut également y avoir des usages malsains. C’est la crainte qu’a tenu à formuler une vingtaine d’actionnaires de l’entreprise dans une correspondance adressée à Jeff Bezos en date du 15 juin. « Nous sommes préoccupés par le fait qu’une telle infrastructure de surveillance pourrait non seulement porter atteinte à la vie privée des consommateurs, mais également introduire des risques importants pour notre entreprise en impactant négativement sur sa valeur en bourse et en augmentant le péril financier pour les actionnaires », écrivent-ils.

L’Union américaine pour les libertés civiles (ACLU) est sur le coup bien avant cette sortie. Dans le texte sans détour d’une pétition qui engrange déjà 150 000 signatures on peut lire : « Amazon, sors du business de la surveillance. » Dans la foulée, une lettre ouverte signée par près de 70 organisations et associations a suivi pour demander à Jeff Bezos de renoncer à ce projet.


L’appel aura-t-il l’effet escompté ?

Tout dépend de Jeff Bezos … NBC News rapporte en effet qu’il concentre près de 79 millions d’actions et est donc de très loin le plus gros actionnaire. Dès qu’on le sait, on comprend que le droit de vote des autres actionnaires ne compte que pour du beurre. Alors, que pense M. Bezos de tout ceci ? Eh bien, l’entreprise défend son business de vente de technologie de surveillance aux gouvernements en arguant, comme l’a fait Google dans le cadre du projet Maven, qu’elle ne saurait être comptable de l’usage que des tiers font de sa technologie. En sus, elle précise qu’ « il n’ y a jusqu’ici pas eu de rapports d’utilisation abusive de Rekognition par les forces de l’ordre. »

La messe semble donc être dite, mais un revirement à la Google pourrait se produire. L’entreprise pourrait décider d’arrêter de fournir la technologie aux forces de l’ordre et la réorienter vers d’autres usages comme l’ont suggéré les actionnaires auteurs de la correspondance adressée à Bezos.

Rekognition : qu’a donc cette technologie dans le ventre ? À quoi sert-elle concrètement ?

Réponse de l’entreprise : « Amazon Rekognition facilite l'ajout d'une analyse des images et des vidéos à vos applications. Vous fournissez simplement une image ou une vidéo à l'API Rekognition, et le service peut identifier les objets, les personnes, le texte, les scènes et les activités, ainsi que détecter tout contenu inapproprié. Amazon Rekognition fournit également une reconnaissance et une analyse faciales précises sur vos fichiers image et vidéo. Vous pouvez détecter, analyser et comparer des visages pour une grande variété de cas de vérification d'utilisateurs, de comptage de personnes et d'utilisation pour la sécurité publique. »

La technologie a été lancée fin 2016. D’après L’Union américaine pour les libertés civiles, elle est déployée dans trois États américains au minimum et peut identifier, suivre et analyser en temps réel jusqu’à 100 personnes par image.

Sources : ACLU, NBC News

Et vous ?

Qu’en pensez-vous ? Ces entreprises de la Tech ont-elles vraiment le choix quand on sait que si elles ne se positionnent pas sur de tels créneaux quelqu’un d’autre le fera ?

Les ingénieurs qui acceptent de concevoir ces systèmes ne sont-ils pas les plus gros fautifs ?

Voir aussi :

Google aide le Pentagone à développer une IA pour analyser les vidéos capturées par drone et certains de ses employés sont furieux

Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone

L'EFF appelle à ne pas utiliser l'intelligence artificielle pour la guerre s’adressant à Google et aux entreprises de l'IA

Des employés de Google présentent leur démission pour protester contre la participation de l'entreprise à un projet en IA du Pentagone

Google promet de ne pas utiliser l'IA pour le développement d'armes mais informe qu'il va continuer à coopérer avec les militaires

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de marsupial
Membre expert https://www.developpez.com
Le 28/07/2018 à 14:40
J'aurai dit plus aussi. N'importe quel politicien aux Etats-Unis peut être considéré comme un criminel en puissance à cause du lobbying et de la corruption.

Plus sérieusement, tous ces faux positifs devraient faire comprendre, s'ils arrivent à sortir du lobbying ambiant, le risque de romans kafkaïens. Etre un innocent poursuivi et persécuté pour un crime qu'il n'a pas commis et même dont il ignore totalement l'existence.
10  0 
Avatar de Saverok
Expert éminent https://www.developpez.com
Le 30/07/2018 à 15:02
Citation Envoyé par redcurve Voir le message
ça ne change pas de la france donc rien de spéciale pour nous les pas blancs
En France, on a quand même les minima sociaux (RSA et sécurité sociale, pour ne citer qu'eux) et ça change quand même beaucoup de chose
La France est loin d'être parfaite et on a aussi nos banlieues avec les tours "cage à lapin" héritées des années 60 / 70 mais que que dise Fox News avec les "no go zone", ça n'a rien à voir avec les USA, et c'est peu dire !!
6  0 
Avatar de slowsaz
Membre confirmé https://www.developpez.com
Le 30/07/2018 à 15:51
Ce qui serait intéressant c'est de savoir exactement ce que cette technologie de reconnaissance faciale assimile au mot "criminel" pour comprendre le pourquoi du comment.

Par contre il faudrait vraiment arrêter votre communautarisme, "pour nous les pas blanc" comme si vous aviez besoin de le dire et de montrer votre "différence" et reprocher après aux gens de vous catégoriser alors que vous le faites vous-même.
5  0 
Avatar de kmedghaith
Membre averti https://www.developpez.com
Le 28/07/2018 à 13:30
Seulement 28 ?
J'aurais dit plus.
4  0 
Avatar de koyosama
Membre éprouvé https://www.developpez.com
Le 28/07/2018 à 16:27
Meme si je les connais et je ne devrais pas les juger. J'ai enfin l'impression qu'une AI marche ou alors c'est le turk mecanique d'amazon . Bon allez je vais l'utiliser .
1  0 
Avatar de mm_71
Membre chevronné https://www.developpez.com
Le 28/07/2018 à 22:56
identifie à tort 28 membres du Congrès US
Disons plutôt qu'a ce jour on ne peut rien prouver...
1  0 
Avatar de Saverok
Expert éminent https://www.developpez.com
Le 30/07/2018 à 16:27
Citation Envoyé par slowsaz Voir le message
Ce qui serait intéressant c'est de savoir exactement ce que cette technologie de reconnaissance faciale assimile au mot "criminel" pour comprendre le pourquoi du comment.
C'est juste une recherche dans la BDD des casiers judiciaires et personnes recherchées et suspectées d'un crime.
Autrement dit, les sénateurs identifiés comme "criminels" par le soft Rekognition doivent uniquement avoir un visage aux caractéristiques proches de celles d'un criminel reconnu ou supposé / recherché.

Bref, on cherche à nous vendre un truc révolutionnaire doté d'une "intelligence" alors que ce n'est qu'une machine learning de reconnaissance faciale comme il en existe beaucoup d'autres désormais.

J'ajouterai que l’American Civil Liberties Union peut facilement fausser son étude par du biais de données comme cela se fait souvent avec cette techno.
Pour leur démonstration, ils n'ont entraîné leur prog qu'avec 25 000 casiers judiciaires ce qui est assez faible à l'échelle des USA et en fonction de la représentativité / diversité des casiers de l'échantillon utilisé, on peut faire varier les résultats de l'étude comme on le souhaite.
Je ne serai pas surpris d'apprendre que l'asso ait fait plusieurs tests avec des échantillons de données différents et ont conservé celui qui leur permettait d'avoir les résultats les plus médiatiques pour leur démonstration...
1  0 
Avatar de LuCiFeR-III
Membre à l'essai https://www.developpez.com
Le 02/08/2018 à 11:55
Citation Envoyé par Matthieu76 Voir le message
C'est peu.
Pourquoi ?

D'après les stats officielles, il y a 13% d'afro-américains aux USA. Pourquoi 20% de noirs au congrès serait peu ?
2  1 
Avatar de hotcryx
Membre extrêmement actif https://www.developpez.com
Le 30/07/2018 à 10:23
Qu'en est t'ils de ceux-ci ??

1  1 
Avatar de Matthieu76
Membre éclairé https://www.developpez.com
Le 30/07/2018 à 17:56
Citation Envoyé par slowsaz Voir le message
Ce qui serait intéressant c'est de savoir exactement ce que cette technologie de reconnaissance faciale assimile au mot "criminel" pour comprendre le pourquoi du comment.
C'est extrêmement difficile de savoir exactement comment l'IA effectuer sa reconnaissance, même pour celui qui l'a programmé. Il faut reconstituer des images à partir des matrices du réseaux de neurones pour réussir à identifier les éléments qui sont utiliser dans la reconnaissance mais c'est quasiment impossible de trouver le biais sur ce genre algorithme. D'ailleurs le biais ne se trouve quasiment jamais dans l'IA elle-même mais se trouve dans les données d'apprentissages, l'échantillon ne représente pas assez bien la population. (statistique de base)
Quoique bien souvent la population est elle-même biaiser. Dans ce cas peut-on vraiment reprocher à l'IA d’être biaiser ?
0  0