Awful AI : une liste organisée pour suivre de près les utilisations alarmantes actuelles de l'IA
Dans l'espoir de sensibiliser

Le , par Stéphane le calme, Chroniqueur Actualités
Awful AI est une liste organisée pour suivre de près les utilisations alarmantes actuelles de l'IA dans l'espoir de sensibiliser le public à ses utilisations abusives dans la société.

Les découvertes ont été classées par catégories. La liste ci-dessous n'est pas exhaustive.

La discrimination

HireVue : à l’intention des recruteurs, HireVue a été déployé et est présenté comme une plateforme qui analyse votre visage et indique aux entreprises si vous valez la peine d’être embauchés. HireVue souhaite faciliter la tâche du recruteur en utilisant l'intelligence artificielle pour faire le gros du travail et filtrer plusieurs candidats à la fois.

Les candidats peuvent utiliser l’application mobile ou de bureau de HireVue pour organiser une interview vidéo avec un employeur et enregistrer les réponses aux questions de l’entrevue à leur convenance.

L’éditeur d’HireVue a déclaré qu’il ne souhaitait pas voir son outil remplacer les recruteurs; au lieu de cela, il veut rendre le processus d'entretien d'embauche plus efficace. Dans le meilleur des cas, il peut servir de premier outil de sélection avant que les demandeurs d'emploi puissent se rendre sur la terre promise d'entrevue avec un humain.

Gaydar : plutôt controversé, cet outil boosté à l'intelligence artificielle a été développé pour deviner si les personnes sont homosexuelles sur la base de photos de leurs visages. Selon une nouvelle étude, les machines pourraient avoir un "gaydar" bien meilleur que les humains.

Le chatbot devenu raciste : Microsoft s’est excusé pour les tweets déplacés de Tay : son chatbot qui était supposé reproduire une conversation qu’aurait tenue une jeune femme âgée entre 18 et 24 ans sur les plateformes Twitter, Kik et GroupMe, a été mis hors ligne en moins de 24 heures après des tweets comme « je déteste les féministes, et ils devraient tous mourir et brûler en enfer », ou « Hitler avait raison, je déteste les juifs ».


L’Auto Tag raciste : Google s’est confondu en excuses après que l’algorithme qui reconnait les visages et les situations de son application Google Photos ait commis l’impair de confondre un couple de Noirs avec des gorilles. Cette erreur a été rapportée par le développeur New Yorkais Jacky Alciné qui est l’une des deux personnes sur la photo. Il l’a signalé en publiant un tweet, preuve à l’appui, avec un petit message pour bien montrer son irritation « Google Photos, vous avez merdé. Mon amie n’est pas un gorille ».

Peu de temps après ce premier tweet, Google a réagi par l’entremise d’un de ses responsables Yonathan Zunger, lequel a reconnu sur le fil de discussion amorcé par Alciné que ce n’était pas du tout correct. Il a par la suite certifié que l’entreprise prenait des mesures afin que le problème ne survienne plus, précisant que des problèmes de ce type sont désormais « classés haut dans ma liste de bugs que vous ne voulez ‘jamais’ voir se produire ». Il a rajouté que Google « travaille également sur des corrections à long terme concernant à la fois la reconnaissance linguistique – les mots qu’il faut utiliser avec précaution une fois en face de photos de personnes – et la reconnaissance faciale elle-même – par exemple mieux reconnaître les visages à la peau foncée ».


PredPol : ce programme destiné aux services de police qui prédit les points chauds dans lesquels des crimes pourraient se produire, pourrait éventuellement rester bloqué dans une boucle de surveillance policière dans des quartiers où les minorités sont les plus représentées.

COMPAS : un algorithme d'évaluation du risque utilisé par les tribunaux judiciaires par l'État du Wisconsin pour prédire le risque de récidive. Son éditeur refuse de divulguer l'algorithme propriétaire et seul le score final d'évaluation du risque est connu. Selon un article du NYT, une fois appliqué aux Noirs, l'algorithme se montre biaisé.


Infer Criminality From Your Face (Inférer la criminalité de votre visage) : un programme qui détermine si vous êtes un criminel d'après vos traits de visage.

Influence, désinformation et contrefaçon

Cambridge Analytica : Cambridge Analytica a utilisé les données de Facebook pour modifier le comportement de l'auditoire à des fins politiques et commerciales

Deep Fakes : Deep Fakes est une technique de synthèse d'images humaines basée sur l'intelligence artificielle. Elle est utilisée pour combiner et superposer des images et des vidéos existantes sur des images ou des vidéos sources. Deepfakes peut être utilisé pour créer de fausses vidéos pornographiques de célébrités ou bien d’autres.


Fake News Bots : des comptes automatisés sont programmés pour diffuser de fausses informations. Récemment, de fausses informations ont été utilisées pour manipuler les marchés boursiers, inciter les gens à choisir des options de soins de santé et à manipuler des élections, y compris l’élection présidentielle de l’année dernière aux États-Unis.

Attention Engineering : des notifications Facebook aux Snapstreaks en passant par les jeux automatiques YouTube, ils se font concurrence pour une seule chose: votre attention. Les entreprises s'en prennent à notre psychologie pour leur propre profit

Systèmes de crédit social

Système de crédits sociaux : à l'aide d'un algorithme secret, le crédit Sesame attribue un score constant de 350 à 950, et ses notations sont basées sur des facteurs tels que les « relations interpersonnelles » et les habitudes de consommation.

Vitality : société d'assurance maladie proposant des offres basées sur l'accès aux données de trackers de fitness.

Surveillance

Analyse de la démarche : votre démarche est extrêmement complexe, très unique et difficile, sinon impossible, à masquer en cette ère de vidéosurveillance. Votre démarche n'a besoin d'être enregistrée qu'une seule fois et associée à votre identité pour que vous puissiez être suivi en temps réel. En Chine, ce type de surveillance est déjà déployé. En outre, plusieurs personnes ont été condamnées pour leur démarche dans l'ouest. Nous ne pouvons même plus rester modestement anonymes en public.

SenseTime & Megvii : Basé sur la technologie de reconnaissance des visages reposant sur un algorithme d'apprentissage en profondeur, SenseFace et Megvii fournissent des solutions intégrées d'analyse vidéo intelligente, fonctionnant dans les domaines de la surveillance des cibles, de l'analyse de trajectoire et de la gestion de la population.

Uber God View : le mode God View d'Uber permet aux employés d'Uber de voir tous les Uber d'une ville et les silhouettes et les noms des utilisateurs Uber en attente qui ont demandé un Uber.

Palantir : une start-up d'un milliard de dollars centrée sur les politiques prédictives, le renseignement et les systèmes de défense militaires à moteur par intérim.

Source : liste

Et vous ?

Que pensez-vous de ce projet ?
Quels sont, selon vous, les éléments qui sont les plus alarmants ?
Quelles utilisations de l'IA pouvez-vous rajouter ?

Voir aussi :

Une nouvelle méthode inédite de deepfake a été mise au point par des chercheurs, permettant de transférer le style d'une personne à une autre
Google présente ses excuses pour un tag malheureux de son application Photos, qui a identifié un couple d'afro-américains comme étant des gorilles
Microsoft explique les raisons qui ont fait de son chatbot Tay un fan d'Hitler, l'entreprise parle d'une « attaque coordonnée »
Espagne : la police s'appuie sur l'IA pour débusquer les fausses déclarations de vol, VeriPol dispose d'un taux de précision de 83%
20th Century Fox se tourne vers l'IA pour analyser les bandes-annonces et déterminer les films qui sont susceptibles de plaire au public


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse Signaler un problème

Avatar de Ryu2000 Ryu2000 - Membre extrêmement actif https://www.developpez.com
le 05/11/2018 à 14:11
Citation Envoyé par Stéphane le calme Voir le message
Le chatbot devenu raciste : Microsoft s’est excusé pour les tweets déplacés de Tay : son chatbot qui était supposé reproduire une conversation qu’aurait tenue une jeune femme âgée entre 18 et 24 ans sur les plateformes Twitter, Kik et GroupMe, a été mis hors ligne en moins de 24 heures après des tweets comme « je déteste les féministes, et ils devraient tous mourir et brûler en enfer », ou « Hitler avait raison, je déteste les juifs ».
Je me suis marré quand j'ai appris que Tay, le chatbot de Microsoft, avait dit ça ^^

Citation Envoyé par Stéphane le calme Voir le message
COMPAS : un algorithme d'évaluation du risque utilisé par les tribunaux judiciaires par l'État du Wisconsin pour prédire le risque de récidive. Son éditeur refuse de divulguer l'algorithme propriétaire et seul le score final d'évaluation du risque est connu. Selon un article du NYT, une fois appliqué aux Noirs, l'algorithme se montre biaisé.
Est-ce qu'il ont essayé de prendre des photos de blanc et de les coloriser ?
Statistiquement, aux USA, les noirs ont plus de chance de commettre des délits, ça vient peut-être de là...

Citation Envoyé par Stéphane le calme Voir le message
Deep Fakes : Deep Fakes est une technique de synthèse d'images humaines basée sur l'intelligence artificielle. Elle est utilisée pour combiner et superposer des images et des vidéos existantes sur des images ou des vidéos sources. Deepfakes peut être utilisé pour créer de fausses vidéos pornographiques de célébrités ou bien d’autres.
Ça c'est très grave par contre.
Si un jour l'AFP diffuse une fausse vidéo elle va être reprise par l'ensemble des médias, tout le monde va croire que c'est vrai.
On ne peut avoir confiance en rien, tout peut être faux.

 
Contacter le responsable de la rubrique Accueil