IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA qui détecte vos émotions peut être utilisée à mauvais escient et ne doit pas être accessible à tous
D'après Microsoft

Le , par Nancy Rey

8PARTAGES

4  0 
Microsoft a annoncé mardi son intention d'arrêter la vente de la technologie de reconnaissance faciale qui prédit les émotions, le sexe ou l'âge d'une personne, et de restreindre l'accès à d'autres services d'intelligence artificielle, car elle risque de « soumettre des personnes à des stéréotypes, à la discrimination ou à un refus injuste de services ». Dans un billet de blog, Microsoft fait référence à son travail en interne et avec des chercheurs extérieurs pour développer une norme d'utilisation de la technologie. L'article reconnaît que ces travaux ont révélé de graves problèmes de fiabilité de la technologie. Cet engagement est nécessaire parce qu’il n'y a apparemment pas encore assez de lois réglementant l'utilisation des technologies d'apprentissage automatique. Ainsi, en l'absence de cette législation, Microsoft devra simplement se forcer à faire ce qu'il faut.

Microsoft s'est engagé à restreindre l'accès aux outils d'IA conçus pour prédire les émotions, le sexe et l'âge à partir d'images, et à limiter l'utilisation de ses modèles de reconnaissance faciale et d'audio génératif dans Azure. Le géant de l'informatique a fait cette promesse hier, tout en partageant sa norme d'IA responsable, un document dans lequel l'entreprise américaine s'engage à limiter tout dommage causé par ses logiciels d'apprentissage automatique. Cette promesse comprend l'assurance que l'entreprise évaluera l'impact de ses technologies, documentera les données et les capacités des modèles et appliquera des directives d'utilisation plus strictes.

Cette décision fait suite à de vives critiques à l'égard de cette technologie, qui a été utilisée par des entreprises pour surveiller les candidats à l'emploi pendant les entretiens. Les systèmes de reconnaissance faciale sont souvent formés sur des bases de données à prédominance blanche et masculine, de sorte que leurs résultats peuvent être biaisés lorsqu'ils sont utilisés sur d'autres cultures ou groupes. « Ces efforts ont soulevé des questions importantes concernant la vie privée, l'absence de consensus sur la définition des émotions et l'incapacité à généraliser le lien entre l'expression faciale et l'état émotionnel à travers les cas d'utilisation, les régions et les données démographiques », a déclaré Sarah Bird, chef de produit principal de l'unité Azure A.I. de Microsoft. Des sociétés comme Uber utilisent actuellement la technologie de Microsoft pour s'assurer que les conducteurs au volant correspondent aux profils qu'ils ont dans leurs dossiers.

Il y a deux ans, Microsoft a entrepris un processus d'examen visant à élaborer une « norme d'intelligence artificielle responsable » et à guider la construction de systèmes d'intelligence artificielle plus équitables et plus fiables. L'entreprise a publié le résultat de ces efforts dans un document de 27 pages mardi. « En introduisant l'accès limité, nous ajoutons une couche supplémentaire d'examen minutieux à l'utilisation et au déploiement de la reconnaissance faciale afin de garantir que l'utilisation de ces services s'aligne sur la norme d'IA responsable de Microsoft et contribue à des avantages de grande valeur pour l'utilisateur final et la société », a écrit Bird dans le billet de blog publié mardi.

« Nous reconnaissons que pour que les systèmes d'intelligence artificielle soient dignes de confiance, ils doivent être des solutions appropriées aux problèmes qu'ils sont censés résoudre », a écrit Natasha Crampton, responsable de l'intelligence artificielle chez Microsoft, dans un autre billet de blog. Crampton a ajouté que l'entreprise allait retirer les capacités de l'IA qui « déduisent des états émotionnels et des attributs d'identité tels que le sexe, l'âge, le sourire, la pilosité faciale, les cheveux et le maquillage » comme exigence de sa nouvelle norme.


Cette décision intervient alors que les législateurs des États-Unis et de l'Union européenne débattent des questions juridiques et éthiques liées à l'utilisation de la technologie de reconnaissance faciale. Certaines juridictions imposent déjà des limites au déploiement de cette technologie. À partir de l'année prochaine, les employeurs de la ville de New York seront confrontés à une réglementation accrue sur leur utilisation d'outils automatisés pour sélectionner les candidats. En 2020, Microsoft a rejoint d'autres géants de la technologie en s'engageant à ne pas vendre ses systèmes de reconnaissance faciale aux services de police jusqu'à ce qu'une réglementation fédérale existe.

Mais les universitaires et les experts critiquent depuis des années des outils comme l'API Azure Face de Microsoft qui prétendent identifier les émotions à partir de vidéos et de photos. Leurs travaux ont montré que même les systèmes de reconnaissance faciale les plus performants identifient de manière disproportionnée les femmes et les personnes à la peau plus foncée.

« Le besoin de ce type de conseils pratiques est de plus en plus important. L'IA fait de plus en plus partie de nos vies, et pourtant, nos lois sont à la traîne. Elles n'ont pas rattrapé les risques uniques de l'IA ni les besoins de la société. Si nous voyons des signes indiquant que l'action gouvernementale en matière d'IA s'étend, nous reconnaissons également notre responsabilité d'agir. Nous pensons que nous devons œuvrer pour que les systèmes d'IA soient responsables dès leur conception, » a déclaré Natasha Crampton.

Ainsi, afin d'éviter que les développeurs d'apprentissage automatique ne causent des conflits et de la malveillance à l'aide de ses technologies, Microsoft met fin à l'accès aux outils formés pour classer le sexe, l'âge et les émotions des personnes, et analyser leur sourire, leur pilosité faciale, leurs cheveux et leur maquillage, via son API Face dans Azure. Les nouveaux clients ne pourront pas utiliser cette API dans le cloud de Microsoft, et les clients existants ont jusqu'au 30 juin 2023 pour migrer vers d'autres services avant que le logiciel ne soit officiellement retiré.

Bien que ces capacités ne seront pas offertes via sa plateforme API, elles seront toujours utilisées dans d'autres parties de l'empire Microsoft. Par exemple, les fonctionnalités seront intégrées dans Seeing AI, une application qui identifie et raconte les descriptions de personnes et d'objets pour les personnes souffrant de déficiences visuelles.

L'accès à d'autres types d'outils Microsoft considérés comme risqués, tels que la génération de sons réalistes (mettre des mots dans la bouche de quelqu'un) et la reconnaissance faciale (utile pour la surveillance) sera restreint. Les nouveaux clients devront demander à utiliser ces outils ; Microsoft évaluera si les applications qu'ils veulent développer sont appropriées ou non. Les clients existants devront également obtenir l'autorisation de continuer à utiliser ces outils pour leurs produits à partir du 30 juin 2023.

L'imitation du son de la voix d'une personne à l'aide de modèles d'IA générative n'est désormais plus autorisée sans le consentement du locuteur. Les produits et services conçus à l'aide du logiciel Custom Neural Voice de Microsoft devront également indiquer que les voix sont fausses. Les directives d'utilisation des outils de reconnaissance faciale de l'entreprise sont également plus strictes s'ils sont appliqués dans des espaces publics et ne peuvent pas être utilisés pour suivre des individus à des fins de surveillance.

Source : Microsoft (1, 2, 3)

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

La technologie de reconnaissance des émotions devrait être interdite, car elle a peu de fondement scientifique, a conclu l'institut de recherche IA Now

Des chercheurs développent une IA capable de détecter les vidéos deepfake avec une précision allant jusqu'à 99 %, cette méthode détecte les expressions faciales manipulées et les échanges d'identité

Espagne : la police s'appuie sur l'IA pour débusquer les fausses déclarations de vol, VeriPol dispose d'un taux de précision de 83%


La pandémie a-t-elle normalisé les logiciels de surveillance des employés ? Des rapports indiquent que ces logiciels se répandent rapidement

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Arya Nawel
Membre extrêmement actif https://www.developpez.com
Le 08/08/2022 à 3:51
Citation Envoyé par Nancy Rey Voir le message
L'IA qui détecte vos émotions peut être utilisée à mauvais escient et ne doit pas être accessible à tous,
Ah bon? Me serais jamais douté
0  0