IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Gartner : 75 % des grandes entreprises vont recruter des experts IA en criminalistique comportementale
Pour réduire le risque d'image d'ici 2023

Le , par Bill Fassinou

67PARTAGES

3  0 
L’intelligence artificielle (IA) s’infiltre de plus en plus dans les domaines d’activités de l’homme et l’une des questions les plus posées du moment concerne l’équité de l’IA. Beaucoup d’initiatives ont été entreprises ces dernières années pour établir des règles d’éthique auxquelles doit répondre une intelligence artificielle, mais la question reste toujours des plus critiques en raison des nombreux biais que peut contenir cette technologie, ainsi que d’autres problèmes. Selon Gartner, d’ici 2023, 75 % des grandes entreprises se verront obliger de recruter des experts en criminalistique comportementale pour réduire le risque lié à leur marque et à leur réputation.

Les entreprises qui proposent des solutions d’intelligence artificielle et de machine learning (ML) ou apprentissage automatique se sont considérablement multipliées depuis la dernière décennie, ce qui amène certaines personnes à désigner l’IA comme l’argument marketing du moment. Selon le cabinet d’étude Gartner, la confiance des utilisateurs dans les solutions d’intelligence artificielle et d’apprentissage automatique est en chute libre à mesure que des incidents de violation irresponsable de la vie privée et de mauvaise utilisation des données se produisent. Un problème que les entreprises utilisant l’intelligence artificielle devront résoudre afin de garder et fructifier leurs clientèles.

D’après Gartner, les préjugés fondés sur la race, le sexe, l’âge ou l’emplacement, ainsi que les préjugés fondés sur une structure de données spécifique, constituent depuis longtemps un risque pour les modèles de formation à l’IA. En outre, la question sur l’équité de l’IA ne bénéficiant pas encore de règles standard, des algorithmes opaques tels que l'apprentissage en profondeur peuvent incorporer dans leurs prédictions de nombreuses interactions implicites extrêmement variables qui peuvent être difficiles à interpréter. Ainsi, Gartner souligne que les entreprises vont devoir s’offrir les services de spécialistes en criminalistique et en équité de l’IAe et du ML si elles veulent faire face à ces divers problèmes.


« De nouveaux outils et compétences sont nécessaires pour aider les entreprises à identifier ces biais et d’autres sources potentielles de biais, à renforcer la confiance dans l’utilisation des modèles d’IA et à réduire les risques de marque et de réputation », a déclaré Jim Hare, vice-président de la recherche chez Gartner. « De plus en plus de responsables des données et d'analyse et de directeurs des données recrutent des enquêteurs en criminalistique et en éthique de niveau ML », a-t-il ajouté. Ces spécialistes sont chargés de valider les modèles pendant la phase de développement et ils doivent continuer à les surveiller une fois qu'ils sont mis en production, car des biais inattendus peuvent être introduits en raison de la divergence entre la formation et les données du monde réel.

Gartner donne l’exemple des organisations telles que Facebook, Google, Bank of America, MassMutual et la NASA qui recrutent ou qui ont déjà nommé des spécialistes de la criminalistique du comportement d'IA qui se concentrent principalement sur la découverte de biais non désirés dans les modèles d'IA avant leur déploiement. D’après le cabinet, cette pratique va s’étendre à 75 % des entreprises dans le monde d’ici les 5 prochaines années. « Bien que le nombre d'organisations qui engagent des enquêteurs en criminalistique et en éthique de niveau ML reste faible aujourd'hui, ce nombre s'accélérera au cours des cinq prochaines années », a ajouté Jim Hare, vice-président de la recherche chez Gartner.

D'un côté, les prestataires de services de conseil vont lancer de nouveaux services pour vérifier et certifier que les modèles ML sont explicables et respectent des normes spécifiques avant que les modèles ne soient mis en production. D'autre part, Gartner a notifié que des outils open source et commerciaux spécifiquement conçus pour aider les enquêteurs du ML à identifier et à réduire les préjugés sont en train de faire leur apparition sur le marché. En effet, rapporte le cabinet d’étude, certaines entreprises ont lancé des outils d’explicabilité de l’intelligence artificielle destinés à aider leurs clients à identifier et à corriger les biais des algorithmes d’intelligence artificielle.

De plus, les fournisseurs commerciaux de plateformes IA et ML ont ajouté des fonctionnalités permettant de générer automatiquement des explications de modèle en langage naturel. Il existe également des technologies à code source ouvert telles que LIME (Local Interpretable Model-Agnostic Explanations) qui peuvent rechercher une discrimination involontaire avant qu'elle ne soit intégrée à des modèles. Ces outils, parmi d’autres, a expliqué Gartner, peuvent aider les enquêteurs du ML à examiner « l’influence des données » de variables sensibles telles que l’âge, le sexe ou la race sur d’autres variables d’un modèle.

« Ils peuvent mesurer le degré de corrélation existant entre les variables pour déterminer si elles faussent le modèle et ses résultats », a continué d’expliquer Jim Hare. L’autre chose sur laquelle informe Gartner est que les responsables des données et de l'analyse et les CDO (Chief Data Officer) ne sont pas à l'abri des problèmes liés au manque de gouvernance et aux erreurs de l'IA. Selon Jim Hare, le vice-président des recherche du cabinet, ces responsables doivent intégrer l'éthique et la gouvernance dans les initiatives d'IA et créer une culture d'utilisation responsable, de confiance et de transparence. Ils doivent également promouvoir la diversité dans les équipes, les données et les algorithmes d'intelligence artificielle, ainsi que les compétences relationnelles.

« Les responsables des données et de l'analyse doivent aussi établir la responsabilité pour déterminer et mettre en œuvre les niveaux de confiance et de transparence des données, des algorithmes et des résultats pour chaque cas d'utilisation. Il est nécessaire qu’ils incluent une évaluation des caractéristiques d’explicabilité de l’IA lors de l’évaluation des outils d’analyse, de veille stratégique, de science des données et de plateformes ML », a conclu Jime Hare.

Source : Gartner

Et vous ?

Qu'en pensez-vous ?

Voir aussi

Gartner démystifie cinq idées fausses sur l'intelligence artificielle ou « IA », l'argument marketing du moment, d'après l'un des inventeurs de Siri

D'ici 2021, 70 % des entreprises intégreront l'IA pour assister les employés dans leurs tâches et augmenter leur productivité

La France bannit les IA de prédiction des comportements des juges. Les technologies de justice prédictive sont-elles une menace pour la société ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu76
Membre éclairé https://www.developpez.com
Le 07/06/2019 à 17:24
D’après Gartner, les préjugés fondés sur la race, le sexe, l’âge ou l’emplacement, ainsi que les préjugés fondés sur une structure de données spécifique
Bah il suffit juste de retirer les colonnes du jeux de données pour ne pas que l'algo apprenne dessus, c'est aussi simple que ça.
0  0