D’après Radha Poovendran, Hossein Hosseini, Baosen Zhang et Sreeram Kannan de l’UW, les systèmes d’intelligence artificielle ont en commun un talon d’Achille : un choix approprié d’une entrée dite perturbatrice permet de « prendre le contrôle » du résultat obtenu. D’après leurs développements, Perspective n’aurait pas été suffisamment entrainé à prendre en compte ce type d’entrées, ce qui conduit aux résultats qu’ils ont rendus publics sur le site de l’université de Washington. Deux constats majeurs :
- L’insertion de ponctuation/la modification d’orthographe dans du contenu rédigé en langue anglaise permet de réduire drastiquement le score de toxicité attribué.
- La négation d’une phrase toxique ne reçoit pas le score adéquat qui, en principe, devrait être bas.
De toutes évidences, Perspective s’avère être une application embryonnaire. Elle requiert encore beaucoup d’améliorations. Les équipes de Google ont cependant des pistes de réflexion qui leur ont été tracées par notre équipe de chercheurs de l’UW. Elles sont bien évidemment basées sur les failles répertoriées ci-dessus. Il s'agira pour les équipes de Google de : intégrer un vérificateur orthographique en amont du module d’IA et faire usage d'un nombre plus important d’entrées perturbatrices pour entrainer le système.
Source: UW
Et vous ?
Qu'en pensez-vous ?
Voir aussi :
L'agence des services frontaliers du Canada teste une intelligence artificielle, pour détecter les mensonges des voyageurs
MogAI : une intelligence artificielle avait prédit avec précision la victoire de Trump, deux semaines avant l'annonce des résultats