Le rôle de Perspective est de permettre d’attribuer à un texte un score de toxicité, vous l’aurez deviné, il s’agit d’intelligence artificielle. Perspective a été entraînée en utilisant des commentaires de Wikipédia, du New York Times et d’autres médias partenaires.
« Voter pour (Pouce levé), voter contre (Pouce renversé), désactiver les commentaires ou modérer manuellement. Voilà les options qui s’offraient aux modérateurs. Désormais ils ont une nouvelle option : ajouter de l’intelligence dans la prise en compte des commentaires et s’en servir pour mieux modérer les débats au sein de leurs communautés » s’est exprimé CJ Adams, responsable des applications d’intelligence artificielle appliquées aux conversations, apportant ainsi une précision supplémentaire sur le rôle de Perspective.
Une interface de test de l’API est disponible à cette adresse. J’y ai personnellement été pour pouvoir vous offrir ces copies d’écran avant que vous ne vous y rendiez pour faire le test par vous-même :
Les résultats sont ceux que vous pouvez voir comme moi : 5 %, 34 % et 95 % de toxicité respectivement. Le cas des deux dernières copies est le plus frappant, une disparité énorme entre les pourcentages pour le même mot (stupide/stupid), preuve que l'API a encore des limites lorsqu'il s'agit d'évaluer la toxicité d'un texte en français.
Sources : Wired
Et vous ?
Que pensez-vous de ces résultats ?
S'agit-il selon vous d'un outil fiable ?