Sur developpez.com et dans toutes les autres communautés en ligne, la contribution des utilisateurs des quatre points du globe est d’une importance capitale pour la réussite du site. Les contributions sont diverses et viennent sous la forme de messages, de commentaires, de votes, et même de partages sur les réseaux sociaux.
Si la participation des internautes est primordiale, il est toutefois important pour le site de mettre en place un système de modération pour pouvoir réguler certains comportements indésirables qui s’invitent parfois dans les discussions en ligne. Les modérateurs dans leurs actions peuvent être emmenés à supprimer des messages de certains utilisateurs et parfois bannir ces derniers de la communauté lorsqu’ils adoptent régulièrement des comportements antisociaux lors des discussions. Cela passe donc d’abord par un suivi minutieux des discussions afin de détecter rapidement les infractions.
La détection des comportements antisociaux tels que les trolls étant manuelle, certaines infractions peuvent être tardivement identifiées. Un programme de détection automatique serait donc d’un apport considérable à la modération. C’est l’objectif que se sont fixé des chercheurs de Cornell University dans une étude financée en partie par Google : élaborer un programme de détection des utilisateurs à comportements antisociaux dès le début dans la communauté en ligne.
Pour leur étude, ces chercheurs ont examiné trois grandes communautés dont le site d’actualité générale CNN.com, le site d’actualité politique Breitbart.com, et le site de jeux d’ordinateur IGN.com. Sur ces sites, ils ont pu analyser les activités de 1,7 million d’utilisateurs sur plus de 18 mois, traduites par près de 40 millions de posts et plus de 100 millions de votes. Sur la période, ils ont comparé le comportement des utilisateurs qui ont été bannis (FBU) à celui des utilisateurs qui n’ont jamais été bannis (NBU).
Selon leur analyse, les utilisateurs à comportements antisociaux sur un forum « ont tendance à concentrer leurs efforts sur un petit nombre de threads, sont plus susceptibles de poster des propos sans rapport avec le sujet, et ont du succès à récolter les réponses des autres utilisateurs. » Indique le rapport de l’étude.
L’étude montre également que ces derniers ne partagent généralement pas l’opinion générale et leurs messages sont difficiles à comprendre ; leur langage caractérisé par des termes négatifs et des jurons est également susceptible de générer des conflits lors des discussions.
Les chercheurs révèlent qu’il y a deux groupes d’utilisateurs antisociaux. Le premier comprend les utilisateurs dont le comportement est inné. Pour le second groupe, il s’agit d’utilisateurs qui se sont vus sanctionnés dès leur début dans la communauté. Cela les incite à devenir pires qu’avant. Le rapport indique encore que les communautés immédiatement intolérantes sont également plus susceptibles de favoriser les trolls. Quant à celles qui semblent plus tolérantes au départ, elles deviennent de plus en plus sévères envers ces utilisateurs même quand ils améliorent leurs écrits :
« Les communautés peuvent jouer un rôle dans l'incubation de comportement antisocial. En fait, les utilisateurs qui sont censurés trop tôt dans leur vie sont plus susceptibles de manifester un comportement antisocial plus tard. En outre, alors que les communautés semblent initialement pardonner (et sont relativement lentes à interdire ces utilisateurs antisociaux), elles deviennent moins tolérantes envers ces utilisateurs plus ils restent dans une communauté. Il en résulte une augmentation du taux auquel leurs posts sont supprimés, même après ajustement de la qualité du post »
Les chercheurs affirment qu’en se basant sur divers aspects du comportement antisocial - tels que le contenu du message, l'activité de l'utilisateur, la réponse de la communauté, et les actions des modérateurs de la communauté – ils sont en mesure de prédire si un utilisateur sera interdit plus tard avec une précision de plus de 80% selon le critère ASC. Autrement dit, au plus 1 utilisateur sur 5 a été mal classé par leur système d’analyse. Ils disent également que leur système est capable de détecter un utilisateur antisocial à partir de 5 à 10 posts de ce dernier.
Source : Antisocial Behavior in Online Discussion Communities (pdf)
Et vous ?
Qu’en pensez-vous ?
Des chercheurs développent un programme pour détecter les infractions sur les forums
Quel est le profil d'un utilisateur à bannir
Des chercheurs développent un programme pour détecter les infractions sur les forums
Quel est le profil d'un utilisateur à bannir
Le , par Michael Guilloux
Une erreur dans cette actualité ? Signalez-nous-la !