
selon des chercheurs de l'université australienne d'Adélaïde
L'invasion de l'Ukraine par la Russie en 2022 souligne le rôle que jouent les médias sociaux dans la guerre moderne, les conflits se déroulant à la fois dans l'environnement physique et dans l'environnement informationnel. De nombreux travaux ont été consacrés à l'identification de la cyberactivité malveillante, mais l'effet de cette activité sur la conversation générale, notamment en ce qui concerne le conflit Russie/Ukraine, est moins étudié. Comment l'activité des bots influence-t-elle le discours en ligne ? Les campagnes d'influence malveillantes fonctionnent-elles comme prévu ?
Les médias sociaux sont un outil essentiel de la guerre de l'information et ont joué un rôle important dans l'invasion russe de l'Ukraine. La désinformation et, plus généralement, le contrôle réflexif sont utilisés par la Russie et d'autres pays contre leurs ennemis et en interne depuis de nombreuses années. Un nouveau venu relatif dans cet espace - Twitter - a déjà été largement utilisé à de telles fins lors de conflits militaires, par exemple dans le Donbass, mais son rôle dans les conflits évolue et n'est pas entièrement compris. Les deux parties au conflit ukrainien utilisent l’information en ligne pour influencer la dynamique géopolitique et influencer l'opinion publique.
Les médias sociaux russes diffusent des récits sur leurs motivations, tandis que les médias sociaux ukrainiens visent à encourager et à maintenir le soutien extérieur des pays occidentaux, ainsi qu'à promouvoir leurs efforts militaires tout en sapant la perception de l'armée russe. Parmi les exemples de ces récits figurent des allégations selon lesquelles l'Ukraine développerait des armes biologiques, le président Volodymyr Zelenskyy se serait rendu et une campagne soutenue montrerait le succès apparent du « Fantôme de Kiev ».
Certaines des informations diffusées sont authentiques, d'autres sont malveillantes. Il n'est pas facile de faire la part des choses. La compréhension et la mesure des flux d'informations et de diverses caractéristiques linguistiques ont déjà permis aux chercheurs de comprendre la dynamique des communautés et d'identifier les comptes et les contenus inauthentiques. Les chercheurs appliquent et étendent ces techniques pour comprendre et quantifier l'influence des comptes de type bot sur les discussions en ligne, en utilisant des données Twitter centrées sur l'invasion de l'Ukraine par la Russie.
Probabilités horaires moyennes des bots tweetant les hashtags de la requête (en haut). Fréquence horaire des hashtags de la requête (en bas). La période considérée est la première quinzaine après l'invasion de l'Ukraine par la Russie. Les deux graphiques incluent également cinq événements significatifs sur cette période. Un pic significatif dans l'activité de plusieurs types de bots est observé les 2 et 4 mars. Le pic d'activité des bots du 2 mars coïncide avec la prise de Kherson par la Russie, ainsi qu'avec une augmentation significative des hashtags pro-russes.
Ce pic d'activité est dû à une augmentation de l'activité des robots pro-russes - probablement utilisés par les autorités russes. Le pic d'activité des robots le 4 mars coïncide avec le moment où l'utilisation des hashtags pro-russes a diminué, mais aussi lorsque la Russie a capturé la centrale nucléaire de Zaporizhzhia. Ce pic est dû à une augmentation de l'activité des bots pro-russes (avant d'être supprimés) et à une augmentation de l'activité des bots pro-ukrainiens probablement par les autorités pro-ukrainiennes en réponse aux bots russes.
Un « bot » (abréviation de « robot ») est un logiciel qui exécute des tâches automatisées, répétitives et prédéfinies. Les bots imitent ou remplacent généralement le comportement des utilisateurs humains. Comme ils sont automatisés, ils fonctionnent beaucoup plus rapidement que les utilisateurs humains. Ils remplissent des fonctions utiles, comme le service clientèle ou l'indexation des moteurs de recherche, mais ils peuvent aussi se présenter sous la forme de logiciels malveillants, utilisés pour prendre le contrôle total d'un ordinateur.
Les bots informatiques et les bots Internet sont essentiellement des outils numériques et, comme tout outil, ils peuvent être utilisés à bon ou mauvais escient. Les bons bots effectuent des tâches utiles, mais les mauvais bots, également appelés bots malveillants, comportent des risques et peuvent être utilisés pour pirater, spammer, espionner, interrompre et compromettre des sites Web de toutes tailles. On estime que jusqu'à la moitié de l'ensemble du trafic Internet est aujourd'hui constitué de bots informatiques effectuant certaines tâches, comme l'automatisation de services clientèle, la simulation de la communication humaine sur les réseaux sociaux, l'aide aux entreprises pour la recherche de contenu en ligne et l'assistance à l'optimisation des moteurs de recherche.
Les organisations ou les particuliers utilisent des bots pour remplacer les tâches répétitives qu'un humain devrait autrement effectuer. Les tâches exécutées par les bots sont généralement simples et réalisées à un rythme beaucoup plus rapide que celui des humains. Les tâches effectuées par les bots ne sont pas toutes bénignes : les bots sont parfois utilisés pour des activités criminelles, comme le vol de données, les escroqueries ou les attaques par déni de service.
Dans le cas du conflit Russie-Ukraine, en regroupant les groupes de comptes, Arxiv a constaté des flux d'informations importants entre les comptes de type bot et les comptes non-bots, avec des comportements différents selon les camps. Les comptes non-bots pro-russes sont dans l'ensemble les plus influents, avec des flux d'informations vers une variété d'autres groupes de comptes. Il n'y a pas de flux sortants significatifs en provenance des comptes non-bots pro-ukrainiens, mais des flux significatifs des comptes bots pro-ukrainiens vers les comptes non-bots pro-ukrainiens. L'activité des bots entraîne une augmentation des conversations sur l'angoisse (avec p = 2,450 × 10-4 ) ainsi que sur le travail et la gouvernance (avec p = 3,803 × 10-18 ).
L'activité des bots présente également une relation significative avec le sentiment des non-bots (avec p = 3,76×10-4), où nous constatons que la relation se maintient dans les deux sens. Ce travail étend et combine des techniques existantes pour quantifier la façon dont les robots influencent les gens dans la conversation en ligne autour de l'invasion Russie/Ukraine. Il ouvre la voie aux chercheurs qui souhaitent comprendre quantitativement comment ces campagnes malveillantes fonctionnent, et ce qui leur donne de l'impact.
Voici, ci-dessous, quelques exemples de bots malveillants
Bots de spam
Les bots de spam peuvent récolter des adresses email à partir de pages de contact ou de livres d'or. Ils peuvent également publier du contenu promotionnel dans des forums ou des sections de commentaires pour attirer du trafic vers des sites Web particuliers.
Bots conversationnels
Les sites Web et les applications de rencontres sont des paradis pour les bots conversationnels malveillants. Ces bots conversationnels se font passer pour une personne, imitant une interaction humaine, et trompent souvent les utilisateurs qui ne se rendent pas compte qu'ils discutent avec des programmes nuisibles qui ont pour but d'obtenir des informations personnelles, notamment des numéros de carte de crédit, de victimes peu méfiantes.
Bots de partage de fichiers
Ces bots prennent le terme d'une requête d'un utilisateur (comme un film populaire ou l'album d'un artiste) et répondent à la requête en indiquant qu'ils proposent le fichier en téléchargement, et fournissent un lien. L'utilisateur clique sur le lien, télécharge le fichier et l'ouvre, et infecte son ordinateur sans le savoir.
Flux d'informations entre les bots et les comptes humains
Méthodes d'estimation des flux d'information
Les chercheurs mesurent l'influence des comptes sur l'ensemble des discussions en ligne à l'aide de la mesure suivante du flux net symétrique d'informations depuis les écritures horodatées d'une source S vers une cible T
Ici, hˆ(T ||S) est l'estimateur non paramétrique du taux d'entropie croisée
où NS et NT sont le nombre de symboles écrits par la source et la cible, respectivement, et Λii désigne la longueur de la plus courte sous-chaîne, l, commençant à l'indice i et n'apparaissant pas dans les premiers i + l - 1 symboles. Nous agrégeons le contenu par type de compte plutôt plutôt qu'au niveau du compte afin de mesurer les flux d'informations entre les types de comptes et d'établir leur importance.
Les chercheurs utilisent les outils d'analyse linguistique Valence Aware Dictionary and Sentiment Reasoner (VADER) pour l'analyse des sentiments, ainsi que le Linguistic Inquiry and Word Count (LIWC) pour établir des relations entre les caractéristiques des conversations et l'activité des bots. Ils utilisent ensuite le test de causalité de Granger pour déterminer si une série temporelle X est utile pour prévoir une autre série temporelle Y avec un décalage temporel p. Pour ce faire, les chercheurs ajustent deux modèles linéaires. Dans le premier modèle, ils incluent uniquement les valeurs décalées de Y:
Yt = α1,0 + α1,1Yt−1 + · · · + α1,pYt−p + 1,t,
où ils définissent i,t comme le terme d'erreur du modèle i au temps t et αi,j comme le paramètre du modèle i au retard j.
Ensuite, ils augmentent le modèle pour inclure également les valeurs décalées de X :
Yt = α2,0 + α2,1Yt−1 + · · · + α2,pYt−p + β1Xt−1 + · · · + βpXt−p + E2,t
L'hypothèse nulle, à savoir que X n'a pas de relation de cause à effet avec Y, est acceptée par le biais d'un F-test si et seulement si aucune valeur retardée de X n'est retenue dans le modèle de régression observé dans l'équation.
Flux d'informations agrégés
Les chercheurs appliquent des mesures de flux d'informations au contenu agrégé par type de compte, afin de comprendre les flux d'informations intercommunautaires. Plutôt que d'utiliser une statistique agrégée sur les flux d'information individuels, l'approche proposée permet de préserver les propriétés de symétrie et de normalisation de la mesure du flux net d'information. Ce processus améliore la qualité de l'estimation de l'entropie pour le comportement du groupe, en augmentant la longueur de séquence disponible et en atténuant l'effet de la convergence lente de l'estimateur.
Chaque compte est étiqueté en fonction de la classification des bots et de la nationalité, et le contenu de ces groupes de comptes est agrégé. L'entropie croisée entre chacun de ces groupes est calculée par paire, et ces valeurs sont normalisées conformément à la précédente équation. Ces estimations d'entropie croisée par paire produisent un réseau entièrement connecté. Ils effectuent ensuite un test statistique pour savoir si les flux d'informations nets agrégés sont significatifs entre les groupes, ce qui permet de construire un réseau de flux d'informations significatifs.
[LIST=a][*]Flux nets d'informations sortantes agrégés par type de compte et par pays. Les flux sortants pour chaque groupe agrégé se situent principalement dans la fourchette (0, 0,5), mais les flux nets "ProRussia NonBot", "ProUkraine Financier", "ProUkraine Spammer" et "ProRussia FailedToClassify" ont tendance à être plus importants. Les valeurs supérieures au 80e percentile sont marquées - la majorité d'entre elles représentent des flux vers le groupe "ProRussia Self Declared" ;[*]Carte thermique des valeurs p empiriques pour chaque flux net d'informations intergroupe, montrant l'importance de la différence entre les groupes dans les flux médians sortants. Ce test est utilisé pour former le réseau présenté en (c) ; [*]Flux nets d'informations significatifs entre les groupes. Ne[/*]...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.