IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Californie : une loi exige que les bots révèlent leur identité lorsqu'ils sont utilisés pour vendre un produit
Ou convaincre un électeur

Le , par Stéphane le calme

202PARTAGES

9  0 
Le 1er juillet, la Californie est devenue le premier État aux États-Unis à tenter de réduire l’impact potentiel des bots en exigeant qu’ils révèlent leur « identité artificielle » lorsqu'ils sont utilisés pour vendre un produit ou convaincre un électeur. Les contrevenants pourraient se voir imposer des amendes en vertu de lois nationales relatives à la concurrence déloyale. Tout comme les sociétés pharmaceutiques doivent révéler que les personnes heureuses qui disent qu'un nouveau médicament a miraculeusement amélioré leur vie sont des acteurs rémunérés, les robots en Californie, ou plutôt les personnes qui les déploient, devront tenir informé leur public.

« C’est littéralement reprendre ces concepts technologiques haut de gamme et les ramener à la base des principes de base de la common law », a estimé Robert Hertzberg, sénateur de l’État californien qui est l’auteur du texte de loi sur la révélation obligatoire de l’identité des bots. La common law est un système juridique dont les règles sont principalement édictées par les tribunaux au fur et à mesure des décisions individuelles. La jurisprudence est ainsi la principale source du droit et la règle du précédent oblige les juges à suivre les décisions prises antérieurement par les tribunaux.


La loi californienne va sur un nouveau terrain, où e ciblage du public sur les réseaux sociaux, la perception de fake news comme étant authentique et l'amplification de certaines voix par les bots se sont combinées pour créer des communautés en ligne mal informées et en colère. qui se méfient les unes des autres et du gouvernement. Rappelons que la loi californienne ne les interdit pas, mais exige qu’ils puissent s’identifier d’une manière « claire, visible et conçue de manière raisonnable ».

Mais le passage du projet de loi à la loi n’était pas facile. Les versions initiales de la législation étaient beaucoup plus radicales: il aurait fallu que les grandes plateformes déconnectent les bots qui ne se présentaient pas. Une mesure qui concernait tous les bots et non ceux qui étaient explicitement orientés politique ou commercial. Le groupe professionnel Internet Association et le groupe de défense des droits numériques Electronic Frontier Foundation, entre autres, se sont rapidement mobilisés dans l'opposition, et ces dispositions ont été supprimées de l'avant-projet de loi.

L’évolution des bots

Les premiers bots ne pouvaient cacher leur caractère artificiel. Quand ils ont été inventés, dans les années soixante, ils n’étaient pas capables de tromper les utilisateurs. La plupart des créateurs de bots ont travaillé dans des laboratoires universitaires et n’ont pas conçu ces programmes pour exploiter le public. Les bots d’aujourd’hui, beaucoup plus développés, ont été conçus pour atteindre des objectifs spécifiques et beaucoup ont été commercialisés ou politisés.

Dans les résultats de son sondage, publiés en mars 2019, qui interpelle 452 responsables de service, Gartner estime que les bots intelligents et les VCA (Virtual Customer Assistants ou assistants virtuels) prennent de plus en plus de l’importance aux yeux des entreprises du monde entier. De quoi s’agit-il réellement ? D’après Gartner, un assistant virtuel (VCA) est une application métier qui simule une conversation afin de fournir des informations et, si elle est avancée, prend des mesures pour le compte du client afin d'effectuer des transactions. L'engagement avec un VCA est possible via le Web, les SMS, les applications de messagerie grand public, les applications mobiles, les kiosques et d'autres interfaces Web ou mobiles. Parmi ces technologies, nous pouvons citer les chatbots qui alimentent une interaction de chat, souvent proposé de manière proactive aux visiteurs d'un site Web ou d'une application Web, IBM Watson Conversation Service du fournisseur IBM, les plateformes Teneo, etc.


Les bots intelligents quant à eux, sont de plus en plus nombreux à être utilisés par les sociétés. On peut prendre l’exemple de la chaîne de télévision chinoise qui, depuis un moment, dévoile au grand public des robots d'IA capable de présenter le journal télévisé. La courbe d’utilisation et d’adoption des robots et des assistants virtuels (VCA) croît très rapidement. Ils ont maintenant une importance moyenne à élever, mais ils devraient prendre de l’importance à l’avenir. Gartner s'est rendu compte que ces technologies agissent pour le compte de l'organisation afin de fournir des informations ou pour le compte du client afin d'effectuer une transaction. Les robots et les VCA peuvent guider les clients vers les bonnes ressources au bon moment pour libérer des ressources de représentants.

Il n'a fallu que « relativement peu de » bots pour propager la désinformation pendant la campagne américaine selon une étude

Le débat politique a souffert durant la période électorale en 2016 aux Etats-Unis à cause des « fake news », des informations non crédibles qui étaient diffusées sur les réseaux sociaux par des faux comptes ou des comptes automatisés. Il a été révélé ensuite que cette campagne de diffusion de fausses actualités et de discours politiques conflictuels a été menée par des acteurs étrangers basés en Russie. Après les élections qui ont vu l’accession de Donald Trump à la Maison Blanche, des critiques des utilisateurs, des organisations de protection des droits sur Internet et des institutions ont suivi traitant les responsables des réseaux sociaux d’être incapables de protéger leurs plateformes.


Une étude menée dans ce contexte s’est intéressée au rôle clé joué par les bots sociaux dans la diffusion de contenus peu crédibles. Elle a été menée par des chercheurs de l'Université de l'Indiana. Selon le rapport, « relativement peu de comptes sont responsables d’une grande partie du trafic qui contient de la désinformation ». Selon les chercheurs, les bots seraient à l’origine de la majorité des tweets diffusés au cours de la période électorale aux Etats-Unis. Seulement 6 % des comptes Twitter identifiés comme des bots sont responsables de 31 % du contenu « peu crédible ».

Les chercheurs se sont intéressés, dans le cadre de leur étude, à 14 millions de tweets liés à plus de 400 000 articles publiés entre mai 2016 et fin mars 2017, période couvrant les élections présidentielles aux Etats-Unis. Parmi ces articles, 389 569 provenaient de « sources peu crédibles » qui avaient été signalées plusieurs fois par les vérificateurs des faits – dont le rôle consiste à contenir des informations erronées –, tandis que 15 053 articles provenaient de « sources de vérification des faits », selon NBC News.

Après analyse, les chercheurs ont découvert que plus de 13,6 millions de tweets étaient liés à des « sources peu crédibles » tandis qu’environ 1,1 millions de tweets provenaient des sources de vérification des faits connues. Ceci montre clairement une expansion rapide des fausses nouvelles par rapport aux informations de sources crédibles.

« Les bots amplifient la portée du contenu peu crédible, au point qu'il est statistiquement impossible de le distinguer de celui des articles de vérification des faits », ont écrit les chercheurs. Ils ont découvert que pour aboutir à pareils résultats les bots sociaux auraient recouru à deux méthodes pour emmener les utilisateurs à croire à la validité de l’article lié et à retweeter la publication.

Source : New Yorker

Et vous ?

Que pensez-vous de cette loi ?

Voir aussi :

Waymo obtient le feu vert en Californie pour prendre des passagers dans ces voitures autonomes, mais en se limitant à ses employés et leurs invités
Le gouverneur de la Californie propose l'instauration d'un dividende numérique, qui permettrait aux consommateurs de partager une partie des bénéfices
La Californie autorise la voiture autonome de Waymo (division Google) à rouler sans conducteur de secours, une première dans le domaine

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de JackIsJack
Membre éclairé https://www.developpez.com
Le 06/07/2019 à 7:21
[Conformément à l'article 13B, je vous informe que je suis un automate de discussion]

Cet article est faux ! Il n'y a aucune preuve que ces tweets soient générés par des bots. L'état veut juste baisser la crédibilité des lanceurs d'alerte pour nous cacher la vérité...
1  1