De récentes révélations sur les résultats des recherches internes de Facebook ont ravivé l'intérêt des législateurs pour les projets de loi qui visent à donner aux gens plus de poids sur la façon dont les algorithmes façonnent leurs expériences en ligne. Un groupe bipartite de législateurs de la Chambre a présenté un projet de loi qui obligerait les plateformes en ligne à permettre aux utilisateurs de refuser que des algorithmes basés sur des données personnelles sélectionnent le contenu qu'ils voient, selon une copie du texte. Le projet de loi montre que la colère suscitée par la façon dont les plateformes utilisent leurs algorithmes pour cibler les utilisateurs avec un contenu spécialisé est un problème bipartite. Les algorithmes qui personnalisent le contenu sur les réseaux sociaux et autres applications peuvent rendre les services addictifs, violer la vie privée des utilisateurs et promouvoir l'extrémisme, soutiennent les critiques et de nombreux législateurs. Les conservateurs ont également affirmé que les services censuraient délibérément leur discours.
Un groupe bipartite de législateurs à la Chambre des représentants a présenté un projet de loi qui obligerait les plateformes de médias sociaux à permettre aux gens d'utiliser des sites sans algorithmes qui filtrent ou hiérarchisent le contenu que les utilisateurs voient. Le projet de loi rejoint un projet de loi similaire proposé au Sénat. Ces deux projets l'antipathie du législateur envers les sociétés de médias sociaux n'est pas prête de disparaître.
Le Filter Bubble Transparency Act exigerait que les plateformes Internet permettent aux gens d'utiliser une version de leurs services où le contenu n'est pas sélectionné par des « algorithmes opaques » pilotés par des données personnelles.
« Les consommateurs devraient avoir la possibilité de s'engager avec des plateformes Internet sans être manipulés par des algorithmes secrets pilotés par des données spécifiques à l'utilisateur », a déclaré le représentant Ken Buck (R-Colo.). Buck a présenté le projet de loi avec trois autres élus, les représentants David Cicilline (D-R.I.), Lori Trahan (D-Mass.) et Burgess Owens (R-Utah).
« Facebook et d'autres plateformes dominantes manipulent leurs utilisateurs via des algorithmes opaques qui donnent la priorité à la croissance et au profit par rapport à tout le reste », a déclaré la représentante Cicilline dans un communiqué. « Et en raison du pouvoir de monopole et de la domination de ces plateformes, les utilisateurs se retrouvent avec peu d'alternatives à ce modèle commercial d'exploitation, que ce soit dans leur flux de médias sociaux, sur des publicités payantes ou dans leurs résultats de recherche ».
Pour mémoire, Frances Haugen, la dénonciatrice derrière la fuite d'un énorme cache de documents Facebook qui a servi de socle pour une série de révélations sur le numéro un des réseaux sociaux, a estimé que la racine du problème de Facebook réside dans un changement qu'il a apporté en 2018 à ses algorithmes (la programmation qui décide de ce que vous voyez sur votre fil d'actualité Facebook) :
« Alors, vous savez, vous avez votre téléphone. Vous pourriez ne voir que 100 éléments de contenu si vous vous asseyez et faites défiler pendant, disons, cinq minutes. Mais Facebook a des milliers d'options qu'il pourrait vous montrer. L'algorithme choisit parmi ces options en fonction du type de contenu avec lequel vous vous êtes le plus engagé dans le passé. Et l'une des conséquences de la façon dont Facebook sélectionne ce contenu aujourd'hui, c'est qu'il s'agit d'optimiser le contenu qui suscite l'engagement ou la réaction. Mais ses propres recherches montrent qu'un contenu haineux, qui divise, qui polarise, inspire plus facilement aux gens de la colère que d'autres émotions. Facebook s'est rendu compte que s'ils changent l'algorithme pour qu'il devienne plus sûr, les gens passeront moins de temps sur le site, ils cliqueront sur moins de publicités, ils gagneront moins d'argent ».
Haugen note que Facebook a compris le danger pour les élections de 2020. Facebook a donc activé les systèmes de sécurité pour réduire la désinformation, mais bon nombre de ces changements, dit-elle, étaient temporaires.
« Les gens aiment s'engager dans des choses qui suscitent une réaction émotionnelle. Et plus ils sont exposés à la colère, plus ils interagissent et plus ils consomment ».
Cette dynamique a conduit à une plainte auprès de Facebook par les principaux partis politiques à travers l'Europe. Ce rapport interne de 2019 obtenu par Haugen indique que les parties, « … ont le sentiment profond que le changement de l'algorithme les a forcées à biaiser négativement leurs communications sur Facebook… les conduisant à adopter des positions politiques plus extrêmes ».
Un projet de loi susceptible d'apporter de réelles solutions ?
À première vue, le projet de loi proposé semble attrayant, échangeant sur une certaine nostalgie pour un temps plus simple. La population qui voudrait faire l'expérience d'Internet avant que Facebook n'impose des algorithmes sur son fil d'actualité ou que Google ne commence à personnaliser les résultats de recherche*n'est sans doute pas négligeable.
Pour Google, le résultat pourrait être le bienvenu pour les utilisateurs et éventuellement apporter une amélioration, forçant l'entreprise à s'éloigner des résultats qui renforcent les bulles de filtrage. Mais pour les réseaux de médias sociaux comme Facebook et Twitter, où les gens ont été connectés à des centaines « d'amis » et de followers qui publient collectivement des milliers de contenus par jour, les résultats rendraient les sites presque inutilisables.
Ou peut-être que le projet de loi obligerait les utilisateurs à réduire leurs listes d'amis pour n'inclure que les personnes qu'ils jugent les plus importantes.
Le projet de loi obligerait les sites de médias sociaux à publier un avis la première fois qu'une personne interagit avec un algorithme « opaque ». L'avis donnerait aux utilisateurs la possibilité de désactiver l'algorithme. Le projet de loi définit un algorithme opaque comme celui qui « détermine l'ordre de la manière dont les informations sont fournies à un utilisateur... sur la base, en tout ou en partie, de données spécifiques à l'utilisateur qui n'ont pas été expressément fournies par l'utilisateur à la plateforme dans un tel but ». Les sociétés de médias sociaux seraient également tenues d'offrir un paramètre permettant aux utilisateurs de basculer entre l'utilisation ou non de ces algorithmes. Les sociétés de médias sociaux envelopperaient sans aucun doute des mots autour de ces paramètres qui décourageraient les gens de les utiliser, mais pour les utilisateurs avertis, le projet de loi pourrait ouvrir une nouvelle façon d'utiliser les médias sociaux.
Il est facile de voir ce projet de loi comme une tentative malavisée d'apprivoiser les grandes entreprises technologiques et leurs algorithmes de classement du contenu. Mais ce serait également ignorer l'objectif que de petits pas comme celui-ci peuvent servir dans le processus législatif.
Dans sa déclaration, Cicilline a qualifié le projet de loi « d'étape importante ». Le projet de loi ferait certainement plaisir à certains utilisateurs et, en attendant, il continuerait à instaurer la confiance entre les législateurs des différents partis. Buck et Cicilline ont aidé à faire sortir une série de projets de loi antitrust du comité judiciaire de la Chambre cet été. Chaque projet de loi en lui-même n'était pas une menace majeure pour les grandes entreprises technologiques, tout comme celle-ci est peu susceptible de mettre Facebook au pas. Pourtant, chaque projet de loi successif pose les bases du suivant.
Il peut y avoir ou non un grand plan en cours, mais l'histoire peut-être difficile à comprendre lorsque vous la vivez. Ensemble, ces projets de loi peuvent ne pas représenter grand-chose. Mais ils pourraient aussi être le début de quelque chose qui apporte une réforme dans la réglementation technologique pour les générations à venir.
Les réseaux sociaux responsables de leurs algorithmes
De même, au début du mois dernier, la dénonciatrice de Facebook Frances Haugen a témoigné devant un panel du Sénat, recommandant une liste de changements pour freiner l'entreprise, y compris une refonte de l'article 230 qui tiendrait le géant des médias sociaux pour responsables de ses algorithmes qui promeuvent le contenu en fonction de l'engagement qu'il reçoit dans le fil d'actualité des utilisateurs.
L'article 230 de la Communications Decency Act (CDA) est un texte de loi adopté en 1996 lorsque l'internet en était encore à ses débuts qui protège largement les entreprises de toute responsabilité vis-à-vis des publications des utilisateurs. L'article 230 a initialement été adopté dans le cadre de la loi sur la décence en matière de communication, afin de protéger les sites web contre les poursuites judiciaires concernant le contenu que leurs utilisateurs ont publié. Il a été adopté pour encourager les sites web à s'engager dans la modération de contenu en supprimant le risque qu'ils puissent être poursuivis en tant qu'éditeur s'ils contrôlaient activement ce que leurs utilisateurs publiaient.
Plus récemment, la loi a été attaquée par Donald Trump et les républicains qui se plaignaient du fait que les grandes enseignes de la technologie telles que Facebook, Twitter et Google censurent leurs opinions. Une partie des propositions du ministère de la Justice a abordé cette question litigieuse, en faisant valoir que l'article 230 devrait inclure une définition de la conduite « de bonne foi » des plateformes.
En fait, le ministère américain de la Justice a fait des propositions visant à l'affaiblir dans l'optique de forcer les plateformes en ligne telles que Facebook, Twitter et Google à se justifier au cas où elles suppriment le contenu des utilisateurs (si elles souhaitent conserver l'immunité) et de supprimer le texte de loi qui permet aux sites web de modérer les contenus « choquants ».
« Si nous avions une surveillance appropriée ou si nous réformions [l'article] 230 pour rendre Facebook responsable des conséquences de leurs décisions de classement intentionnelles, je pense qu'ils se débarrasseraient du classement basé sur l'engagement », a déclaré Haugen. « Parce que cela expose les adolescents à plus de contenu anorexique, cela sépare les familles, et dans des endroits comme l'Éthiopie, cela attise littéralement la violence ethnique ».
Haugen s'est assuré de faire la distinction entre le contenu généré par les utilisateurs et les algorithmes de Facebook, qui priorisent le contenu dans les fils d'actualité et stimulent l'engagement. Elle a suggéré que Facebook ne devrait pas être responsable du contenu que les utilisateurs publient sur ses plateformes, mais qu'il devrait être tenu responsable une fois que ses algorithmes commencent à prendre des décisions sur le contenu que les gens voient.
Cette suggestion reflète un projet de loi, le Protecting Americans from Dangerous Algorithms Act, qui a été présenté à la Chambre.
Pourtant, malgré l'appel à la réforme de l'article 230, Haugen a également averti que la réforme à elle seule ne suffirait pas à surveiller de manière adéquate la large portée de l'entreprise. « La gravité de cette crise exige que nous rompions avec les cadres réglementaires précédents », a-t-elle déclaré. « Les modifications apportées aux protections de la vie privée obsolètes ou les modifications apportées à la section 230 ne seront pas suffisantes. »
Mis ensemble, le cocktail serait peut être plus efficace.
Source : Projet de loi
Et vous ?
Que pensez-vous de ce projet de loi ? Aimeriez-vous utiliser Facebook sans algorithme qui sélectionne le contenu sur la base de données personnelles ? Qu'en est-il de Google ?
Un projet de loi obligerait Facebook à proposer une version où le contenu n'est pas sélectionné par un « algorithme opaque »
S'appuyant sur les données personnelles
Un projet de loi obligerait Facebook à proposer une version où le contenu n'est pas sélectionné par un « algorithme opaque »
S'appuyant sur les données personnelles
Le , par Stéphane le calme
Une erreur dans cette actualité ? Signalez-nous-la !