Un nouveau projet de loi bipartite pourrait marquer le premier pas du Congrès américain vers la lutte contre l'amplification algorithmique des contenus préjudiciables. Le NUDGE Act sur les médias sociaux, rédigé par les sénateurs Amy Klobuchar (D-MN) et Cynthia Lummis (R-WY), pousserait le National Science Foundation et le National Academy of Sciences, Engineering and Medicine à étudier des moyens « neutres au contenu » d'ajouter de la friction au partage de contenu en ligne. Le projet de loi demande aux chercheurs d'identifier un certain nombre de moyens de ralentir la propagation des contenus préjudiciables et de la désinformation, que ce soit en demandant aux utilisateurs de lire un article avant de le partager (comme Twitter l'a fait) ou d'autres mesures. La Federal Trade Commission codifierait ensuite les recommandations et obligerait les plateformes de médias sociaux comme Facebook et Twitter à les mettre en pratique.Les plateformes technologiques seraient également tenues de partager des informations sur leur conformité aux règles et l'impact des interventions. Ne pas le faire constituerait des pratiques déloyales et trompeuses, que la FTC contrôle déjà.
Facebook encourage les discours de haine pour gagner de l'argent,
Frances Haugen, qui a travaillé pour Facebook, est derrière la fuite d'un énorme cache de documents Facebook qui a servi de socle pour une série de révélations sur le numéro un des réseaux sociaux.
Dans un entretien durant l'émission 60 Minutes sur CBS News, elle a décrit une entreprise si engagée dans l'optimisation des produits qu'elle a adopté des algorithmes qui amplifient les discours de haine.
Frances Haugen : Alors, vous savez, vous avez votre téléphone. Vous pourriez ne voir que 100 éléments de contenu si vous vous asseyez et faites défiler pendant, disons, cinq minutes. Mais Facebook a des milliers d'options qu'il pourrait vous montrer.
L'algorithme choisit parmi ces options en fonction du type de contenu avec lequel vous vous êtes le plus engagé dans le passé.
Frances Haugen : Et l'une des conséquences de la façon dont Facebook sélectionne ce contenu aujourd'hui, c'est qu'il s'agit d'optimiser le contenu qui suscite l'engagement ou la réaction. Mais ses propres recherches montrent qu'un contenu haineux, qui divise, qui polarise, inspire plus facilement aux gens de la colère que d'autres émotions.
Scott Pelley : La désinformation, du contenu plein de colère est attrayant pour les gens et continue de les garder sur la plateforme.
Françoise Haugen : Oui. Facebook s'est rendu compte que s'ils changent l'algorithme pour qu'il devienne plus sûr, les gens passeront moins de temps sur le site, ils cliqueront sur moins de publicités, ils gagneront moins d'argent.
Haugen note que Facebook a compris le danger pour les élections de 2020. Facebook a donc activé les systèmes de sécurité pour réduire la désinformation, mais bon nombre de ces changements, dit-elle, étaient temporaires.
Frances Haugen : Et dès que les élections étaient terminées, ils les ont désactivés ou ils ont ramené les paramètres à ce qu'ils étaient avant, pour donner la priorité à la croissance plutôt qu'à la sécurité. Et cela ressemble vraiment à une trahison de la démocratie pour moi.
Scott Pelley : Facebook amplifie essentiellement le pire de la nature humaine.
Frances Haugen : C'est l'une de ces conséquences malheureuses, n'est-ce pas ? Personne chez Facebook n'est malveillant, mais les incitations sont mal alignées, n'est-ce pas ? Néanmoins, Facebook gagne plus d'argent lorsque vous consommez plus de contenu. Les gens aiment s'engager dans des choses qui suscitent une réaction émotionnelle. Et plus ils sont exposés à la colère, plus ils interagissent et plus ils consomment.
Cette dynamique a conduit à une plainte auprès de Facebook par les principaux partis politiques à travers l'Europe. Ce rapport interne de 2019 obtenu par Haugen indique que les parties, « … ont le sentiment profond que le changement de l'algorithme les a forcées à biaiser négativement leurs communications sur Facebook… les conduisant à adopter des positions politiques plus extrêmes ».
Le NUDGE Act
Pendant des années, les démocrates ont recherché des moyens de lutter contre la désinformation en ligne, tandis que les républicains ont critiqué ces efforts comme des menaces à la liberté d'expression. Mais, suite au témoignage de la dénonciatrice de Facebook Frances Haugen, les membres des deux parties ont commencé à travailler ensemble pour trouver des moyens de réglementer les algorithmes qui traitent à la fois des problèmes des enfants et de la désinformation.
Nudging Users to Drive Good Experiences on Social Media (Social Media NUDGE) Act établirait des études pour examiner et recommander des interventions visant à réduire la dépendance et l'amplification des contenus préjudiciables sur les plateformes de médias sociaux. À la suite de l'étude initiale, la législation tiendrait les plateformes responsables du suivi des recommandations.
« Pendant trop longtemps, les entreprises technologiques ont dit "Faites-nous confiance, nous nous en occupons" », a déclaré le sénateur démocrate Amy Klobuchar. « Mais nous savons que les plateformes de médias sociaux ont à plusieurs reprises fait passer les profits avant les gens, avec des algorithmes poussant des contenus dangereux qui accrochent les...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Qu'en pensez-vous ?