
Les plateformes technologiques seraient également tenues de partager des informations sur leur conformité aux règles et l'impact des interventions. Ne pas le faire constituerait des pratiques déloyales et trompeuses, que la FTC contrôle déjà.
Facebook encourage les discours de haine pour gagner de l'argent,
Frances Haugen, qui a travaillé pour Facebook, est derrière la fuite d'un énorme cache de documents Facebook qui a servi de socle pour une série de révélations sur le numéro un des réseaux sociaux.
Dans un entretien durant l'émission 60 Minutes sur CBS News, elle a décrit une entreprise si engagée dans l'optimisation des produits qu'elle a adopté des algorithmes qui amplifient les discours de haine.
Frances Haugen : Alors, vous savez, vous avez votre téléphone. Vous pourriez ne voir que 100 éléments de contenu si vous vous asseyez et faites défiler pendant, disons, cinq minutes. Mais Facebook a des milliers d'options qu'il pourrait vous montrer.
L'algorithme choisit parmi ces options en fonction du type de contenu avec lequel vous vous êtes le plus engagé dans le passé.
Frances Haugen : Et l'une des conséquences de la façon dont Facebook sélectionne ce contenu aujourd'hui, c'est qu'il s'agit d'optimiser le contenu qui suscite l'engagement ou la réaction. Mais ses propres recherches montrent qu'un contenu haineux, qui divise, qui polarise, inspire plus facilement aux gens de la colère que d'autres émotions.
Scott Pelley : La désinformation, du contenu plein de colère est attrayant pour les gens et continue de les garder sur la plateforme.
Françoise Haugen : Oui. Facebook s'est rendu compte que s'ils changent l'algorithme pour qu'il devienne plus sûr, les gens passeront moins de temps sur le site, ils cliqueront sur moins de publicités, ils gagneront moins d'argent.
Haugen note que Facebook a compris le danger pour les élections de 2020. Facebook a donc activé les systèmes de sécurité pour réduire la désinformation, mais bon nombre de ces changements, dit-elle, étaient temporaires.
Frances Haugen : Et dès que les élections étaient terminées, ils les ont désactivés ou ils ont ramené les paramètres à ce qu'ils étaient avant, pour donner la priorité à la croissance plutôt qu'à la sécurité. Et cela ressemble vraiment à une trahison de la démocratie pour moi.
Scott Pelley : Facebook amplifie essentiellement le pire de la nature humaine.
Frances Haugen : C'est l'une de ces conséquences malheureuses, n'est-ce pas ? Personne chez Facebook n'est malveillant, mais les incitations sont mal alignées, n'est-ce pas ? Néanmoins, Facebook gagne plus d'argent lorsque vous consommez plus de contenu. Les gens aiment s'engager dans des choses qui suscitent une réaction émotionnelle. Et plus ils sont exposés à la colère, plus ils interagissent et plus ils consomment.
Cette dynamique a conduit à une plainte auprès de Facebook par les principaux partis politiques à travers l'Europe. Ce rapport interne de 2019 obtenu par Haugen indique que les parties, « … ont le sentiment profond que le changement de l'algorithme les a forcées à biaiser négativement leurs communications sur Facebook… les conduisant à adopter des positions politiques plus extrêmes ».
Le NUDGE Act
Pendant des années, les démocrates ont recherché des moyens de lutter contre la désinformation en ligne, tandis que les républicains ont critiqué ces efforts comme des menaces à la liberté d'expression. Mais, suite au témoignage de la dénonciatrice de Facebook Frances Haugen, les membres des deux parties ont commencé à travailler ensemble pour trouver des moyens de réglementer les algorithmes qui traitent à la fois des problèmes des enfants et de la désinformation.
Nudging Users to Drive Good Experiences on Social Media (Social Media NUDGE) Act établirait des études pour examiner et recommander des interventions visant à réduire la dépendance et l'amplification des contenus préjudiciables sur les plateformes de médias sociaux. À la suite de l'étude initiale, la législation tiendrait les plateformes responsables du suivi des recommandations.
« Pendant trop longtemps, les entreprises technologiques ont dit "Faites-nous confiance, nous nous en occupons" », a déclaré le sénateur démocrate Amy Klobuchar. « Mais nous savons que les plateformes de médias sociaux ont à plusieurs reprises fait passer les profits avant les gens, avec des algorithmes poussant des contenus dangereux qui accrochent les utilisateurs et propagent la désinformation. Ce projet de loi contribuera à lutter contre ces pratiques, notamment en mettant en œuvre des changements qui augmentent la transparence et améliorent l'expérience utilisateur. Il est plus que temps d'adopter des réformes significatives qui s'attaquent de front aux méfaits des médias sociaux pour nos communautés ».
Le soutien de la sénatrice républicaine Cynthia Lummis au projet de loi marque une avancée significative dans ce processus.
« Le NUDGE Act est une bonne étape pour lutter pleinement contre la portée excessive des grandes entreprises technologiques », a déclaré Lummis. « En habilitant la [NSF] et la [NASEM] à étudier la dépendance des plateformes de médias sociaux, nous commencerons à comprendre pleinement l'impact que la conception de ces plateformes et leurs algorithmes ont sur notre société. À partir de là, nous pouvons établir des remparts pour protéger les enfants du Wyoming des effets négatifs des médias sociaux ».
L'article 230
L'article 230 de la Communications Decency Act (CDA) est un texte de loi adopté en 1996 lorsque l'internet en était encore à ses débuts qui protège largement les entreprises de toute responsabilité vis-à-vis des publications des utilisateurs. L'article 230 a initialement été adopté dans le cadre de la loi sur la décence en matière de communication, afin de protéger les sites web contre les poursuites judiciaires concernant le contenu que leurs utilisateurs ont publié. Il a été adopté pour encourager les sites web à s'engager dans la modération de contenu en supprimant le risque qu'ils puissent être poursuivis en tant qu'éditeur s'ils contrôlaient activement ce que leurs utilisateurs publiaient.
Plus récemment, la loi a été attaquée par Donald Trump et les républicains qui se plaignaient du fait que les grandes enseignes de la technologie telles que Facebook, Twitter et Google censurent leurs opinions. Une partie des propositions du ministère de la Justice a abordé cette question litigieuse, en faisant valoir que l'article 230 devrait inclure une définition de la conduite « de bonne foi » des plateformes.
En fait, le ministère américain de la Justice a fait des propositions visant à l'affaiblir dans l'optique de forcer les plateformes en ligne telles que Facebook, Twitter et Google à se justifier au cas où elles suppriment le contenu des utilisateurs (si elles souhaitent conserver l'immunité) et de supprimer le texte de loi qui permet aux sites web de modérer les contenus « choquants ».
« Ces réformes visent les plateformes afin de s'assurer qu'elles traitent de manière appropriée les contenus illégaux tout en continuant à préserver un internet dynamique, ouvert et compétitif. Prises ensemble, elles garantiront que l'immunité de la section 230 incite les plateformes en ligne à être des acteurs responsables », a déclaré William Barr, le procureur général des États-Unis, dans un communiqué publié en juin 2020.
Le ministère de la Justice a proposé des exclusions qui ciblent les « véritables mauvais acteurs » dont les plateformes facilitent intentionnellement les activités illégales, ainsi que la levée de l'immunité pour les contenus de tiers liés au cyberharcèlement, au terrorisme, aux drogues illicites et à l'exploitation des enfants. Il a également déclaré que les plateformes en ligne ne devraient pas être protégées des poursuites civiles des gouvernements ou de la responsabilité antitrust en vertu de l'article 230.
Ces propositions ont suscité des réactions négatives de la part des plateformes internet. Peu avant leur publication, Nick Clegg, responsable de la politique mondiale et de la communication de Facebook, a déclaré : « les changements apportés à l'article 230 auraient pour conséquence que des plateformes telles que Facebook devraient retirer beaucoup, beaucoup plus de contenu que ce n'est le cas actuellement d'une manière qui, je pense, mettra beaucoup de gens mal à l'aise ».
En mars dernier, les représentants Anna Eshoo...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.