La dénonciatrice de Facebook Frances Haugen a témoigné devant un panel du Sénat, recommandant une liste de changements pour freiner l'entreprise, y compris une refonte de l'article 230 qui tiendrait le géant des médias sociaux pour responsables de ses algorithmes qui promeuvent le contenu en fonction de l'engagement qu'il reçoit dans le fil d'actualité des utilisateurs.
Il y a quelques jours, la dénonciatrice derrière la fuite d'un énorme cache de documents Facebook qui a servi de socle pour une série de révélations sur le numéro un des réseaux sociaux s'est dévoilée durant l'émission 60 Minutes sur CBS News. Répondant au nom Frances Haugen, la dénonciatrice en a révélé davantage sur le fonctionnement interne de la plateforme de médias sociaux la plus puissante au monde. Haugen a décrit une entreprise si engagée dans l'optimisation des produits qu'elle a adopté des algorithmes qui amplifient les discours de haine.
Frances Haugen, 37 ans, est une data scientist originaire de l'Iowa, diplômée en ingénierie informatique et titulaire d'une maîtrise en commerce de Harvard. Selon un profil LinkedIn désormais supprimé, Haugen était un chef de produit chez Facebook affecté au groupe Civic Integrity. Elle a choisi de quitter l'entreprise après la dissolution du groupe. Elle a dit qu'elle n'avait « pas confiance dans le fait qu'ils étaient prêts à investir pour empêcher Facebook d'être dangereux ».
Par conséquent, elle a divulgué un cache de recherches internes à la Securities and Exchange Commission dans l'espoir d'améliorer la réglementation de l'entreprise. Elle a noté qu'elle avait travaillé dans un certain nombre d'entreprises, dont Google et Pinterest, mais que « c'était nettement pire chez Facebook » en raison de la volonté de l'entreprise de faire passer ses bénéfices avant le bien-être de ses utilisateurs.
« Ce que j'ai vu à plusieurs reprises chez Facebook, c'est qu'il y avait des conflits d'intérêts entre ce qui était bon pour le public et ce qui était bon pour Facebook. Et Facebook, encore et encore, a choisi de faire passer ses propres intérêts en premier, comme gagner plus d'argent », a déclaré Haugen à Scott Pelley.
« Imaginez que vous savez ce qui se passe à l'intérieur de Facebook et que personne ne le sait à l'extérieur. Je savais à quoi ressemblerait mon avenir si je continuais à rester à l'intérieur de Facebook », a-t-elle continué.
Facebook a publié une déclaration contestant les points soulevés par Haugen après l'interview télévisée.
« Nous continuons d'apporter des améliorations significatives pour lutter contre la propagation de la désinformation et du contenu préjudiciable », a déclaré la porte-parole de Facebook, Lena Pietsch. « Suggérer que nous encourageons le mauvais contenu et que nous ne faisons rien n'est tout simplement pas vrai ».
Avant l'interview de 60 minutes, le vice-président des affaires mondiales de Facebook, Nick Clegg, a déclaré sur CNN qu'il était « ridicule » d'affirmer que l'émeute du 6 janvier s'est produite à cause des médias sociaux.
Une refonte de l'article 230
L'article 230 de la Communications Decency Act (CDA) est un texte de loi adopté en 1996 lorsque l'internet en était encore à ses débuts qui protège largement les entreprises de toute responsabilité vis-à-vis des publications des utilisateurs. L'article 230 a initialement été adopté dans le cadre de la loi sur la décence en matière de communication, afin de protéger les sites web contre les poursuites judiciaires concernant le contenu que leurs utilisateurs ont publié. Il a été adopté pour encourager les sites web à s'engager dans la modération de contenu en supprimant le risque qu'ils puissent être poursuivis en tant qu'éditeur s'ils contrôlaient activement ce que leurs utilisateurs publiaient.
Plus récemment, la loi a été attaquée par Donald Trump et les républicains qui se plaignaient du fait que les grandes enseignes de la technologie telles que Facebook, Twitter et Google censurent leurs opinions. Une partie des propositions du ministère de la Justice a abordé cette question litigieuse, en faisant valoir que l'article 230 devrait inclure une définition de la conduite « de bonne foi » des plateformes.
En fait, le ministère américain de la Justice a fait des propositions visant à l'affaiblir dans l'optique de forcer les plateformes en ligne telles que Facebook, Twitter et Google à se justifier au cas où elles suppriment le contenu des utilisateurs (si elles souhaitent conserver l'immunité) et de supprimer le texte de loi qui permet aux sites web de modérer les contenus « choquants ».
« Ces réformes visent les plateformes afin de s'assurer qu'elles traitent de manière appropriée les contenus illégaux tout en continuant à préserver un internet dynamique, ouvert et compétitif. Prises ensemble, elles garantiront que l'immunité de la section 230 incite les plateformes en ligne à être des acteurs responsables », a déclaré William Barr, le procureur général des États-Unis, dans un communiqué publié en juin 2020.
Le ministère de la Justice a proposé des exclusions qui ciblent les « véritables mauvais acteurs » dont les plateformes facilitent intentionnellement les activités illégales, ainsi que la levée de l'immunité pour les contenus de tiers liés au cyberharcèlement, au terrorisme, aux drogues illicites et à l'exploitation des enfants. Il a également déclaré que les plateformes en ligne ne devraient pas être protégées des poursuites civiles des gouvernements ou de la responsabilité antitrust en vertu de l'article 230.
Ces propositions ont suscité des réactions négatives de la part des plateformes internet. Peu avant leur publication, Nick Clegg, responsable de la politique mondiale et de la communication de Facebook, a déclaré : « les changements apportés à l'article 230 auraient pour conséquence que des plateformes telles que Facebook devraient retirer beaucoup, beaucoup plus de contenu que ce n'est le cas actuellement d'une manière qui, je pense, mettra beaucoup de gens mal à l'aise ».
La dénonciatrice entre dans la danse
Cette fois-ci, c'est au tour de Frances Haugen de prendre position pour une réforme de cet article. Devant un panel du Sénat, elle a déclaré :
« Si nous avions une surveillance appropriée ou si nous réformions [l'article] 230 pour rendre Facebook responsable des conséquences de leurs décisions de classement intentionnelles, je pense qu'ils se débarrasseraient du classement basé sur l'engagement », a déclaré Haugen. « Parce que cela expose les adolescents à plus de contenu anorexique, cela sépare les familles, et dans des endroits comme l'Éthiopie, cela attise littéralement la violence ethnique ».
Haugen s'est assuré de faire la distinction entre le contenu généré par les utilisateurs et les algorithmes de Facebook, qui priorisent le contenu dans les fils d'actualité et stimulent l'engagement. Elle a suggéré que Facebook ne devrait pas être responsable du contenu que les utilisateurs publient sur ses plateformes, mais qu'il devrait être tenu responsable une fois que ses algorithmes commencent à prendre des décisions sur le contenu que les gens voient.
Cette suggestion reflète un projet de loi, le Protecting Americans from Dangerous Algorithms Act, qui a été présenté à la Chambre.
Pourtant, malgré l'appel à la réforme de l'article 230, Haugen a également averti que la réforme à elle seule ne suffirait pas à surveiller de manière adéquate la large portée de l'entreprise. « La gravité de cette crise exige que nous rompions avec les cadres réglementaires précédents », a-t-elle déclaré. « Les modifications apportées aux protections de la vie privée obsolètes ou les modifications apportées à la section 230 ne seront pas suffisantes. »
Facebook aurait induit les investisseurs en erreur sur la taille de sa base d'utilisateurs
L'audience de grande envergure a été convoquée pour traiter des dizaines de milliers de documents que Haugen a obtenus de Facebook avant qu'elle ne quitte l'entreprise en mai. L'ancien chef de produit a remis les dossiers au Congrès et à la SEC et demande la protection des dénonciateurs. Elle a intenté huit poursuites auprès de la SEC, affirmant notamment que Facebook aurait surfacturé les annonceurs et induit les investisseurs en erreur sur la taille de sa base d'utilisateurs. L'entreprise, a-t-elle dit, n'est pas franche sur la nature des problèmes auxquels elle est confrontée. « Facebook veut que vous croyiez que les problèmes dont nous parlons sont insolubles. Ils veulent que vous croyiez aux faux choix », a déclaré Haugen.
« Ils veulent que vous croyiez que vous devez choisir entre un Facebook plein de contenu conflictuel et extrême ou perdre l'une des valeurs les plus importantes sur lesquelles notre pays a été fondé : la liberté d'expression », a-t-elle ajouté. « Que vous devez choisir entre la surveillance publique des choix de Facebook et votre vie privée. Que pour pouvoir partager des photos amusantes de vos enfants avec de vieux amis, vous devez également être inondé de viralité motivée par la colère. Ils veulent que vous croyiez que ce n'est qu'une partie de l'accord ».
« Je suis ici aujourd'hui pour vous dire que ce n'est pas vrai. Ces problèmes sont solubles. Un réseau social plus sûr, plus respectueux de la liberté d'expression et plus agréable est possible ».
Haugen était tout aussi optimiste quant à la mission de Facebook, malgré ses innombrables problèmes. « Je crois au potentiel de Facebook », a-t-elle déclaré. « Nous pouvons avoir des médias sociaux que nous apprécions, qui nous relient sans déchirer notre démocratie, mettre nos enfants en danger et semer la violence ethnique dans le monde. Nous pouvons faire mieux ».
Choix algorithmiques
À maintes reprises, l'audience est revenue sur les problèmes posés par la prévalence des algorithmes et de l'intelligence artificielle dans les opérations de Facebook.
Les documents que Haugen a collectés sur Facebook montrent que les algorithmes de classement basés sur l'engagement donnent la priorité au contenu conflictuel et extrême sur la plateforme. Pour résoudre ce problème, a-t-elle déclaré, Facebook utilise l'intelligence artificielle pour trouver du contenu dangereux avant qu'il ne se propage. Le problème est que « les propres recherches de Facebook indiquent qu'ils ne peuvent pas identifier de manière adéquate les contenus dangereux. Et en conséquence, ces algorithmes dangereux qu'ils admettent captent les sentiments extrêmes, la division, ils ne peuvent pas nous protéger des dommages qu'ils savent exister dans leur propre système », a déclaré Haugen.
Une solution, proposée par le sénateur Rick Scott (R-Fla.) lors de l'audience, propose que les utilisateurs se voient offrir le choix entre un fil d'actualité algorithmique et chronologique. Haugen ne pensait pas que ce serait suffisant. « Je crains que si Facebook est autorisé à donner aux utilisateurs le choix : voulez-vous un fil d'actualité basé sur l'engagement ou un fil d'actualité chronologique… que les gens choisissent l'option la plus addictive, ce classement basé sur l'engagement, même s'il est en tête de leurs filles aux troubles de l'alimentation ».
Mark Zuckerberg
Dans un message interne publié plus tard, le PDG de Facebook, Mark Zuckerberg, a fait allusion aux recherches que l'entreprise a effectuées sur sa plateforme. « Si nous voulons avoir une conversation éclairée sur les effets des médias sociaux sur les jeunes, il est important de commencer par une image complète. Nous nous engageons à faire plus de recherches nous-mêmes et à rendre plus de recherches accessibles au public. »
Malgré la promesse d'une « image complète », Zuckerberg ne s'est pas engagé à publier toutes les recherches de Facebook ou à ouvrir ses plateformes à des études par des chercheurs non employés ou financés par l'entreprise. Les documents de Haugen montrent que, pas plus tard que la semaine dernière, la société a publié des recherches de manière sélective pour brosser un tableau plus rose de ce qui se passe sur ses plateformes.
Le manque de transparence de l'entreprise a lié les mains des régulateurs, a déclaré Haugen. « Cette incapacité à voir dans les systèmes réels de Facebook et à confirmer qu'ils fonctionnent comme indiqué, c'est comme si le ministère des Transports procédait à une réglementation des voitures en les regardant uniquement rouler sur l'autoroute », a-t-elle déclaré. Haugen a exhorté les sénateurs à envisager une agence gouvernementale qui auditerait les plateformes de médias sociaux, donnant aux régulateurs un meilleur aperçu du fonctionnement interne des entreprises.
« Aujourd'hui, aucun régulateur n'a un menu de solutions sur la façon de réparer Facebook parce que Facebook ne voulait pas qu'ils en sachent suffisamment sur ce qui cause les problèmes », a déclaré Haugen. « Sinon, il n’y aurait pas eu besoin d’un lanceur d’alerte. »
La Maison-Blanche estime que des réformes devraient avoir lieu, compte tenu des inquiétudes concernant Facebook
La Maison-Blanche a déclaré qu'il fallait faire davantage et que des réformes devraient avoir lieu compte tenu des problèmes de confidentialité et de confiance soulevés à propos de Facebook Inc.
L'attachée de presse de la Maison-Blanche, Jen Psaki, a fait ces commentaires un jour après que l'ancienne chef de produit Facebook Frances Haugen a témoigné devant le Congrès au sujet des inquiétudes selon lesquelles la société de médias sociaux nuit à la santé mentale des enfants et attise les divisions.
Mais Facebook a nié tout acte répréhensible.
Sources : témoignage devant le comité du Sénat sur le Commerce, la Science et le Transport, Mark Zuckerberg, Protecting Americans from Dangerous Algorithms Act
Et vous ?
Partagez-vous le point de vue de la dénonciatrice ? Dans quelle mesure ?
Décider de ce qui apparaît sur le fil d'actualité des utilisateurs, bonne méthode ou infantilisation des internautes ? Pourquoi ?
Dans l'une de ses huit plaintes, la dénonciatrice affirme que Facebook aurait surfacturé les annonceurs et induit les investisseurs en erreur sur la taille de sa base d'utilisateurs. Trouvez-vous cela surprenant ? Dans quelle mesure ?
A-t-elle, selon vous, qualité à porter ce type de plainte ? Pourquoi ?
Voir aussi :
Mark Zuckerberg propose des réformes limitées de la Section 230 avant son audition devant le Congrès, les entreprises ne bénéficieraient de cette loi que si elles suivent les meilleures pratiques
L'administration Trump propose de réduire les protections juridiques pour les grandes entreprises technologiques, via un projet de loi visant à réviser l'immunité offerte par l'article 230 de la CDA
Voici le plan de Donald Trump pour réglementer les médias sociaux : une réécriture des dispositions fondamentales de l'article 230 de la Communications Decency Act (CDA)
La dénonciatrice de Facebook demande au Sénat de tenir les réseaux sociaux pour responsables de leurs algorithmes
En modifiant l'article 230 de la Communications Decency Act
La dénonciatrice de Facebook demande au Sénat de tenir les réseaux sociaux pour responsables de leurs algorithmes
En modifiant l'article 230 de la Communications Decency Act
Le , par Stéphane le calme
Une erreur dans cette actualité ? Signalez-nous-la !