
Il y a quelques jours, la dénonciatrice derrière la fuite d'un énorme cache de documents Facebook qui a servi de socle pour une série de révélations sur le numéro un des réseaux sociaux s'est dévoilée durant l'émission 60 Minutes sur CBS News. Répondant au nom Frances Haugen, la dénonciatrice en a révélé davantage sur le fonctionnement interne de la plateforme de médias sociaux la plus puissante au monde. Haugen a décrit une entreprise si engagée dans l'optimisation des produits qu'elle a adopté des algorithmes qui amplifient les discours de haine.
Frances Haugen, 37 ans, est une data scientist originaire de l'Iowa, diplômée en ingénierie informatique et titulaire d'une maîtrise en commerce de Harvard. Selon un profil LinkedIn désormais supprimé, Haugen était un chef de produit chez Facebook affecté au groupe Civic Integrity. Elle a choisi de quitter l'entreprise après la dissolution du groupe. Elle a dit qu'elle n'avait « pas confiance dans le fait qu'ils étaient prêts à investir pour empêcher Facebook d'être dangereux ».
Par conséquent, elle a divulgué un cache de recherches internes à la Securities and Exchange Commission dans l'espoir d'améliorer la réglementation de l'entreprise. Elle a noté qu'elle avait travaillé dans un certain nombre d'entreprises, dont Google et Pinterest, mais que « c'était nettement pire chez Facebook » en raison de la volonté de l'entreprise de faire passer ses bénéfices avant le bien-être de ses utilisateurs.
« Ce que j'ai vu à plusieurs reprises chez Facebook, c'est qu'il y avait des conflits d'intérêts entre ce qui était bon pour le public et ce qui était bon pour Facebook. Et Facebook, encore et encore, a choisi de faire passer ses propres intérêts en premier, comme gagner plus d'argent », a déclaré Haugen à Scott Pelley.
« Imaginez que vous savez ce qui se passe à l'intérieur de Facebook et que personne ne le sait à l'extérieur. Je savais à quoi ressemblerait mon avenir si je continuais à rester à l'intérieur de Facebook », a-t-elle continué.
Facebook a publié une déclaration contestant les points soulevés par Haugen après l'interview télévisée.
« Nous continuons d'apporter des améliorations significatives pour lutter contre la propagation de la désinformation et du contenu préjudiciable », a déclaré la porte-parole de Facebook, Lena Pietsch. « Suggérer que nous encourageons le mauvais contenu et que nous ne faisons rien n'est tout simplement pas vrai ».
Avant l'interview de 60 minutes, le vice-président des affaires mondiales de Facebook, Nick Clegg, a déclaré sur CNN qu'il était « ridicule » d'affirmer que l'émeute du 6 janvier s'est produite à cause des médias sociaux.
Une refonte de l'article 230
L'article 230 de la Communications Decency Act (CDA) est un texte de loi adopté en 1996 lorsque l'internet en était encore à ses débuts qui protège largement les entreprises de toute responsabilité vis-à-vis des publications des utilisateurs. L'article 230 a initialement été adopté dans le cadre de la loi sur la décence en matière de communication, afin de protéger les sites web contre les poursuites judiciaires concernant le contenu que leurs utilisateurs ont publié. Il a été adopté pour encourager les sites web à s'engager dans la modération de contenu en supprimant le risque qu'ils puissent être poursuivis en tant qu'éditeur s'ils contrôlaient activement ce que leurs utilisateurs publiaient.
Plus récemment, la loi a été attaquée par Donald Trump et les républicains qui se plaignaient du fait que les grandes enseignes de la technologie telles que Facebook, Twitter et Google censurent leurs opinions. Une partie des propositions du ministère de la Justice a abordé cette question litigieuse, en faisant valoir que l'article 230 devrait inclure une définition de la conduite « de bonne foi » des plateformes.
En fait, le ministère américain de la Justice a fait des propositions visant à l'affaiblir dans l'optique de forcer les plateformes en ligne telles que Facebook, Twitter et Google à se justifier au cas où elles suppriment le contenu des utilisateurs (si elles souhaitent conserver l'immunité) et de supprimer le texte de loi qui permet aux sites web de modérer les contenus « choquants ».
« Ces réformes visent les plateformes afin de s'assurer qu'elles traitent de manière appropriée les contenus illégaux tout en continuant à préserver un internet dynamique, ouvert et compétitif. Prises ensemble, elles garantiront que l'immunité de la section 230 incite les plateformes en ligne à être des acteurs responsables », a déclaré William Barr, le procureur général des États-Unis, dans un communiqué publié en juin 2020.
Le ministère de la Justice a proposé des exclusions qui ciblent les « véritables mauvais acteurs » dont les plateformes facilitent intentionnellement les activités illégales, ainsi que la levée de l'immunité pour les contenus de tiers liés au cyberharcèlement, au terrorisme, aux drogues illicites et à l'exploitation des enfants. Il a également déclaré que les plateformes en ligne ne devraient pas être protégées des poursuites civiles des gouvernements ou de la responsabilité antitrust en vertu de l'article 230.
Ces propositions ont suscité des réactions négatives de la part des plateformes internet. Peu avant leur publication, Nick Clegg, responsable de la politique mondiale et de la communication de Facebook, a déclaré : « les changements apportés à l'article 230 auraient pour conséquence que des plateformes telles que Facebook devraient retirer beaucoup, beaucoup plus de contenu que ce n'est le cas actuellement d'une manière qui, je pense, mettra beaucoup de gens mal à l'aise ».
La dénonciatrice entre dans la danse
Cette fois-ci, c'est au tour de Frances Haugen de prendre position pour une réforme de cet article. Devant un panel du Sénat, elle a déclaré :
« Si nous avions une surveillance appropriée ou si nous réformions [l'article] 230 pour rendre Facebook responsable des conséquences de leurs décisions de classement intentionnelles, je pense qu'ils se débarrasseraient du classement basé sur l'engagement », a déclaré Haugen. « Parce que cela expose les adolescents à plus de contenu anorexique, cela sépare les familles, et dans des endroits comme l'Éthiopie, cela attise littéralement la violence ethnique ».
Haugen s'est assuré de faire la distinction entre le contenu généré par les utilisateurs et les algorithmes de Facebook, qui priorisent le contenu dans les fils d'actualité et stimulent l'engagement. Elle a suggéré que Facebook ne devrait pas être responsable du contenu que les utilisateurs publient sur ses plateformes, mais qu'il devrait être tenu responsable une fois que ses algorithmes commencent à prendre des décisions sur le contenu que les gens voient.
Cette suggestion reflète un projet de loi, le Protecting Americans from Dangerous Algorithms Act, qui a été présenté à la Chambre.
Pourtant, malgré l'appel à la réforme de l'article 230, Haugen a également averti que la réforme à elle seule ne suffirait pas à surveiller de manière adéquate la large portée de l'entreprise. « La gravité de cette crise exige que nous rompions avec les cadres réglementaires précédents », a-t-elle déclaré. « Les modifications apportées aux protections de la vie privée obsolètes ou les modifications apportées à la section 230 ne seront pas suffisantes. »
Facebook aurait induit les investisseurs en erreur sur la taille de sa base d'utilisateurs
L'audience de grande envergure a été convoquée pour traiter des dizaines de milliers de documents que Haugen a obtenus de Facebook avant qu'elle ne quitte l'entreprise en mai. L'ancien chef de produit a remis les dossiers au Congrès et à la SEC et demande la protection des dénonciateurs. Elle a intenté huit poursuites auprès de la SEC, affirmant notamment que Facebook aurait surfacturé les annonceurs et induit les investisseurs en erreur sur la taille de sa base d'utilisateurs. L'entreprise, a-t-elle dit, n'est pas franche sur la nature des problèmes auxquels elle est confrontée. « Facebook veut que vous croyiez que les problèmes dont nous parlons sont insolubles. Ils veulent que vous croyiez aux faux choix », a déclaré Haugen.
« Ils veulent que vous croyiez que vous devez choisir entre un Facebook plein de contenu conflictuel et extrême ou perdre l'une des valeurs les plus importantes sur lesquelles notre pays a été fondé : la liberté d'expression », a-t-elle ajouté. « Que vous devez choisir entre la surveillance publique des choix de Facebook et votre vie privée. Que pour pouvoir partager des photos amusantes de vos enfants avec de vieux amis, vous devez également être inondé de viralité motivée par la colère. Ils veulent que vous croyiez que ce n'est qu'une partie de l'accord ».
« Je suis ici aujourd'hui pour vous dire que ce n'est pas vrai. Ces problèmes sont solubles. Un réseau social plus sûr, plus respectueux de la liberté d'expression et plus agréable est possible ».
Haugen était tout aussi optimiste quant à la mission de Facebook, malgré ses innombrables problèmes. « Je crois au potentiel de Facebook », a-t-elle déclaré. « Nous pouvons avoir des médias sociaux que nous apprécions, qui nous relient sans déchirer notre démocratie, mettre nos enfants en danger et semer la violence ethnique dans le monde. Nous pouvons faire mieux ».
Choix algorithmiques
À maintes reprises, l'audience est revenue sur les problèmes posés par la prévalence des algorithmes et de l'intelligence artificielle dans les opérations de Facebook.
Les documents que Haugen a collectés sur Facebook montrent que les algorithmes de classement basés sur l'engagement donnent la priorité au contenu conflictuel et extrême sur la plateforme. Pour résoudre ce problème, a-t-elle déclaré, Facebook utilise l'intelligence artificielle pour trouver du contenu dangereux avant qu'il ne se propage. Le problème est que « les propres recherches de Facebook indiquent qu'ils ne peuvent pas identifier de manière adéquate les contenus dangereux. Et en conséquence, ces algorithmes dangereux qu'ils admettent captent les sentiments extrêmes, la division, ils ne peuvent pas nous protéger des dommages qu'ils savent exister dans leur propre système », a déclaré Haugen.
Une solution, proposée par le sénateur Rick Scott (R-Fla.) lors de l'audience, propose que les utilisateurs se voient offrir le choix entre un fil d'actualité...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.