
La dénonciatrice Frances Haugen qui a fait fuiter un énorme cache de documents glané lors de son passage dans l'entreprise avait déjà indiqué lors d'une interview que la situation était en quelque sorte « encouragée ». « Ce que j'ai vu à plusieurs reprises chez Facebook, c'est qu'il y avait des conflits d'intérêts entre ce qui était bon pour le public et ce qui était bon pour Facebook. Et Facebook, encore et encore, a choisi de faire passer ses propres intérêts en premier, comme gagner plus d'argent », a déclaré Haugen à Scott Pelley, son interlocuteur.
Elle a secrètement copié des dizaines de milliers de pages de recherches internes sur Facebook. Elle dit que les preuves montrent que l'entreprise ment au public sur ses progrès significatifs contre la haine, la violence et la désinformation.
Face à cette situation, la lanceuse d'alerte a témoigné devant un panel du Sénat, recommandant une liste de changements pour freiner l'entreprise, y compris une refonte de l'article 230 qui tiendrait le géant des médias sociaux pour responsables de ses algorithmes qui promeuvent le contenu en fonction de l'engagement qu'il reçoit dans le fil d'actualité des utilisateurs.
« Si nous avions une surveillance appropriée ou si nous réformions [l'article] 230 pour rendre Facebook responsable des conséquences de leurs décisions de classement intentionnelles, je pense qu'ils se débarrasseraient du classement basé sur l'engagement », a déclaré Haugen. « Parce que cela expose les adolescents à plus de contenu anorexique, cela sépare les familles, et dans des endroits comme l'Éthiopie, cela attise littéralement la violence ethnique ».
Haugen s'est assuré de faire la distinction entre le contenu généré par les utilisateurs et les algorithmes de Facebook, qui priorisent le contenu dans les fils d'actualité et stimulent l'engagement. Elle a suggéré que Facebook ne devrait pas être responsable du contenu que les utilisateurs publient sur ses plateformes, mais qu'il devrait être tenu responsable une fois que ses algorithmes commencent à prendre des décisions sur le contenu que les gens voient.
Cette suggestion reflète un projet de loi, le Protecting Americans from Dangerous Algorithms Act, qui a été présenté à la Chambre.
Pourtant, malgré l'appel à la réforme de l'article 230, Haugen a également averti que la réforme à elle seule ne suffirait pas à surveiller de manière adéquate la large portée de l'entreprise. « La gravité de cette crise exige que nous rompions avec les cadres réglementaires précédents », a-t-elle déclaré. « Les modifications apportées aux protections de la vie privée obsolètes ou les modifications apportées à la section 230 ne seront pas suffisantes. »
Le public partage son avis
Soixante pour cent des adultes américains ont déclaré que Facebook ne faisait pas assez pour protéger les utilisateurs, contre 19 pour cent qui ont déclaré que la société de médias sociaux en faisait assez.
Le public est d'accord pour des contrôles de contenu plus stricts
Parmi les problèmes rencontrés par Facebook ces dernières semaines figurent des informations selon lesquelles les plateformes de l'entreprise, telles qu'Instagram, ont eu un effet négatif sur la santé mentale des jeunes utilisateurs, ainsi que des allégations selon lesquelles l'entreprise a autorisé la désinformation sur des sujets tels que les vaccins COVID-19. proliférer sur ses sites. Le sondage indique que le public soutiendrait les mesures que Facebook pourrait prendre pour répondre à certaines de ces préoccupations.
L'une des actions les plus populaires pour Facebook a été de mettre en œuvre des réglementations et des normes plus strictes pour interdire le contenu qui encourage la désinformation, les discours de haine, les activités illicites ou les actes de violence, qui ont collectivement reçu le soutien de 69 % des personnes interrogées. L'une des actions qui ont reçu une part égale de soutien était l'augmentation de l'âge d'éligibilité pour avoir un compte sur les plateformes de l'entreprise.
Malgré le soutien du public à la levée de la barrière à l'entrée, certains experts ne sont pas convaincus. Sean Blair, professeur adjoint de marketing à la McDonough School of Business de l'Université de Georgetown, a déclaré que de telles restrictions « ne fonctionnent tout simplement pas ».
« Les gens trouveront toujours des moyens de les contourner, donc le problème ne disparaîtra pas simplement », a déclaré Blair. « Maintenant, cela ne signifie pas que nous ne devrions pas du tout avoir d’obstacles ou d’exigences d’âge, mais cela signifie que nous ne devrions probablement pas compter sur eux pour résoudre le problème. En fin de compte, je pense que tout le monde – entreprises, utilisateurs, parents, enfants, régulateurs – devra jouer un rôle dans le processus. »
La plupart soutiennent l'expansion de la capacité de Facebook à censurer et à supprimer certains types de contenu, ainsi qu'une mesure pour que le fil d'actualité affiche le contenu par ordre chronologique plutôt que d'utiliser des algorithmes pour personnaliser individuellement ce qui est affiché.
Soutien majoritaire à l'action du Congrès
Le public est également favorable à une intervention du Congrès et à une réglementation accrue du géant des médias sociaux.
La suggestion la plus populaire était de renforcer la protection des enfants sur les plateformes de médias sociaux, qui a reçu un soutien de 77 %. Cela fait suite à l'annonce par Facebook de suspendre son initiative Instagram Kids, une décision soutenue par 52 % des adultes américains dans un sondage Morning Consult réalisé peu de temps après l'annonce.
Un plan pour que le Congrès crée un organisme gouvernemental indépendant composé d'anciens techniciens qui enquêterait sur l'utilisation des algorithmes par Facebook et le risque qu'ils représentent pour le public a recueilli un solide soutien, tout comme les réglementations qui exigent une plus grande transparence autour des algorithmes et de la façon dont les sociétés de médias sociaux les utilisent.
Et 64 % ont déclaré qu'ils soutenaient que les sociétés de médias sociaux soient au moins quelque peu responsables des actions de leurs utilisateurs, ce qu'un groupe de démocrates de la Chambre cherche à faire avec un nouveau projet de loi qui attribuerait la responsabilité aux plateformes si les recommandations personnalisées faites par leurs algorithmes de contenu favorisent contenu préjudiciable ayant causé un préjudice émotionnel ou physique.
Ce serait un défi majeur pour les protections de responsabilité des entreprises en vertu de l'article 230 de la Communications Decency Act, bien que certains groupes technologiques aient déclaré que ce n'était pas la meilleure voie à suivre.
« Au lieu de blâmer l'algorithme, le Congrès devrait travailler avec des plateformes pour développer les meilleures pratiques pour identifier et supprimer rapidement les contenus nuisibles et donner aux utilisateurs les compétences et les outils dont ils ont besoin pour rester en sécurité en ligne », Daniel Castro, vice-président de l'Information Technology and Innovation Foundation, a déclaré dans un communiqué.
Adam Kovacevich, directeur général du groupe de politique technologique de la Chambre du progrès, a averti dans un communiqué que le projet de loi « exacerbe le problème » du contenu préjudiciable. « En interdisant aux entreprises d'utiliser des données personnelles pour recommander un contenu pertinent aux utilisateurs, les plateformes pourraient être obligées de s'appuyer davantage sur des mesures telles que l'engagement viral qui entraîne la propagation de mauvais contenus », a-t-il prévenu.
Que peut-on faire d'autre
D'autres ont suggéré une approche différente. Un groupe de plus de 40 organisations de défense des droits de la personne a appelé à une loi fédérale sur la confidentialité des données afin d'interdire aux sociétés de médias sociaux de collecter des données et de les utiliser pour leurs algorithmes de recommandation personnalisée. Les groupes ont déclaré que la loi devrait être « suffisamment forte pour mettre fin au modèle commercial actuel de Facebook ».
Une loi qui obligerait Facebook à divulguer publiquement ses recherches internes a également reçu un fort soutien, puisque 68 % ont déclaré qu'ils étaient favorables à une telle décision. Une grande partie de la récente controverse entourant l'entreprise découle de la série « Facebook Files » du Wall Street Journal, qui a publié une mine de documents internes montrant comment l'entreprise a minimisé divers aspects négatifs associés à ses plateformes, y compris les impacts d'Instagram sur la santé mentale des enfants.
Le public semble favorable à la réglementation des entreprises de médias sociaux en général, car 52 % ont déclaré qu'ils étaient favorables à une telle décision des législateurs. Et 43 % ont déclaré que Facebook n'était pas assez réglementé, contre 19 % qui ont dit qu'il avait la bonne quantité de surveillance et 17 % qui ont dit qu'il en avait trop.
La perspective de Facebook
Dans une tribune, Nick Clegg, vice-président des affaires mondiales de Facebook, a appelé à de nouvelles réglementations Internet, y compris la réforme de l'article 230 :
« On a beaucoup parlé de Facebook récemment, mais il y a une chose sur laquelle nous sommes d'accord : le Congrès devrait adopter de nouvelles réglementations Internet.
« ...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.