Le Banning Surveillance Advertising Act, sponsorisé par les représentants Anna Eshoo (D-CA), Jan Schakowsky (D-IL) et le sénateur Cory Booker (D-NJ), interdit aux annonceurs numériques de cibler des annonces sur les utilisateurs. Il fait quelques petites exceptions, comme permettre un ciblage « large » basé sur la localisation. La publicité contextuelle, comme les publicités spécifiquement adaptées au contenu en ligne, serait autorisée.
« Le modèle commercial de la "publicité de surveillance" est fondé sur la collecte et la thésaurisation inconvenantes de données personnelles pour permettre le ciblage publicitaire », a déclaré Eshoo, le principal sponsor du projet de loi, dans un communiqué. « Cette pratique pernicieuse permet aux plateformes en ligne de chasser l'engagement des utilisateurs à grands frais pour notre société, et elle alimente la désinformation, la discrimination, la suppression des électeurs, les atteintes à la vie privée et bien d'autres préjudices. Le modèle commercial de la publicité de surveillance est brisé ».
S'il était adopté, le projet de loi changerait radicalement les modèles commerciaux de Facebook et de Google. Pendant des années, les législateurs ont débattu des moyens de réglementer l'industrie technologique sur des questions telles que la confidentialité, la désinformation et la modération du contenu. Eshoo et ses co-sponsors affirment que les modèles publicitaires actuels de l'industrie technologique incitent à la diffusion de contenu préjudiciable et les encouragent à amplifier les messages préjudiciables pour garder les utilisateurs sur leurs plateformes.
Le projet de loi confère à la Federal Trade Commission et aux procureurs généraux des États le pouvoir d'appliquer les nouvelles règles de ciblage publicitaire. Il permet également aux utilisateurs individuels de poursuivre des plateformes comme Facebook et Google s'ils enfreignent la loi, accordant jusqu'à 5 000 $ de réparation par violation.
« La publicité de surveillance est une pratique prédatrice et invasive », a déclaré le sénateur Booker dans un communiqué. « La thésaurisation des données personnelles des personnes non seulement viole la vie privée, mais favorise également la propagation de la désinformation, de l'extrémisme domestique, de la division raciale et de la violence ».
Facebook encourage les discours de haine pour gagner de l'argent, selon une lanceuse d'alerte
Frances Haugen, était un chef de produit chez Facebook affecté au groupe Civic Integrity. Elle a choisi de quitter l'entreprise après la dissolution du groupe. Elle a dit qu'elle n'avait « pas confiance dans le fait qu'ils étaient prêts à investir pour empêcher Facebook d'être dangereux ».
Par conséquent, elle a divulgué un cache de recherches internes à la Securities and Exchange Commission dans l'espoir d'améliorer la réglementation de l'entreprise. Elle a noté qu'elle avait travaillé dans un certain nombre d'entreprises, dont Google et Pinterest, mais que « c'était nettement pire chez Facebook » en raison de la volonté de l'entreprise de faire passer ses bénéfices avant le bien-être de ses utilisateurs.
« Ce que j'ai vu à plusieurs reprises chez Facebook, c'est qu'il y avait des conflits d'intérêts entre ce qui était bon pour le public et ce qui était bon pour Facebook. Et Facebook, encore et encore, a choisi de faire passer ses propres intérêts en premier, comme gagner plus d'argent », a déclaré Haugen à Scott Pelley.
Frances Haugen : Alors, vous savez, vous avez votre téléphone. Vous pourriez ne voir que 100 éléments de contenu si vous vous asseyez et faites défiler pendant, disons, cinq minutes. Mais Facebook a des milliers d'options qu'il pourrait vous montrer.
L'algorithme (la fonctionnalité qui décide de ce que vous voyez sur votre fil d'actualité Facebook) choisit parmi ces options en fonction du type de contenu avec lequel vous vous êtes le plus engagé dans le passé.
Frances Haugen : Et l'une des conséquences de la façon dont Facebook sélectionne ce contenu aujourd'hui, c'est qu'il s'agit d'optimiser le contenu qui suscite l'engagement ou la réaction. Mais ses propres recherches montrent qu'un contenu haineux, qui divise, qui polarise, inspire plus facilement aux gens de la colère que d'autres émotions.
Scott Pelley : La désinformation, du contenu plein de colère est attrayant pour les gens et continue de les garder sur la plateforme.
Françoise Haugen : Oui. Facebook s'est rendu compte que s'ils changent l'algorithme pour qu'il devienne plus sûr, les gens passeront moins de temps sur le site, ils cliqueront sur moins de publicités, ils gagneront moins d'argent.
Haugen note que Facebook a compris le danger pour les élections de 2020. Facebook a donc activé les systèmes de sécurité pour réduire la désinformation, mais bon nombre de ces changements, dit-elle, étaient temporaires.
Frances Haugen : Et dès que les élections étaient terminées, ils les ont désactivés ou ils ont ramené les paramètres à ce qu'ils étaient avant, pour donner la priorité à la croissance plutôt qu'à la sécurité. Et cela ressemble vraiment à une trahison de la démocratie pour moi.
Scott Pelley : Facebook amplifie essentiellement le pire de la nature humaine.
Frances Haugen : C'est l'une de ces conséquences malheureuses, n'est-ce pas ? Personne chez Facebook n'est malveillant, mais les incitations sont mal alignées, n'est-ce pas ? Néanmoins, Facebook gagne plus d'argent lorsque vous consommez plus de contenu. Les gens aiment s'engager dans des choses qui suscitent une réaction émotionnelle. Et plus ils sont exposés à la colère, plus ils interagissent et plus ils consomment.
Cette dynamique a conduit à une plainte auprès de Facebook par les principaux partis politiques à travers l'Europe. Ce rapport interne de 2019 obtenu par Haugen indique que les parties, « … ont le sentiment profond que le changement de l'algorithme les a forcées à biaiser négativement leurs communications sur Facebook… les conduisant à adopter des positions politiques plus extrêmes ».
Des projets de loi qui se multiplient depuis la publication des documents par la lanceuse d'alerte
Depuis que Frances Haugen a témoigné devant le Congrès l'année dernière, les législateurs ont présenté un certain nombre de nouveaux projets de loi visant à réglementer les algorithmes des médias sociaux afin de lutter contre la propagation de contenus préjudiciables. En octobre dernier, les démocrates de la Chambre ont dévoilé une mesure qui supprimerait les protections de responsabilité de l'article 230 d'une plateforme s'il s'avérait que leurs algorithmes avaient recommandé du contenu préjudiciable aux utilisateurs.
L'article 230 de la Communications Decency Act (CDA) est un texte de loi adopté en 1996 lorsque l'internet en était encore à ses débuts qui protège largement les entreprises de toute responsabilité vis-à-vis des publications des utilisateurs. L'article 230 a initialement été adopté dans le cadre de la loi sur la décence en matière de communication, afin de protéger les sites web contre les poursuites judiciaires concernant le contenu que leurs utilisateurs ont publié. Il a été adopté pour encourager les sites web à s'engager dans la modération de contenu en supprimant le risque qu'ils puissent être poursuivis en tant qu'éditeur s'ils contrôlaient activement ce que leurs utilisateurs publiaient.
Devant un panel du Sénat, Frances Haugen a déclaré :
« Si nous avions une surveillance appropriée ou si nous réformions [l'article] 230 pour rendre Facebook responsable des conséquences de leurs décisions de classement intentionnelles, je pense qu'ils se débarrasseraient du classement basé sur l'engagement », a déclaré Haugen. « Parce que cela expose les adolescents à plus de contenu anorexique, cela sépare les familles, et dans des endroits comme l'Éthiopie, cela attise littéralement la violence ethnique ».
Haugen s'est assuré de faire la distinction entre le contenu généré par les utilisateurs et les algorithmes de Facebook, qui priorisent le contenu dans les fils d'actualité et stimulent l'engagement. Elle a suggéré que Facebook ne devrait pas être responsable du contenu que les utilisateurs publient sur ses plateformes, mais qu'il devrait être tenu responsable une fois que ses algorithmes commencent à prendre des décisions sur le contenu que les gens voient.
Cette suggestion reflète un projet de loi, le Protecting Americans from Dangerous Algorithms Act, qui a été présenté à la Chambre.
Pourtant, malgré l'appel à la réforme de l'article 230, Haugen a également averti que la réforme à elle seule ne suffirait pas à surveiller de manière adéquate la large portée de l'entreprise. « La gravité de cette crise exige que nous rompions avec les cadres réglementaires précédents », a-t-elle déclaré. « Les modifications apportées aux protections de la vie privée obsolètes ou les modifications apportées à la section 230 ne seront pas suffisantes. »
Lors de la première audience de Haugen au Sénat, le sénateur Richard Blumenthal (D-CT) a déclaré que les fuites confirmaient « que Facebook place régulièrement les profits avant la sécurité en ligne des enfants ». Il a poursuivi : « Nous savons qu'il choisit la croissance de ses produits plutôt que le bien-être de nos enfants ».
Source : Banning Surveillance Advertising Act
Et vous ?
Que pensez-vous d'un projet de loi de cette envergure qui s'attaque aux publicités ciblées ?