Les algorithmes de Facebook, YouTube et Twitter sont-ils nuisibles ?
L'une des préoccupations les plus effrayantes en rapport avec les plateformes de médias sociaux est l'idée d'une désinformation algorithmique, à savoir que les systèmes de recommandation intégrés à des plateformes telles que Facebook et YouTube pourraient discrètement mettre en avant le contenu le plus nuisible et perturbateur du réseau. Pour essayer de trouver une solution à l'amplification de la désinformation et de la mésinformation de ces dernières années, le sous-comité du Sénat américain sur la vie privée et la technologie a convié à une audience cette semaine des cadres supérieurs de Facebook, YouTube et Twitter.
L'audition au Sénat mardi a été intitulée "Algorithms and Amplification: How Social Media Platforms’ Design Choices Shape our Discourse and Our Minds" (Algorithmes et amplification : Comment les choix de conception des plateformes de médias sociaux façonnent notre discours et nos esprits). Elle a opposé les cadres supérieurs de ces entreprises à des chercheurs qui ont affirmé que les algorithmes utilisés par les plateformes de médias sociaux pour générer des revenus en maintenant l'intérêt des utilisateurs constituent des menaces existentielles pour la pensée individuelle et la démocratie elle-même.
Les responsables des relations gouvernementales et de la politique de contenu de Facebook, YouTube et Twitter ont décrit aux sénateurs comment leurs algorithmes les aident à identifier et à supprimer les contenus qui violent leurs conditions d'utilisation, notamment les discours haineux ou de harcèlement et la désinformation. Ils ont ajouté que leurs algorithmes ont commencé à "déclasser", ou à supprimer, les contenus "extrêmes". Monika Bickert, vice-présidente de Facebook chargée de la politique en matière de contenu, a déclaré qu'il serait "voué à l'échec" pour les sociétés de médias sociaux d'orienter les utilisateurs vers des contenus extrêmes.
Cependant Tristan Harris, un ancien cadre de l'industrie, qui est devenu un éthicien des données et dirige aujourd'hui le "Center for Humane Technology," a déclaré à la commission que, quelles que soient les mesures prises par les entreprises, leur activité principale dépendrait toujours de l'orientation des utilisateurs vers des "trous de lapin de la réalité" individuels. Il a déclaré que leur modèle économique repose entièrement sur ces faits. « C'est presque comme avoir les dirigeants d'Exxon, BP et Shell ici et leur demander ce que vous faites pour arrêter de manière responsable le changement climatique », a déclaré Harris.
« Leur modèle économique consiste à créer une société qui est dépendante, outrée, polarisée, performative et désinformée. Bien qu'ils puissent essayer d'écrémer le préjudice majeur et faire ce qu'ils peuvent – et nous voulons célébrer cela, vraiment – c'est juste qu'ils sont fondamentalement piégés dans quelque chose qu'ils ne peuvent pas changer », a poursuivi Harris. Joan Donovan, directrice de recherche au "Shorenstein Center on Media, Politics and Public Policy" de la Harvard Kennedy School, a déclaré que les plateformes devraient être tenues d'offrir aux utilisateurs une version "d'intérêt public" de leurs fils d'actualité.
« Nous n'avons pas construit les aéroports du jour au lendemain, mais les entreprises technologiques pilotent les avions sans avoir nulle part où atterrir. Le coût de l'inaction n'est rien d'autre que la fin de la démocratie », a déclaré Donovan. L'audience a en outre été marquée par une approche bipartite de la question de la part du nouveau président, le sénateur démocrate Chris Coons du Delaware, et du membre principal, le sénateur républicain Ben Sasse du Nebraska. Coons et Sasse ont félicité les plateformes pour leurs efforts visant à supprimer les contenus préjudiciables et à accroître la transparence.
La section 230 de la Communications Decency Act devrait-elle être réformée ?
Cependant, ils se sont demandé si elles en feraient suffisamment si elles étaient laissées à elles-mêmes. Coons a noté que Facebook a récemment pris des mesures spéciales pour limiter la désinformation et le contenu violent avant le verdict du procès de l'ancien policier de Minneapolis, Derek Chauvin, qui a été reconnu coupable du meurtre de George Floyd, un Noir, en mai 2020. « Ma question pour vous est de savoir pourquoi Facebook ne limiterait pas toujours la diffusion rapide de contenus susceptibles de violer vos normes », a demandé Coons à Bickert.
Bickert a répondu que de telles mesures, en plus de supprimer les contenus préjudiciables, pourraient également limiter la diffusion de contenus "faux positifs" qui ne violeraient pas les politiques de l'entreprise. « Il y a donc un coût à prendre des mesures sur ce contenu. Mais dans les situations où nous savons qu'il y a un risque extrême ou fini, comme une élection dans un pays en proie à des troubles ou à Minneapolis avec le procès Chauvin, nous mettrons en place une mesure temporaire où nous désaccentuerons le contenu que la technologie, les algorithmes, disent être susceptibles de violer [la politique de l'entreprise] », a déclaré Bickert.
Coons a déclaré que l'audience a été une occasion d'apprentissage pour lui et Sasse et qu'il n'avait pas de programme réglementaire spécifique, mais qu'il pense que le problème exige une attention urgente et qu'il envisagerait de soutenir des solutions volontaires, réglementaires ou législatives. Sasse a déclaré que les approches fragmentaires de chaque entreprise étaient "inconciliables". « Il avance un argument de taille et nous entendons des réponses qui, à mon avis, ne sont que marginales », a déclaré Sasse. L'audition a également porté sur la section 230 de la Communications Decency Act.
La réforme de la loi a été remise en question par les membres des deux partis. Un projet de loi présenté l'année dernière obligerait les plateformes comptant plus de 10 millions d'utilisateurs à obtenir l'autorisation des personnes avant de leur proposer un contenu personnalisé par un algorithme. Si les entreprises ne le font pas, elles ne bénéficieraient pas de la protection de la section 230. Un autre projet de loi révoquerait de la même manière l'immunité prévue par la section 230 si les algorithmes diffusent des informations erronées qui conduisent à la violence.
Le panel a conclu en explorant d'autres modèles économiques pour les plateformes de médias sociaux, qui ne seraient pas aussi dépendants des algorithmes pour susciter l'engagement et la consultation des publicités. « Imaginez que les entreprises technologiques, qui profitent aujourd'hui d'une quantité infinie d'engagements, ne gagnent de l'argent qu'à partir d'une petite partie de celui-ci. Et le reste était essentiellement taxé pour être versé dans un fonds d'intérêt public régénérateur qui finançait des choses comme le quatrième pouvoir, les vérificateurs de faits, les chercheurs, les technologues d'intérêt public », a proposé Harris.
Cependant, les défenseurs de la section 230 font valoir que toute modification insuffisamment ciblée de la loi pourrait perturber l'Internet moderne tel que nous le connaissons, entraînant des effets négatifs en cascade bien au-delà de la portée prévue des efforts de réforme. Une abrogation pure et simple de la loi est presque certainement hors de question, mais même de petites modifications pourraient complètement réorganiser les entreprises Internet, pour le meilleur ou pour le pire. Une autre préoccupation lors de l'audience est venue de la sénatrice Amy Klobuchar (D-MN), qui dirige la sous-commission antitrust du Sénat.
Elle a fait le lien entre les préoccupations algorithmiques et les comportements anticoncurrentiels dans l'industrie technologique. « Si vous avez une entreprise qui rachète tout le monde, nous ne saurons jamais si elle aurait pu mettre au point des outils pour nous aider à lutter contre la désinformation, car il n'y a pas de concurrence », a déclaré Klobuchar. Les membres de la sous-commission Klobuchar et le sénateur Mazie Hirono (D-HI) ont leur propre projet de réforme de la section 230, le Safe Tech Act, mais cette législation concerne moins les algorithmes que les publicités et le contenu payant.
Source : Audience du sous-comité judiciaire du Sénat américain sur la protection de la vie privée et de la technologie
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi
Facebook, Google, Microsoft et Twitter approuvent le code australien de lutte contre la désinformation et s'engagent à rendre publiques les mesures prises pour lutter contre la désinformation
Microsoft dévoile des outils de détection de deepfakes pour lutter contre les fausses nouvelles et d'autres formes de désinformation
Classement 2021 des milliardaires de la Tech : Jeff Bezos conserve la tête pour la quatrième fois consécutive, la liste comporte une centaine de nouveaux membres et leurs fortunes battent des records
L'UE adopte la loi controversée imposant le retrait en une heure des contenus terroristes, alors que les critiques craignent que la loi impacte sur la liberté d'expression