
Les algorithmes de Facebook, YouTube et Twitter sont-ils nuisibles ?
L'une des préoccupations les plus effrayantes en rapport avec les plateformes de médias sociaux est l'idée d'une désinformation algorithmique, à savoir que les systèmes de recommandation intégrés à des plateformes telles que Facebook et YouTube pourraient discrètement mettre en avant le contenu le plus nuisible et perturbateur du réseau. Pour essayer de trouver une solution à l'amplification de la désinformation et de la mésinformation de ces dernières années, le sous-comité du Sénat américain sur la vie privée et la technologie a convié à une audience cette semaine des cadres supérieurs de Facebook, YouTube et Twitter.
L'audition au Sénat mardi a été intitulée "Algorithms and Amplification: How Social Media Platforms’ Design Choices Shape our Discourse and Our Minds" (Algorithmes et amplification : Comment les choix de conception des plateformes de médias sociaux façonnent notre discours et nos esprits). Elle a opposé les cadres supérieurs de ces entreprises à des chercheurs qui ont affirmé que les algorithmes utilisés par les plateformes de médias sociaux pour générer des revenus en maintenant l'intérêt des utilisateurs constituent des menaces existentielles pour la pensée individuelle et la démocratie elle-même.
Les responsables des relations gouvernementales et de la politique de contenu de Facebook, YouTube et Twitter ont décrit aux sénateurs comment leurs algorithmes les aident à identifier et à supprimer les contenus qui violent leurs conditions d'utilisation, notamment les discours haineux ou de harcèlement et la désinformation. Ils ont ajouté que leurs algorithmes ont commencé à "déclasser", ou à supprimer, les contenus "extrêmes". Monika Bickert, vice-présidente de Facebook chargée de la politique en matière de contenu, a déclaré qu'il serait "voué à l'échec" pour les sociétés de médias sociaux d'orienter les utilisateurs vers des contenus extrêmes.
Cependant Tristan Harris, un ancien cadre de l'industrie, qui est devenu un éthicien des données et dirige aujourd'hui le "Center for Humane Technology," a déclaré à la commission que, quelles que soient les mesures prises par les entreprises, leur activité principale dépendrait toujours de l'orientation des utilisateurs vers des "trous de lapin de la réalité" individuels. Il a déclaré que leur modèle économique repose entièrement sur ces faits. « C'est presque comme avoir les dirigeants d'Exxon, BP et Shell ici et leur demander ce que vous faites pour arrêter de manière responsable le changement climatique », a déclaré Harris.
« Leur modèle économique consiste à créer une société qui est dépendante, outrée, polarisée, performative et désinformée. Bien qu'ils puissent essayer d'écrémer le préjudice majeur et faire ce qu'ils peuvent – et nous voulons célébrer cela, vraiment – c'est juste qu'ils sont fondamentalement piégés dans quelque chose qu'ils ne peuvent pas changer », a poursuivi Harris. Joan Donovan, directrice de recherche au "Shorenstein Center on Media, Politics and Public Policy" de la Harvard Kennedy School, a déclaré que les plateformes devraient être tenues d'offrir aux utilisateurs une version "d'intérêt public" de leurs fils d'actualité.
« Nous n'avons pas construit les aéroports du jour au lendemain, mais les entreprises technologiques pilotent les avions sans avoir nulle part où atterrir. Le coût de l'inaction n'est rien d'autre que la fin de la démocratie », a déclaré Donovan. L'audience a en outre été marquée par une approche bipartite de la question de la part du nouveau président, le sénateur démocrate Chris Coons du Delaware, et du membre principal, le sénateur républicain Ben Sasse du Nebraska. Coons et Sasse ont félicité les plateformes pour leurs efforts visant à supprimer les contenus préjudiciables et à accroître la transparence.
La section 230 de la Communications Decency Act devrait-elle être réformée ?
Cependant, ils se sont demandé si elles en feraient suffisamment si elles étaient laissées à elles-mêmes. Coons a noté que Facebook a récemment pris des mesures spéciales pour limiter la désinformation et le contenu violent avant le verdict du procès de l'ancien policier de Minneapolis, Derek Chauvin, qui a été reconnu coupable du meurtre de George Floyd, un Noir, en mai 2020. « Ma question pour vous est de savoir pourquoi Facebook ne limiterait pas toujours la diffusion rapide de contenus susceptibles de violer vos normes », a demandé Coons à Bickert.
Bickert a répondu que de telles mesures, en plus de supprimer les contenus préjudiciables, pourraient également limiter la diffusion de contenus "faux positifs" qui ne violeraient pas les politiques de l'entreprise. « Il y a donc un coût à prendre des mesures sur ce contenu. Mais dans les situations où nous savons qu'il y a un risque extrême ou fini, comme une élection dans un pays en proie à des troubles ou à Minneapolis avec le procès Chauvin, nous mettrons en place une mesure temporaire où nous désaccentuerons le contenu que la technologie, les algorithmes, disent être susceptibles de violer [la politique de l'entreprise] », a déclaré Bickert.
Coons a déclaré que l'audience a été une occasion d'apprentissage pour lui et Sasse et qu'il n'avait pas de programme réglementaire spécifique, mais qu'il pense que le problème exige une attention urgente et qu'il envisagerait de soutenir des solutions volontaires, réglementaires ou législatives. Sasse a déclaré que les approches fragmentaires de chaque entreprise étaient "inconciliables". « Il avance un argument de taille et nous entendons des réponses qui, à mon avis, ne sont que marginales », a déclaré Sasse. L'audition a également porté sur la section 230 de la Communications Decency Act.
La réforme de la loi a été remise en question par les membres des deux partis. Un projet de loi présenté l'année dernière obligerait les plateformes comptant plus de 10 millions d'utilisateurs à obtenir l'autorisation des personnes avant de leur proposer un contenu personnalisé par un algorithme. Si les entreprises ne le font pas, elles ne bénéficieraient pas de la protection de la section 230. Un autre projet de loi révoquerait de la même manière l'immunité prévue par la section 230 si les algorithmes diffusent des informations erronées qui conduisent à la violence.
Le panel a conclu en explorant d'autres modèles économiques pour les plateformes de médias sociaux, qui ne seraient pas aussi dépendants...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.