IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des experts disent aux sénateurs américains que les algorithmes des médias sociaux menacent la démocratie,
Facebook, YouTube et Twitter s'opposent toutefois à cette allégation

Le , par Bill Fassinou

554PARTAGES

14  0 
Alors que l'UE, à travers son Parlement, adoptait une législation obligeant les plateformes de médias sociaux à supprimer un contenu une heure après qu'il a été notifié comme "terroriste", de l'autre côté de l'Atlantique, des experts confiaient aux sénateurs américains que les algorithmes de ces plateformes menacent la démocratie. L'audition a été organisée par la sous-commission judiciaire du Sénat sur la vie privée et la technologie et les sénateurs ont envisagé des réformes de l'article 230 pour corriger certains des préjudices les plus "effrayants" liés aux plateformes de médias sociaux.

Les algorithmes de Facebook, YouTube et Twitter sont-ils nuisibles ?

L'une des préoccupations les plus effrayantes en rapport avec les plateformes de médias sociaux est l'idée d'une désinformation algorithmique, à savoir que les systèmes de recommandation intégrés à des plateformes telles que Facebook et YouTube pourraient discrètement mettre en avant le contenu le plus nuisible et perturbateur du réseau. Pour essayer de trouver une solution à l'amplification de la désinformation et de la mésinformation de ces dernières années, le sous-comité du Sénat américain sur la vie privée et la technologie a convié à une audience cette semaine des cadres supérieurs de Facebook, YouTube et Twitter.



L'audition au Sénat mardi a été intitulée "Algorithms and Amplification: How Social Media Platforms’ Design Choices Shape our Discourse and Our Minds" (Algorithmes et amplification : Comment les choix de conception des plateformes de médias sociaux façonnent notre discours et nos esprits). Elle a opposé les cadres supérieurs de ces entreprises à des chercheurs qui ont affirmé que les algorithmes utilisés par les plateformes de médias sociaux pour générer des revenus en maintenant l'intérêt des utilisateurs constituent des menaces existentielles pour la pensée individuelle et la démocratie elle-même.

Les responsables des relations gouvernementales et de la politique de contenu de Facebook, YouTube et Twitter ont décrit aux sénateurs comment leurs algorithmes les aident à identifier et à supprimer les contenus qui violent leurs conditions d'utilisation, notamment les discours haineux ou de harcèlement et la désinformation. Ils ont ajouté que leurs algorithmes ont commencé à "déclasser", ou à supprimer, les contenus "extrêmes". Monika Bickert, vice-présidente de Facebook chargée de la politique en matière de contenu, a déclaré qu'il serait "voué à l'échec" pour les sociétés de médias sociaux d'orienter les utilisateurs vers des contenus extrêmes.

Cependant Tristan Harris, un ancien cadre de l'industrie, qui est devenu un éthicien des données et dirige aujourd'hui le "Center for Humane Technology," a déclaré à la commission que, quelles que soient les mesures prises par les entreprises, leur activité principale dépendrait toujours de l'orientation des utilisateurs vers des "trous de lapin de la réalité" individuels. Il a déclaré que leur modèle économique repose entièrement sur ces faits. « C'est presque comme avoir les dirigeants d'Exxon, BP et Shell ici et leur demander ce que vous faites pour arrêter de manière responsable le changement climatique », a déclaré Harris.

« Leur modèle économique consiste à créer une société qui est dépendante, outrée, polarisée, performative et désinformée. Bien qu'ils puissent essayer d'écrémer le préjudice majeur et faire ce qu'ils peuvent – et nous voulons célébrer cela, vraiment – c'est juste qu'ils sont fondamentalement piégés dans quelque chose qu'ils ne peuvent pas changer », a poursuivi Harris. Joan Donovan, directrice de recherche au "Shorenstein Center on Media, Politics and Public Policy" de la Harvard Kennedy School, a déclaré que les plateformes devraient être tenues d'offrir aux utilisateurs une version "d'intérêt public" de leurs fils d'actualité.

« Nous n'avons pas construit les aéroports du jour au lendemain, mais les entreprises technologiques pilotent les avions sans avoir nulle part où atterrir. Le coût de l'inaction n'est rien d'autre que la fin de la démocratie », a déclaré Donovan. L'audience a en outre été marquée par une approche bipartite de la question de la part du nouveau président, le sénateur démocrate Chris Coons du Delaware, et du membre principal, le sénateur républicain Ben Sasse du Nebraska. Coons et Sasse ont félicité les plateformes pour leurs efforts visant à supprimer les contenus préjudiciables et à accroître la transparence.

La section 230 de la Communications Decency Act devrait-elle être réformée ?

Cependant, ils se sont demandé si elles en feraient suffisamment si elles étaient laissées à elles-mêmes. Coons a noté que Facebook a récemment pris des mesures spéciales pour limiter la désinformation et le contenu violent avant le verdict du procès de l'ancien policier de Minneapolis, Derek Chauvin, qui a été reconnu coupable du meurtre de George Floyd, un Noir, en mai 2020. « Ma question pour vous est de savoir pourquoi Facebook ne limiterait pas toujours la diffusion rapide de contenus susceptibles de violer vos normes », a demandé Coons à Bickert.

Bickert a répondu que de telles mesures, en plus de supprimer les contenus préjudiciables, pourraient également limiter la diffusion de contenus "faux positifs" qui ne violeraient pas les politiques de l'entreprise. « Il y a donc un coût à prendre des mesures sur ce contenu. Mais dans les situations où nous savons qu'il y a un risque extrême ou fini, comme une élection dans un pays en proie à des troubles ou à Minneapolis avec le procès Chauvin, nous mettrons en place une mesure temporaire où nous désaccentuerons le contenu que la technologie, les algorithmes, disent être susceptibles de violer [la politique de l'entreprise] », a déclaré Bickert.

Coons a déclaré que l'audience a été une occasion d'apprentissage pour lui et Sasse et qu'il n'avait pas de programme réglementaire spécifique, mais qu'il pense que le problème exige une attention urgente et qu'il envisagerait de soutenir des solutions volontaires, réglementaires ou législatives. Sasse a déclaré que les approches fragmentaires de chaque entreprise étaient "inconciliables". « Il avance un argument de taille et nous entendons des réponses qui, à mon avis, ne sont que marginales », a déclaré Sasse. L'audition a également porté sur la section 230 de la Communications Decency Act.

La réforme de la loi a été remise en question par les membres des deux partis. Un projet de loi présenté l'année dernière obligerait les plateformes comptant plus de 10 millions d'utilisateurs à obtenir l'autorisation des personnes avant de leur proposer un contenu personnalisé par un algorithme. Si les entreprises ne le font pas, elles ne bénéficieraient pas de la protection de la section 230. Un autre projet de loi révoquerait de la même manière l'immunité prévue par la section 230 si les algorithmes diffusent des informations erronées qui conduisent à la violence.

Le panel a conclu en explorant d'autres modèles économiques pour les plateformes de médias sociaux, qui ne seraient pas aussi dépendants...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 02/05/2021 à 6:22
J'ai hâte de voir si Bezo et Zuck vont tenter de jouer au con avec Poutine.

https://www.journaldemontreal.com/20...de-letranger-1

J'ai lu quelque part que Sarkozy était sorti blanc comme un drap après un rencontre privé avec Poutine. Après cette rencontre, il était très très posé dans ses déclarations sur Poutine et la Russie.
1  1 
Avatar de java_worker
Futur Membre du Club https://www.developpez.com
Le 08/05/2021 à 5:37
Un documentaire assez édifiant sur le sujet (pour comprendre le danger de ces algorithmes) : "Derrière nos écrans de fumée" (The social dilemma)
A voir absolument !
1  1 
Avatar de lololapile
Membre régulier https://www.developpez.com
Le 10/05/2021 à 14:42
La façon dont tous les articles, dénonçant l'action gouvernementale et leurs mensonges sur la gestion de la covid, ont été censurés montre bien à quel point notre démocratie est mise en danger par ces sociétés hors de tout contrôle que sont Facebook, Youtube, Twitter...
0  0 
Avatar de java_worker
Futur Membre du Club https://www.developpez.com
Le 11/05/2021 à 19:01
Ces algorithmes existent pour manipuler l'opinion de l'utilisateur.

Dans le meilleur des cas cette manipulation a simplement pour but de vendre un produit.
Dans les cas plus graves, cette manipulation vise à influencer le résultat d'un référendum (Brexit) ou d'une élection (USA-2016, USA-2020, Brésil, ...).
Dans les cas extrêmes, la manipulation à pour but de déstabiliser une démocratie (tout les grands pays européens semblent être actuellement la cible de telles manipulations...).

Ce ne sont pas les grands acteurs de la tech qui sont directement responsables de ces manipulations... ils n'ont fait que développer les outils (ou les armes c'est selon) pour rendre ce genre de manipulations possible. Ensuite ils mettent ces outils à disposition du plus offrant... sans être très regardant sur la finalité.

Quelles solutions ?

Demander gentiment aux géants de la tech de ne pas vendre leurs outils/armes aux méchants ?
Bah... ça reviendrait à donner à facebook et autre le droit de juger de ce qui est bien et de ce qui est mal. Un peu risqué non ?

Autre solution : interdire complètement le traçage et la publicité ciblée.

Une solution intermédiaire : autoriser le traçage des personnes qui souhaitent être tracées (c'est ce que GDPR essaye vaguement d'atteindre)... mais il faudrait que ce consentement soit obtenu de façon beaucoup plus explicite que le simple "accept all cookies"/"grant all permissions" sur lequel tout le monde clique sans réfléchir. Et les personnes qui acceptent d'être tracées pourraient/devraient même être rémunérées pour ça.
1  1 
Avatar de
https://www.developpez.com
Le 01/05/2021 à 20:10
Bonsoir,

Les algorithmes de Facebook, YouTube et Twitter sont-ils nuisibles ?
Oui

Quel est votre avis sur le sujet ?
Tout ce qui concerne des débats sérieux sur des sujets sensibles sociétaux (histoire, mobilité, environnement ...) ou bien , des activités culturelles et sportives sur des thématiques précises (histoire et sujet militaire, sport atypique, activité atypique ... ) , se font "fliquer". Tout ce qui n'entre pas dans un "moule" idéologique ou de "vision"/"pensée" , est automatiquement broyé pour être éjecté . Les utilisateurs impactés se retrouvent donc considérés comme "déviant" .

Tout simplement, que les sujets de fond demandent une analyse littéraire (lecture humaine) et non binaire (une analyse par des robots ... ). Il en est de même pour la modération à grande échelle, on a besoin d'humains et non de machines ... Sauf si bien entendu, on veut abrutir la population par une pensée uniforme et incritiquable .
1  2 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 10/05/2021 à 14:57
Citation Envoyé par Bill Fassinou Voir le message
Quel est votre avis sur le sujet ?
Sans les manipulations de Facebook, Twitter et Google, Biden n'aurait peut-être pas gagné les élections.
Donc c'est un peu pénible ces histoires de réseaux sociaux… Mais on a l'habitude de subir de la propagande puisque c'est ce que font les médias mainstream depuis toujours. (en France en 2017, tous les gros médias faisaient la campagne pour Macron)

Les algorithmes mettent l'idéologie de Twitter, Facebook, YouTube en avant et masquent les idées qui ne vont pas dans le même sens.
2  3