IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'EFF évoque les dangers de la censure et du "déplatforming" lorsqu'un groupe de sociétés se constitue
Pour s'assurer que les forums où sont les orateurs soient complètement déconnectés

Le , par Stéphane le calme

84PARTAGES

10  0 
Ces derniers mois, Twitter est intervenu graduellement sur le compte du président américain en exercice, Donald Trump, d’abord en apposant des labels pour nuancer ses allégations, parfois en masquant par défaut certains de ses messages. À la suite des évènements du 6 janvier, quand des émeutiers ont pris d’assaut le Capitole des États-Unis, encouragés par les propos de Donald Trump, Twitter a franchi une nouvelle étape en bloquant le compte de Donald Trump pendant 12 heures, le temps pour lui de supprimer trois tweets que le réseau social a considérés comme étant dangereux.

Le réseau social a décidé par la suite de suspendre définitivement le compte de Donald Trump expliquant ceci :

« Après un examen attentif des récents Tweets du compte @realDonaldTrump et du contexte qui les entoure – en particulier la manière dont ils sont reçus et interprétés sur et hors de Twitter – nous avons suspendu définitivement le compte en raison du risque d'incitation à la violence.

« Dans le contexte des évènements horribles de cette semaine, nous avons clairement indiqué mercredi que des violations supplémentaires des règles de Twitter entraîneraient potentiellement cette ligne de conduite. Notre cadre d’intérêt public existe pour permettre au public d’entendre directement les représentants élus et les dirigeants mondiaux. Il repose sur le principe que le peuple a le droit de demander des comptes au pouvoir.

« Cependant, nous avons clairement indiqué il y a des années que ces comptes ne sont pas entièrement au-dessus de nos règles et ne peuvent pas utiliser Twitter pour inciter à la violence, entre autres. Nous continuerons de faire preuve de transparence concernant nos politiques et leur application ».


Parmi les autres réseaux sociaux qui ont pris des mesures similaires, nous pouvons citer :
  • Facebook et Instagram, qui ont estimé que Donald Trump ne pourra plus utiliser ses comptes « pendant au moins les deux prochaines semaines, jusqu'à ce que la transition pacifique du pouvoir soit terminée »
  • Twitch et Snapchat, qui ont désactivé les comptes de Trump.
  • Shopify qui a supprimé deux magasins en ligne affiliés au président.
  • YouTube, qui a déclaré qu'il accélère ses actions pour endiguer des allégations de fraude électorale contre le président Trump et d'autres sur la base des évènements de mercredi.
  • TikTok a supprimé les contenus violant ses politiques d'utilisation et a redirigé les hashtags tels que #stormthecapitol et #patriotparty vers ses règles de la communauté.

Face à cette situation, l'EFF (Electronic Frontier Foundation), le défenseur des droits numérique, a estimé qu’il s’agissait d’un simple exercice de leur droit qu’il soutenait tout en apportant des nuances :

« Comme la plupart des gens aux États-Unis et dans le monde, l'EFF est choqué et dégoûté par la violente attaque de mercredi contre le Capitole américain. Nous soutenons tous ceux qui œuvrent pour la défense de la Constitution et de l'état de droit, et nous sommes reconnaissants du service des décideurs, des membres du personnel et des autres travailleurs qui ont enduré de nombreuses heures de lockdown et se sont réunis de nouveau pour s'acquitter de leurs obligations constitutionnelles.

« Les décisions de Twitter, Facebook, Instagram, Snapchat et autres de suspendre et / ou de bloquer les communications du président Trump via leurs plateformes sont un simple exercice de leurs droits, en vertu du premier amendement et de la section 230, de gérer leurs sites. Nous soutenons ces droits. Néanmoins, nous sommes toujours préoccupés lorsque les plateformes assument le rôle de censeurs, c'est pourquoi nous continuons de les appeler à appliquer un cadre de droits de l'homme à ces décisions. Nous notons également que ces mêmes plateformes ont choisi, pendant des années, de privilégier certains orateurs - en particulier les responsables gouvernementaux - par rapport à d'autres, non seulement aux États-Unis, mais également dans d'autres pays. Une plateforme ne devrait pas appliquer un ensemble de règles à la plupart de ses utilisateurs, puis appliquer un ensemble de règles plus permissif aux politiciens et aux dirigeants mondiaux qui sont déjà extrêmement puissants. À l'avenir, nous appelons une fois de plus les plateformes à être plus transparentes et cohérentes dans la manière dont elles appliquent leurs règles - et nous appelons les décideurs à trouver des moyens de favoriser la concurrence afin que les utilisateurs aient de nombreuses options éditoriales et politiques parmi lesquelles choisir. »

AWS, Google et Apple suppriment Parler

Parler a été lancé en 2018 comme une alternative « libre expression » à Twitter et Facebook. En 2019 et 2020, il a attiré un certain nombre d'utilisateurs conservateurs, de droite et d'extrême droite. L'utilisation a considérablement augmenté ces derniers jours à la suite des événements de mercredi au Capitole américain ainsi qu'à la suspension des comptes de Donald Trump sur les médias sociaux comme Facebook et Twitter ou d'autres plateformes comme Twitch et Snap.

Parler est devenu un refuge pour les personnes bannies de ces sites populaires. L'entreprise basée à Henderson, au Nevada, s'est présentée comme une alternative à la liberté d'expression sur les réseaux sociaux traditionnels et a adopté une approche plus détendue de la modération de contenu, attirant les théoriciens du complot et les membres de groupes haineux qui ont ouvertement incité à la violence.


Google et Apple ont supprimé de leurs plateformes de téléchargements respectives (Play Store et App Store) l'application Parler, qui aurait permis à des individus d'organiser l'émeute contre le Capitole. Suivant la même motivation, AWS a déconnecté les serveurs de Parler.

« Il est clair que Parler ne dispose pas d'un processus efficace pour se conformer aux conditions de service de l'AWS. Il semble également que Parler essaie toujours de déterminer sa position sur la modération du contenu. Vous supprimez certains contenus violents lorsque nous ou d'autres personnes vous contactent, mais pas toujours de manière urgente. Votre PDG a récemment déclaré publiquement qu'il ne "se sent pas responsable de tout cela, et la plateforme ne devrait pas non plus se sentir responsable" », lit-on dans le courriel adressé à Parler.

« Ce matin, vous nous avez fait part de votre intention de modérer de manière plus proactive les contenus violents, mais vous prévoyez de le faire manuellement avec des volontaires. Nous pensons que ce plan naissant qui consiste à utiliser des volontaires pour identifier et supprimer rapidement les contenus dangereux ne fonctionnera pas, compte tenu du nombre croissant de messages violents ».

La réaction de l'EFF

« Quoi que vous pensiez de Parler, ces décisions devraient vous donner matière à réfléchir. Les entreprises privées ont de solides droits légaux en vertu de la loi américaine de refuser d'héberger ou de soutenir des discours qu'ils n'aiment pas. Mais ce refus comporte des risques différents lorsqu'un groupe de sociétés se constitue pour s'assurer que les forums où sont les orateurs soient effectivement complètement déconnectés.

Les couches de la pile de l’expression

« Pour voir les implications des choix de censure par les entreprises plus profondes, il est important de se pauser une minute. Comme le rappelle la chercheuse Joan Donovan, "À tous les niveaux de la pile technologique, les entreprises sont placées en position de porter des jugements de valeur concernant la légitimité du contenu, y compris qui devrait y avoir accès, quand et comment". Et les décisions prises par les entreprises à différentes couches de la pile auront forcément des impacts différents sur la libre expression.

« Au sommet de la pile se trouvent des services comme Facebook, Reddit ou Twitter, des plateformes dont les décisions concernant les personnes à servir (ou ce qu'il faut autoriser) sont comparativement visibles, bien qu'elles soient encore beaucoup trop opaques pour la plupart des utilisateurs. Leurs réponses peuvent être comparativement ciblées sur des utilisateurs et des contenus spécifiques et, surtout, ne pas couper autant d'alternatives. Par exemple, un forum de discussion se trouve près du sommet de la pile: si vous êtes chassé d'une telle plate-forme, il existe d'autres lieux dans lesquels vous pouvez exercer votre discours. Ce sont les sites et services avec lesquels tous les utilisateurs (créateurs de contenu et consommateurs de contenu) interagissent le plus directement. Ce sont aussi les endroits auxquels les gens pensent lorsqu'ils pensent au contenu lui-même (par exemple, «j'ai vu telle chose sur Facebook»). Les utilisateurs sont souvent tenus d'avoir des comptes individuels ou avantagés s'ils le font. Les utilisateurs peuvent également rechercher spécifiquement les sites pour leur contenu. Plus l'utilisateur est proche, plus il est probable que les sites auront des politiques et pratiques de conservation et de rédaction plus développées et apparentes - leurs «styles de signature». Enfin, les utilisateurs disposent généralement d'un moyen, aussi imparfait soit-il, de communiquer directement avec le service.

« À l'autre extrémité de la pile se trouvent les fournisseurs de services Internet (FAI), comme Comcast ou AT&T. Les décisions prises par les entreprises à cette couche de la pile de supprimer du contenu ou des utilisateurs soulèvent de plus grandes préoccupations pour la liberté d'expression, en particulier lorsqu'il y a peu ou pas de concurrents. Par exemple, il serait très inquiétant que le seul fournisseur de services haut débit de votre région vous coupe la parole parce qu'il n'aime pas ce que vous avez dit en ligne ou ce que quelqu'un d'autre dont le nom figure sur le compte a dit. L'adage "si vous n'aimez pas les règles, allez ailleurs" ne fonctionne pas lorsqu'il n'y a nulle part ailleurs où aller.

« Entre les deux se trouvent un large éventail d’intermédiaires, tels que des hôtes en amont comme AWS, des bureaux d’enregistrement de noms de domaine, des autorités de certification (telles que Let’s Encrypt), des réseaux de diffusion de contenu (CDN), des processeurs de paiement et des services de messagerie. L'EFF a ici un tableau pratique de certains de ces liens clés entre les orateurs et leur public. Ces intermédiaires fournissent l'infrastructure pour la parole et le commerce, mais beaucoup n'ont que la relation la plus tangentielle avec leurs utilisateurs. Face à une réclamation, le retrait sera beaucoup plus simple et moins coûteux qu’une analyse nuancée du discours d’un utilisateur donné, encore moins une analyse du discours qui pourrait être hébergé par une entreprise utilisateur de ses services. Donc, ces services sont plus susceptibles de simplement couper un utilisateur ou une plate-forme que de procéder à un examen plus approfondi. Dans le même temps, dans de nombreux cas, les orateurs et le public ne seront pas conscients de l'identité de ces services de soutien et, même s'ils le sont, n'auront aucune relation indépendante avec eux. Ces services ne sont donc généralement pas associés au discours qui les traverse et n'ont pas de "style de signature" à appliquer.


Les déconnections d'infrastructures sont également, sinon plus, susceptibles de faire taire les voix marginalisées

« Nous avons vu un exemple particulièrement flagrant de démantèlement d'infrastructure il y a quelques mois à peine, lorsque Zoom a pris la décision de bloquer un événement universitaire en ligne de l'Université d'État de San Francisco mettant en vedette d'éminents militants des mouvements de libération noirs et sud-africains, le groupe de défense Jewish Voice for Peace, et la figure controversée Leila Khaled - inspirant Facebook et YouTube à emboîter le pas. Zoom a indiqué que sa décision était basée sur des liens présumés de Khaled avec une organisation terroriste étrangère désignée par les États-Unis, une décision qui a apparemment été prise à la suite de pressions extérieures.

« Bien que nous ayons de nombreuses inquiétudes quant à la manière dont les plateformes de médias sociaux comme Facebook, YouTube et Twitter prennent des décisions en matière de discours, nous avons vu la décision de Zoom différemment. Des entreprises comme Facebook et YouTube, pour le meilleur ou pour le pire, incluent la modération de contenu dans le cadre du service qu'elles fournissent. Depuis le début de la pandémie en particulier, cependant, Zoom a été utilisé dans le monde entier plus comme une compagnie de téléphone qu'une plate-forme. Et tout comme vous ne vous attendez pas à ce que votre compagnie de téléphone commence à prendre des décisions sur les personnes que vous pouvez appeler, vous ne vous attendez pas à ce que votre service de conférence commence à prendre des décisions concernant les personnes pouvant rejoindre votre réunion.

« C’est précisément pour cette raison que la décision ad hoc d’Amazon de couper l’hébergement sur les réseaux sociaux alternatifs Parler, face à la pression du public, devrait préoccuper quiconque s'inquiète de la façon dont les décisions relatives à la parole sont prises à long terme. À certains égards, l'éjection de Parler n'est pas un développement surprenant. Premièrement, ce n'est en aucun cas la première instance de modération à ce niveau de la pile. Les exemples antérieurs incluent le refus d'Amazon de fournir ses services à WikiLeaks et à l'ensemble du pays iranien. Deuxièmement, la pression intérieure sur des entreprises comme Amazon pour qu'elles se détachent de Parler était intense. Après tout, dans les jours qui ont précédé son retrait par Amazon, Parler a été l'hôte de menaces outrageusement violentes contre des politiciens élus de la part de ses utilisateurs vérifiés, y compris l'avocat L. Lin Wood.

« Mais déconnecter des infrastructures représentent néanmoins un écart significatif par rapport aux attentes de la plupart des utilisateurs. D'une part, ils sont cumulatifs, car tous les discours sur Internet reposent sur plusieurs hôtes d'infrastructure. Si les utilisateurs doivent se soucier de satisfaire non seulement les conditions générales de leur hôte, mais également celles de tous les services de la chaîne, du locuteur à l'auditoire, même si le locuteur réel peut même ne pas être au courant de tous ces services ou de l'endroit où il fait la distinction entre discours haineux et non haineux - de nombreux utilisateurs éviteront tout simplement de partager des opinions controversées. Ils sont également moins précis. Dans le passé, nous avons vu des sites Web de grande taille entiers assombris par des hôtes en amont en raison d'une plainte concernant un seul document publié. Plus généralement, les déconnections au niveau de l'infrastructure nous amènent plus loin vers un Web parfaitement verrouillé et hautement surveillé, à partir duquel un haut-parleur peut être efficacement éjecté à tout moment.

« À l'avenir, nous verrons probablement plus de cas qui ressemblent à la censure par Zoom d'un panel universitaire que d'Amazon coupant un autre Parler. Néanmoins, la décision d'Amazon met en évidence des questions fondamentales de notre époque : qui devrait décider si un discours est acceptable, et dans quelle mesure les entreprises au niveau de l'infrastructure devraient-elles jouer un rôle dans la censure ?

« Chez EFF, nous pensons que la réponse est à la fois simple et stimulante : dans la mesure du possible, les utilisateurs doivent décider par eux-mêmes, et les entreprises au niveau de l'infrastructure doivent rester en dehors de cela. L'approche la plus ferme et la plus cohérente des points d'étranglement de l'infrastructure est de simplement refuser d'être des points d'étranglement. Ils devraient agir pour défendre leur rôle de relais, plutôt que d'éditeur. Tout comme le droit et la coutume ont développé une norme selon laquelle nous pourrions poursuivre un éditeur pour diffamation, mais pas le propriétaire du bâtiment occupé par l'éditeur, nous développons lentement des normes sur la responsabilité du contenu en ligne. Des entreprises comme Zoom et Amazon ont la possibilité de façonner ces normes, pour le meilleur ou pour le pire ».

Source : EFF

Et vous ?

Qu'en pensez-vous ? Qui devrait décider si un discours est acceptable, et dans quelle mesure les entreprises au niveau de l'infrastructure devraient-elles jouer un rôle dans la censure ?
« Bien que nous ayons de nombreuses inquiétudes quant à la manière dont les plateformes de médias sociaux comme Facebook, YouTube et Twitter prennent des décisions en matière de discours, nous avons vu la décision de Zoom différemment. Des entreprises comme Facebook et YouTube, pour le meilleur ou pour le pire, incluent la modération de contenu dans le cadre du service qu'elles fournissent. Depuis le début de la pandémie en particulier, cependant, Zoom a été utilisé dans le monde entier plus comme une compagnie de téléphone qu'une plate-forme. Et tout comme vous ne vous attendez pas à ce que votre compagnie de téléphone commence à prendre des décisions sur les personnes que vous pouvez appeler, vous ne vous attendez pas à ce que votre service de conférence commence à prendre des décisions concernant les personnes pouvant rejoindre votre réunion ». Partagez-vous cette perspective de l'EFF ?
Que pensez-vous de son argumentation dans l'absolu ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de TotoParis
Membre expérimenté https://www.developpez.com
Le 18/01/2021 à 20:34
Et n'oublions la "cancel culture"...
https://www.bvoltaire.fr/hollywood-e...mp-enormement/ : cette censure, cet effacement de Trump était un avertissement. Ceux qui ont le DVD avant censure ont un objet collector...

"Connaissez-vous la « cancel culture », ou la « call-out culture », arme idéologique des tenants de la désoccidentalisation massive made in USA pour imposer aux sociétés une démocrature globale ? Voilà un moyen éprouvé, pour les oligarques de tout poil, négateurs des patries, d’instiller au cœur des sociétés une contre-morale d’asservissement des vigueurs, de renversement des valeurs, d’assurer l’élimination des individualités mal-pensantes et d’imposer à la fourmilière humaine le virus du totalitarisme mou."

La méthode de l'effacement était utilisée après l'assassinat d'adversaires ou de personnages tombés en disgrâce, en ex-Union Soviétique :
https://wikirouge.net/Censure_des_im...ion_soviétique
https://fr.wikipedia.org/wiki/Censur...ion_soviétique
https://twitter.com/arielliefeldt/st...31069080743943
https://cdn8.openculture.com/2017/08...r-vanishes.jpg

Le Camp du Bien a encore bien frappé.
N'oubliez pas ce qu'ils ont fait : préparez-vous à ce qu'ils vont faire.
0  0