IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La France s'intéresse à la création d'un cadre de responsabilisation des réseaux sociaux
Estimant que la règle européenne actuelle est inefficace

Le , par Stéphane le calme

713PARTAGES

11  1 
La France s'intéresse à la création d'un cadre de responsabilisation des réseaux sociaux,
estimant que la règle européenne actuelle est inefficace

Les réseaux sociaux permettent à tout citoyen de publier les contenus de son choix et de les partager avec d’autres utilisateurs du réseau. Ils ont ainsi révolutionné l’industrie des médias et les modes de communication en offrant aux citoyens et à la société civile un support d’expression directe. Le recours aux médias classiques n’est plus obligatoire pour communiquer publiquement. La possibilité pour les citoyens d’exercer leurs libertés d’expression, de communication, et de s’informer sont donc considérablement accrues par ces services.

Néanmoins, les capacités offertes par les réseaux sociaux suscitent des abus de ces libertés jugés inacceptables par le gouvernement. « Ces abus sont le fait d’individus isolés ou de groupes organisés auxquels les grands réseaux sociaux, Facebook, YouTube, Twitter ou Snap, pour ne citer qu’eux, n’apportent pas de réponse pleinement satisfaisante à ce jour. Or, par l’ordonnancement qu’ils réalisent des contenus publiés et par leur politique de modération, les réseaux sociaux sont en mesure d’agir directement sur ces abus les plus manifestes pour les prévenir ou y répondre et limiter ainsi les dommages en termes de cohésion sociale ».

C’est la raison pour laquelle une intervention publique pour que les plus grands acteurs adoptent une attitude plus responsable et plus protectrice de la cohésion de nos sociétés apparaît légitime aux yeux de l’Etat. Compte tenu des enjeux de libertés publiques, cette intervention doit faire l’objet de précautions particulières. Elle doit (i) respecter la diversité des modèles de réseaux sociaux, qui forment un ensemble particulièrement hétéroclite, (ii) faire preuve de transparence, notamment en y associant la société civile, (iii) viser un objectif d’intervention minimum conformément aux principes de nécessité et de proportionnalité et (iv) s’en remettre aux juridictions pour la qualification de la licéité des contenus pris individuellement.

La démarche actuelle d’autorégulation des réseaux sociaux est intéressante en ce qu’elle démontre que les plateformes peuvent faire partie de la solution aux problèmes constatés. Elles ont inventé des réponses variées et agiles : retrait, moindre exposition, rappel à la règle commune, pédagogie, accompagnement des victimes. Toutefois, l’autorégulation est toujours en développement. Elle se contente trop souvent de proposer une réponse ex-post (après l’apparition du dommage). Elle manque de crédibilité, du fait de l’asymétrie extrême d’information, provoquant un sentiment de « story telling » qui suscite une suspicion sur la réalité de l’action de la plateforme.

Pour le gouvernement, l’intervention publique doit reposer sur un équilibre entre une politique répressive, indispensable pour lutter efficacement contre les auteurs des abus, et une logique de responsabilisation accrue des réseaux sociaux fondée sur une régulation ex ante, pour capitaliser sur la logique de prévention et la capacité d’autorégulation des plateformes.


Cédric O, Secrétaire d'État chargé du Numérique

Compte tenu de l’unicité et de l’ubiquité des réseaux sociaux, qui dépassent les frontières des États membres – un service unique accessible sur plusieurs géographies – cette régulation ex ante doit s’inscrire dans une dynamique et un cadre européens. Néanmoins, la règle actuelle dite du pays d’installation, selon laquelle seul le pays qui accueille le siège du réseau social peut intervenir pour réguler ce réseau, s’avère inefficace. Par les excès qu’ils permettent, les réseaux sociaux créent des dommages dans d’autres États membres, et difficilement observables par l’Etat membre d’installation.

Toute initiative française devra donc avoir pour ambition d’inverser la logique européenne actuelle au profit d’une logique du pays de destination, selon laquelle la plateforme est responsable devant l’État membre où le dommage se produit, pour renforcer la capacité de chacun des États membres à maîtriser les conséquences de la globalisation. Cet objectif doit être pris en compte dès la conception d’une fonction de régulation des réseaux sociaux pour que le dispositif apparaisse pertinent aux yeux de nos partenaires européens, alors même que la politique en matière de régulation des industries de médias diffère sensiblement d’un pays à l’autre.

« Régulation des réseaux sociaux – Expérimentation Facebook »

Commandée en mars 2019 par Mounir Mahjoubi, la mission a eu pour objet de préfigurer un cadre général de régulation des réseaux sociaux, en partant de la lutte contre la haine en ligne et en s’appuyant sur la collaboration volontaire, et hors de tout cadre juridique, de la société Facebook. Elle avait donc pour objectif de créer un cadre français de responsabilisation de ces services en ligne, estimant que le régime actuel n’est plus adapté. Ce rapport a été remis à Cédric O, secrétaire d’État en charge du Numérique.

En clair, la finalité de cette expérimentation consiste à imaginer comment une nouvelle fonction de régulation des réseaux sociaux pourrait être mise en place pour compléter les instruments actuels et permettre de mieux atteindre les objectifs de politique publique en termes de conciliation des libertés publiques et de sauvegarde de l’ordre public sur les réseaux sociaux. Les échanges avec Facebook ont ainsi été centrés sur les contenus haineux, mais la réflexion de la mission peut s’appliquer à l’ensemble des problématiques soulevées par la publication de contenus sur les réseaux sociaux.

Cette mission interministérielle a mobilisé sept experts de haut niveau et trois rapporteurs permanents provenant de services des ministères de la Culture, de l’Intérieur, de la Justice, de l’Économie, des services du Premier ministre – DILCRAH3 et DINSIC4 – et d’autorités administratives indépendantes – ARCEP5 et CSA6 .

Durant les mois de janvier et de février, des échanges ont eu lieu entre la mission et la société Facebook à l’occasion de plusieurs journées de travail à Paris, Dublin (où se situe le siège européen de Facebook) et Barcelone (où se situe l’un des centres de modération). Les représentants de la société ont présenté sa politique de modération des contenus haineux, son organisation, les moyens qu’elle y consacre et ses processus internes. Des réunions de travail d’approfondissement ont eu lieu en mars sur des sujets spécifiques tels que le recours aux algorithmes de détection de contenus haineux dans la fonction de modération ou les principes de base des algorithmes d’ordonnancement des contenus pour l’usager de Facebook.

Selon le rapport, la mise en place d’une régulation ex ante devrait respecter trois conditions : (i) suivre une logique de conformité selon laquelle le régulateur supervise la bonne mise en œuvre de mesures préventives ou correctrices, sans se focaliser sur la matérialisation des risques ni chercher à réglementer lui-même le service fourni, (ii) se concentrer sur les acteurs systémiques capables de créer des dommages conséquents dans nos sociétés sans créer de barrière à l’entrée pour de nouveaux acteurs européens, (iii) rester agile pour affronter les enjeux futurs dans un environnement numérique particulièrement évolutif. Le dispositif législatif devra donc viser à créer une capacité institutionnelle à réguler et non une régulation figée sur les problèmes actuels.

Cette régulation pourrait reposer sur les cinq piliers suivants :
  • Premier pilier : Une politique publique de régulation garante des libertés individuelles et de la liberté d’entreprendre des plateformes.
  • Deuxième pilier : Une régulation prescriptive et ciblée sur la responsabilisation des réseaux sociaux mise en œuvre par une autorité administrative indépendante, reposant sur trois obligations incombant aux plateformes :
    • transparence de la fonction d’ordonnancement des contenus ;
    • transparence de la fonction de mise en œuvre des CGU et de modération des contenus ;
    • un devoir de diligence vis-à-vis de ses utilisateurs.
  • Troisième pilier : Un dialogue politique informé entre les acteurs, le gouvernement, le législateur, le régulateur et la société civile.
  • Quatrième pilier : Une autorité administrative indépendante partenaire des autres branches de l’État et ouverte sur la société civile.
  • Cinquième pilier : Une ambition européenne pour renforcer la capacité des Etats membres à agir face à des plateformes globales, et réduire le risque politique lié à la mise en œuvre dans chaque État membre.


Premier pilier : Une politique publique de régulation garante des libertés individuelles et de la liberté d’entreprendre des plateformes

Pour fédérer les énergies politiques tant au niveau national qu’au niveau européen, et rassembler les institutions politiques et la société civile, ce schéma de régulation doit avoir pour objectifs de défendre l’exercice des droits et des libertés sur les plateformes de réseaux sociaux :
  • la liberté d’expression et de communication des utilisateurs, qui sont à ce titre en droit de savoir si la plateforme respecte cette liberté d’expression ;
  • le droit des utilisateurs au respect de leur intégrité physique et morale, y compris sur les réseaux sociaux et dans l’espace numérique ;
  • la liberté d’entreprendre des réseaux sociaux, y compris le droit à édicter et appliquer des CGU, à exercer une fonction d’ordonnancement libre de l’information, et à innover (en particulier pour les plus petits acteurs).

D’autres objectifs pourraient également être pris en compte :
  • le pluralisme des services de réseaux sociaux qui implique notamment de veiller à ne pas créer de barrières à l’entrée via une politique de régulation trop contraignante pour des nouveaux acteurs ;
  • la cohésion sociale en encourageant les réseaux sociaux à développer des usages « positifs » de leurs services, i.e. contribuant au renforcement du lien social.



Deuxième pilier : Une régulation prescriptive et ciblée sur la responsabilisation des réseaux sociaux mise en œuvre par une autorité administrative indépendante
  • Une régulation prescriptive limitée aux plateformes structurantes au niveau de chaque État membre avec deux seuils de déclenchement :
    • La régulation s’appliquerait d’office pour les services dont le nombre mensuel d’utilisateurs dépasse un certain pourcentage de la population de l'État membre (entre 10 % et 20 %) ;
    • Elle s’appliquerait uniquement sur décision motivée du régulateur en cas de défaillance constatée et persistante pour les services dont le nombre mensuel d’utilisateurs se situerait entre 0 % et 5 % de la population de l'État membre. Il convient de noter que plus ce second seuil d’application est bas plus le test d’impact devra être strict et exigeant pour respecter un principe général de proportionnalité ;
    • En deçà, la régulation n’est pas applicable mais le droit commun de la LCEN demeure et permet de mettre en cause la responsabilité civile et pénale des acteurs en cas de manquements.
  • Des obligations de transparence qui porteraient sur les fonctions clés des réseaux sociaux :
    • la « fonction d’ordonnancement des contenus, c’est-à-dire les modalités de présentation, de hiérarchisation et de ciblage des contenus publiés par les utilisateurs, y compris lorsqu’ils sont promus par la plateforme ou par un tiers en contrepartie d’une rémunération ;
    • la fonction de mise en œuvre des CGU et de modération des contenus, incluant les modalités d’élaboration de ces règles communautaires, les procédures, les moyens humains et technologiques mis en œuvre pour assurer le respect de ces CGU et pour lutter contre les contenus illicites. Cette fonction doit être auditable par le régulateur et/ou par un auditeur indépendant de la plateforme. La transparence se traduirait par exemple par :
      • l’obligation pour le service de notifier sa décision à l’auteur du contenu modéré (sauf exceptions légitimes : besoins des autorités publique de poursuite) et l’auteur du signalement (s’il existe) ; mécanisme indépendant et extra-judiciaire de réexamen de la décision de la plateforme (sans préjudice d’un recours juridictionnel) ;
      • des informations sur le recours aux outils de traitement automatisés : quels outils sont utilisés, pour quels types de contenus, avec quelle supervision humaine ? Comment leur efficacité et leur précision est-elle évaluée ?
      • des éléments sur les modalités de coopération avec des « partenaires de confiance » (« trusted flaggers ») : liste, modalités de sélection, « privilèges » attachés à ce statut, données statistiques sur le nombre de signalement examinés, le nombre de contenus détectés proactivement, les suites données (retrait, maintien ou autre), les recours traités, etc.
      • des statistiques sur l’efficacité de la modération : délais de décision (quelle qu’elle soit), taux de faux positif / négatif, viralité / audience des contenus contraires aux standards avant qu’ils soient retirés (cf. notion de prévalence), etc.

  • Un devoir de diligence du réseau social vis-à-vis de ses utilisateurs : par cette obligation qui s’approche du « duty of care » anglo-saxon, les réseaux sociaux s’engageraient à assumer une responsabilité vis-à-vis de leurs utilisateurs concernant des abus d’autres membres et des tentatives de manipulation de la plateforme par des tiers. Une telle obligation de moyen permettrait une intervention de la puissance publique s’il apparaît que la démarche, volontaire à ce jour, des plateformes de veiller à ce que leurs usagers puissent se sentir en confiance, via la création de fonction dites de « Trust and safety » (« confiance et sécurité ») ou la fonction de modération manquaient de moyens.


[B][SIZE=3]Troisième pilier : Un dialogue politique informé entre les acteurs, le gouvernement, le législateur, le r[/size=3]...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de blbird
Membre chevronné https://www.developpez.com
Le 16/05/2019 à 20:10
Quelle usine à gaz. On paye vraiment du monde pour pondre ca?? Le RGPD à côté c'est peanuts.

Le seul point positif que j'y ai vu c'est celui-là :
l’obligation pour le service de notifier sa décision à l’auteur du contenu modéré (sauf exceptions légitimes : besoins des autorités publique de poursuite) et l’auteur du signalement (s’il existe) ; mécanisme indépendant et extra-judiciaire de réexamen de la décision de la plateforme (sans préjudice d’un recours juridictionnel)
0  0