Aux États-Unis, le PDG de Meta, Mark Zuckerberg, et d'autres dirigeants d'entreprises technologiques témoigneront devant le Sénat sur la sécurité des enfants le 31 janvier, tandis qu'en Europe, des lois strictes obligent les grandes entreprises technologiques à être responsables du contenu partagé sur leurs plateformes.
« Meta fait évoluer ses politiques concernant les contenus qui pourraient être plus sensibles pour les adolescents, ce qui constitue une étape importante pour faire des plateformes de médias sociaux des espaces où les adolescents peuvent se connecter et être créatifs d'une manière adaptée à leur âge. Ces politiques reflètent les connaissances actuelles et les conseils d'experts concernant la sécurité et le bien-être des adolescents. Au fur et à mesure que ces changements se produisent, ils offrent de bonnes occasions aux parents de discuter avec leurs adolescents de la manière de gérer les sujets difficiles », Rachel Rodgers, professeur associé, département de psychologie appliquée, Northeastern University.
Le parcours de Facebook dans le ciblage des jeunes utilisateurs et la réaction réglementaire
En avril 2021, Facebook (Meta) a suscité des inquiétudes en annonçant des projets visant à développer une version d'Instagram destinée aux enfants de moins de 13 ans. Cette décision a été critiquée par une coalition internationale de défenseurs de la santé des enfants, soulignant les préoccupations liées à la manipulation et à l'exploitation potentielles des jeunes utilisateurs. Bien que Facebook affirmait vouloir créer une expérience adaptée à l'âge des enfants et axée sur la sécurité, les signataires de la lettre ouverte ont exprimé leurs doutes des véritables intentions de l'entreprise. Ils citent des risques pour la santé mentale des enfants, faisant référence à une étude classant Instagram comme la pire plateforme pour la santé mentale des jeunes.
En septembre 2021, des documents internes de Facebook révélés par le Wall Street Journal dévoilent les efforts de l'entreprise pour exploiter les préadolescents considérés comme une « richesse inexploitée ». Les documents montrent que Facebook envisageait de tirer parti des rendez-vous de jeu pour inciter davantage d'enfants à utiliser l'application Messenger Kids. Cette révélation s'inscrit dans la série d'enquêtes du WSJ, The Facebook Files, mettant en lumière les efforts de Facebook pour cibler et engager les jeunes enfants malgré une baisse de popularité parmi les adolescents. Les documents internes révèlent la préoccupation de Facebook quant à sa perte de terrain face à des applications concurrentes telles que Snapchat et TikTok, ainsi qu'une baisse de 19 % du nombre d'adolescents utilisant Facebook chaque jour au cours des deux dernières années. Facebook prévoyait une chute d'environ 45 % de son audience adolescente en 2023 et cherchait des moyens d'inciter les enfants à utiliser Messenger Kids pour éviter cette diminution.
En octobre 2021, Facebook a annoncé la suspension temporaire de son projet Instagram Kids, une version destinée aux enfants de moins de 13 ans, suite à des préoccupations exprimées par des législateurs et d'autres parties concernant les effets potentiels de la plateforme sur la santé mentale des jeunes. Adam Mosseri, responsable d'Instagram, a déclaré que cette pause permettrait à l'entreprise de prendre en compte les préoccupations, de démontrer la valeur de la version pour enfants, censée être dépourvue de publicité et permettant aux parents de surveiller l'activité des enfants.
Cette décision fait suite à une enquête du Wall Street Journal révélant que les recherches internes de Facebook indiquaient qu'Instagram était potentiellement dangereux pour un pourcentage important de jeunes utilisateurs, en particulier les adolescentes ayant des problèmes d'image corporelle, suscitant ainsi des inquiétudes sur l'impact de l'application sur la santé mentale des adolescents. Facebook a contesté ces conclusions tout en soulignant la nécessité de créer des espaces numériques fiables pour les enfants, où les parents peuvent mieux surveiller leurs activités plutôt que de les empêcher totalement d'accéder en ligne.
Dans un article de blog daté du 22 octobre 2023, David Colborne, chroniqueur et responsable informatique pour The Nevada Independent, critique la Kids Online Safety Act, une loi régulant l'âge et le contenu des utilisateurs en ligne. Colborne affirme que cette loi, censée protéger les enfants, porte atteinte à leur vie privée et à leur liberté d'expression. Il souligne que la législation actuelle ne répond pas efficacement aux véritables dangers en ligne tels que le harcèlement, la haine, la violence et la publicité. Selon lui, cette loi risque d'être anticonstitutionnelle en instaurant une forme excessive et indiscriminée de censure.
Dans un contexte où les enfants passent de plus en plus de temps en ligne dès un jeune âge, avec un nouvel enfant connecté toutes les demi-secondes dans le monde, Colborne reconnaît les opportunités éducatives et sociales offertes par l'internet. Cependant, il met en garde contre les risques inhérents à cette présence en ligne croissante. La cyberintimidation et d'autres formes de violence entre pairs peuvent impacter les jeunes lors de leur utilisation des médias sociaux et des plateformes de messagerie instantanée. L'exposition à des discours haineux et à des contenus violents, incluant des incitations à l'automutilation et au suicide, est également soulignée comme une préoccupation majeure. Colborne cite des statistiques alarmantes, indiquant que 80 % des enfants dans 25 pays se sentent en danger d'abus sexuel ou d'exploitation en ligne.
En outre, il met en avant le danger que représentent les violations de la vie privée des enfants par les entreprises technologiques, qui collectent des données à des fins de marketing ciblé. Le marketing dirigé vers les enfants par le biais d'applications, souvent associé à une utilisation excessive de l'écran, peut compromettre le développement sain des enfants.
En janvier 2023, la secrétaire d'État britannique à la culture, Michele Donelan, a envisagé des modifications au projet de loi sur la sécurité en ligne pour permettre la poursuite des dirigeants de médias sociaux qui ne protègent pas la sécurité des enfants. Un amendement, soutenu par des députés conservateurs, y compris Priti Patel et Iain Duncan Smith, propose de donner à l'Ofcom le pouvoir de poursuivre individuellement les cadres complices de violations de la loi sur la sécurité des enfants.
Ces dirigeants pourraient être condamnés à des peines de prison allant jusqu'à deux ans. Le projet de loi prévoit également des changements dans la répression des contenus préjudiciables vus par des adultes, avec des obligations de transparence accrues pour les entreprises technologiques en matière de modération de ces contenus, et la possibilité pour les utilisateurs de demander leur suppression des plateformes de médias sociaux.
Au-delà du porno, les législateurs ont fait savoir qu'ils étaient prêts à imposer des limites d'âge sur de larges pans de l'internet afin de protéger les enfants de certains contenus (légaux), tels que ceux qui traitent du suicide ou des troubles de l'alimentation. Depuis des années, des rapports indiquent que les fils d'actualité des adolescents sont inondés de contenus préjudiciables, par exemple. Mais le blocage de tous les contenus autres que ceux que les plateformes jugent dignes de confiance et acceptables pourrait empêcher les jeunes d'accéder à d'autres ressources éducatives ou de soutien.
Dans le même temps, dans l'UE, la loi sur les services numériques tient les grandes entreprises technologiques, dont Meta et TikTok, responsables du contenu partagé sur leurs plateformes, avec des règles concernant la transparence algorithmique et le ciblage publicitaire. La Commission européenne a présenté en décembre 2020 deux propositions législatives, le Digital Services Act (DSA) et le Digital Markets Act (DMA), visant à réguler le secteur numérique. Un accord provisoire a été trouvé pour le DMA en mars 2022 et pour le DSA en avril 2022. Ces règlements ont pour objectif de mettre fin à l'irresponsabilité des géants du numérique en créant un cadre de régulation adapté aux défis actuels tout en préservant l'innovation. Le DSA, remplaçant la directive sur le commerce électronique obsolète de 2000, vise à établir des règles communes pour les intermédiaires en ligne et garantir un niveau élevé de protection des utilisateurs.
Les impacts de la législation sur les services numériques
Le Conseil de l'UE a salué l'accord sur le DSA, le décrivant comme une première mondiale en matière de régulation du numérique. Les nouvelles règles sont conçues pour mieux protéger les consommateurs en ligne, assurer la transparence des plateformes et favoriser l'innovation tout en rééquilibrant les responsabilités entre les utilisateurs, les plateformes et les pouvoirs publics. Ces règlements s'appliqueront à tous les intermédiaires en ligne opérant dans le marché unique de l'UE, avec des obligations adaptées à leur rôle, taille et impact sur l'écosystème en ligne.
Les micro- et petites entreprises auront des obligations proportionnées à leur taille pour rester responsables. Ces nouvelles règles visent à offrir plus de choix, des prix plus bas, une exposition moindre aux contenus illicites et une protection accrue des droits fondamentaux pour les citoyens et les entreprises utilisant des services numériques. En résumé, la législation sur les services numériques vise à créer un environnement en ligne plus sûr, transparent et propice à l'innovation au sein du marché unique européen.
Chaque géant de la technologie avait jusqu'au 17 février 2023 pour divulguer ses données sur le nombre d'utilisateurs mensuels, et ceux qui dépassent le seuil ont maintenant quatre mois pour se conformer aux nouvelles règles, sous peine de lourdes amendes. Twitter a signalé 100 millions d'utilisateurs mensuels dans l'UE, Google a présenté des chiffres pour Google Maps, Play, Search, Shopping, et YouTube, tandis que Meta Platforms a détaillé les données d'utilisation de Facebook et Instagram.
Au Royaume-Uni, la loi sur la sécurité en ligne, entrée en vigueur en octobre, oblige désormais les plateformes en ligne à se conformer aux règles de sécurité des enfants, sous peine d'amendes. La loi sur la sécurité en ligne a pour objectif de faire du Royaume-Uni « l'endroit le plus sûr au monde pour être en ligne », mais elle a suscité de vives critiques, estimant qu'elle pourrait porter atteinte à la vie privée des utilisateurs. L'application de messagerie cryptée Signal, par exemple, a déclaré qu'elle quitterait le Royaume-Uni plutôt que de collecter davantage de données susceptibles de mettre en péril la vie privée des utilisateurs.
Les nouvelles mesures soulèvent des questions sur la censure
La société Meta a aujourd'hui qu'elle interdisait aux adolescents de consulter des contenus traitant de sujets tels que le suicide, l'automutilation et les troubles de l'alimentation. Ces contenus, qui, selon Meta, peuvent ne pas être "adaptés à l'âge" des jeunes, ne seront pas visibles même s'ils sont partagés par une personne que l'adolescent suit.
Si un adolescent recherche ce type de contenu sur Facebook et Instagram, il sera dirigé vers des « ressources d'aide expertes » telles que la National Alliance on Mental Illness, selon Meta. Les utilisateurs adolescents peuvent également ne pas savoir si les contenus de ces catégories sont partagés et qu'ils ne peuvent pas les voir. Cette modification sera étendue aux utilisateurs de moins de 18 ans au cours des prochains mois.
En plus de masquer le contenu des catégories sensibles, les comptes des adolescents seront également soumis par défaut à des paramètres de filtrage restrictifs qui modifient le type de contenu qu'ils voient sur Facebook et Instagram. Ce changement affecte les posts recommandés dans Search et Explore qui pourraient être « sensibles » ou « de faible qualité », et Meta réglera automatiquement tous les comptes d'adolescents sur les paramètres les plus stricts, bien que ces paramètres puissent être modifiés par les utilisateurs.
La décision de Meta d'implémenter des mesures visant à protéger les adolescents de contenus sensibles liés au suicide, à l'automutilation et aux troubles de l'alimentation est sujette à une évaluation nuancée. D'un côté, ces actions témoignent d'une responsabilité accrue de la part de l'entreprise en réponse à des préoccupations légitimes concernant la sécurité des adolescents en ligne. D'un autre côté, cela soulève des questions sur la ligne fine entre la protection des utilisateurs et la censure.
D'un point de vue positif, l'initiative de Meta d'empêcher les adolescents de voir des contenus potentiellement dangereux et de les rediriger vers des ressources d'aide spécialisées démontre une prise de conscience de l'impact potentiellement néfaste de certaines informations sur la santé mentale des jeunes utilisateurs. Cela pourrait être interprété comme une mesure proactive visant à créer un environnement en ligne plus sécurisé et à prévenir des situations graves.
Cependant, la question de savoir si ces actions représentent une forme de censure dépend de la perspective adoptée. Certains pourraient applaudir ces mesures comme une intervention nécessaire pour protéger les adolescents vulnérables, tandis que d'autres pourraient exprimer des préoccupations quant à la restriction de l'accès à certaines informations, argumentant que cela limite la liberté d'expression et l'autonomie des utilisateurs, même s'il s'agit d'une population jeune.
La surveillance gouvernementale concernant la sécurité des enfants sur les plateformes de Meta souligne également le défi complexe de trouver un équilibre entre la protection des utilisateurs les plus jeunes et le respect de principes tels que la liberté d'expression. Il est essentiel de s'interroger sur la manière dont ces mesures sont mises en œuvre, surveillées et ajustées afin d'éviter tout excès qui pourrait conduire à une forme de censure indue.
Source : Meta
Et vous ?
Quel est votre avis sur le sujet ?
Dans quelle mesure ces nouvelles mesures de protection des adolescents sont-elles une réponse efficace aux préoccupations liées à la sécurité sur les plateformes de Meta, et sont-elles susceptibles de résoudre les problèmes sous-jacents ?
Les récentes annonces de Meta concernant la protection des adolescents ne sont-elles pas simplement une réaction à la pression gouvernementale, plutôt qu'une initiative proactive de l'entreprise ?
Face aux multiples scandales liés à la confidentialité des données et aux contenus nuisibles sur ses plateformes, comment Meta peut-elle garantir que ces nouvelles mesures ne sont pas simplement des actions superficielles pour redorer son image ?
En tant que société qui a profité de la viralité de contenus controversés par le passé, comment Meta peut-elle prétendre sérieusement vouloir créer un environnement en ligne plus sûr pour les adolescents sans compromettre ses propres intérêts commerciaux ?
Voir aussi :
Instagram pour les enfants ? Mark Zuckerberg cible maintenant vos enfants et si le milliardaire les attrape tôt, il les aura pour la vie
Des documents internes de Facebook divulgués décrivent les enfants de 10 à 12 ans comme une « richesse inexploitée » et contiennent des plans pour attirer les enfants sur le réseau social
Facebook suspend son projet de lancer Instagram Kids, cette décision fait suite aux préoccupations concernant les effets sur la santé mentale des moins de 13 ans
Réseaux sociaux et santé mentale des enfants : le Royaume-Uni pourrait emprisonner les responsables de médias sociaux, qui enfreignent les règles de sécurité des enfants
La loi sur la sécurité des enfants en ligne (Kids Online Safety Act) serait préjudiciable à la liberté et à la sécurité des enfants, selon David Colborne, chroniqueur et responsable informatique