Meta, la société mère de Facebook et Instagram, répond à la pression gouvernementale en annonçant des mesures visant à protéger les adolescents de contenus sensibles liés au suicide, à l'automutilation et aux troubles de l'alimentation. Les adolescents ne pourront plus voir ces contenus, même s'ils sont partagés par leurs amis, et seront redirigés vers des ressources d'aide expertes en cas de recherche de telles informations. Les comptes d'adolescents seront soumis à des paramètres de filtrage restrictifs par défaut, modifiant le type de contenu visible. Ces changements surviennent alors que Meta est sous surveillance gouvernementale concernant la sécurité des enfants sur ses plateformes. Aux États-Unis, le PDG de Meta, Mark Zuckerberg, et d'autres dirigeants d'entreprises technologiques témoigneront devant le Sénat sur la sécurité des enfants le 31 janvier, tandis qu'en Europe, des lois strictes obligent les grandes entreprises technologiques à être responsables du contenu partagé sur leurs plateformes.
« Meta fait évoluer ses politiques concernant les contenus qui pourraient être plus sensibles pour les adolescents, ce qui constitue une étape importante pour faire des plateformes de médias sociaux des espaces où les adolescents peuvent se connecter et être créatifs d'une manière adaptée à leur âge. Ces politiques reflètent les connaissances actuelles et les conseils d'experts concernant la sécurité et le bien-être des adolescents. Au fur et à mesure que ces changements se produisent, ils offrent de bonnes occasions aux parents de discuter avec leurs adolescents de la manière de gérer les sujets difficiles », Rachel Rodgers, professeur associé, département de psychologie appliquée, Northeastern University.
Le parcours de Facebook dans le ciblage des jeunes utilisateurs et la réaction réglementaire
En avril 2021, Facebook (Meta) a suscité des inquiétudes en annonçant des projets visant à développer une version d'Instagram destinée aux enfants de moins de 13 ans. Cette décision a été critiquée par une coalition internationale de défenseurs de la santé des enfants, soulignant les préoccupations liées à la manipulation et à l'exploitation potentielles des jeunes utilisateurs. Bien que Facebook affirmait vouloir créer une expérience adaptée à l'âge des enfants et axée sur la sécurité, les signataires de la lettre ouverte ont exprimé leurs doutes des véritables intentions de l'entreprise. Ils citent des risques pour la santé mentale des enfants, faisant référence à une étude classant Instagram comme la pire plateforme pour la santé mentale des jeunes.
En septembre 2021, des documents internes de Facebook révélés par le Wall Street Journal dévoilent les efforts de l'entreprise pour exploiter les préadolescents considérés comme une « richesse inexploitée ». Les documents montrent que Facebook envisageait de tirer parti des rendez-vous de jeu pour inciter davantage d'enfants à utiliser l'application Messenger Kids. Cette révélation s'inscrit dans la série d'enquêtes du WSJ, The Facebook Files, mettant en lumière les efforts de Facebook pour cibler et engager les jeunes enfants malgré une baisse de popularité parmi les adolescents. Les documents internes révèlent la préoccupation de Facebook quant à sa perte de terrain face à des applications concurrentes telles que Snapchat et TikTok, ainsi qu'une baisse de 19 % du nombre d'adolescents utilisant Facebook chaque jour au cours des deux dernières années. Facebook prévoyait une chute d'environ 45 % de son audience adolescente en 2023 et cherchait des moyens d'inciter les enfants à utiliser Messenger Kids pour éviter cette diminution.
En octobre 2021, Facebook a annoncé la suspension temporaire de son projet Instagram Kids, une version destinée aux enfants de moins de 13 ans, suite à des préoccupations exprimées par des législateurs et d'autres parties concernant les effets potentiels de la plateforme sur la santé mentale des jeunes. Adam Mosseri, responsable d'Instagram, a déclaré que cette pause permettrait à l'entreprise de prendre en compte les préoccupations, de démontrer la valeur de la version pour enfants, censée être dépourvue de publicité et permettant aux parents de surveiller l'activité des enfants.
Cette décision fait suite à une enquête du Wall Street Journal révélant que les recherches internes de Facebook indiquaient qu'Instagram était potentiellement dangereux pour un pourcentage important de jeunes utilisateurs, en particulier les adolescentes ayant des problèmes d'image corporelle, suscitant ainsi des inquiétudes sur l'impact de l'application sur la santé mentale des adolescents. Facebook a contesté ces conclusions tout en soulignant la nécessité de créer des espaces numériques fiables pour les enfants, où les parents peuvent mieux surveiller leurs activités plutôt que de les empêcher totalement d'accéder en ligne.
Dans un article de blog daté du 22 octobre 2023, David Colborne, chroniqueur et responsable informatique pour The Nevada Independent, critique la Kids Online Safety Act, une loi régulant l'âge et le contenu des utilisateurs en ligne. Colborne affirme que cette loi, censée protéger les enfants, porte atteinte à leur vie privée et à leur liberté d'expression. Il souligne que la législation actuelle ne répond pas efficacement aux véritables dangers en ligne tels que le harcèlement, la haine, la violence et la publicité. Selon lui, cette loi risque d'être anticonstitutionnelle en instaurant une forme excessive et indiscriminée de censure.
Dans un contexte où les enfants passent de plus en plus de temps en ligne dès un jeune âge, avec un nouvel enfant connecté toutes les demi-secondes dans le monde, Colborne reconnaît les opportunités éducatives et sociales offertes par l'internet. Cependant, il met en garde contre les risques inhérents à cette présence en ligne croissante. La cyberintimidation et d'autres formes de violence entre pairs peuvent impacter les jeunes lors de leur utilisation des médias sociaux et des plateformes de messagerie instantanée. L'exposition à des discours haineux et à des contenus violents, incluant des incitations à l'automutilation et au suicide, est également soulignée comme une préoccupation majeure. Colborne cite des statistiques alarmantes, indiquant que 80 % des enfants dans 25 pays se sentent en danger d'abus sexuel ou d'exploitation en ligne.
En outre, il met en avant le danger que représentent les violations de la vie privée des enfants par les entreprises technologiques, qui collectent des données à des fins de marketing ciblé. Le marketing dirigé vers les enfants par le biais d'applications, souvent associé à une utilisation excessive de l'écran, peut compromettre le développement sain des enfants.
En janvier 2023, la secrétaire d'État britannique à la culture, Michele Donelan, a envisagé des modifications au projet de loi sur la sécurité en ligne pour permettre [URL="https://droit.developpez.com/actu/340349/Reseaux-sociaux-et-sante-mentale-des-enfants-le-Royaume-Uni-pourrait...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
