IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les adolescents sur Facebook et Instagram ne pourront plus voir les contenus sur l'automutilation, le suicide et les troubles de l'alimentation,
Même si leurs amis les partagent

Le , par Bruno

380PARTAGES

8  0 
Meta, la société mère de Facebook et Instagram, répond à la pression gouvernementale en annonçant des mesures visant à protéger les adolescents de contenus sensibles liés au suicide, à l'automutilation et aux troubles de l'alimentation. Les adolescents ne pourront plus voir ces contenus, même s'ils sont partagés par leurs amis, et seront redirigés vers des ressources d'aide expertes en cas de recherche de telles informations. Les comptes d'adolescents seront soumis à des paramètres de filtrage restrictifs par défaut, modifiant le type de contenu visible. Ces changements surviennent alors que Meta est sous surveillance gouvernementale concernant la sécurité des enfants sur ses plateformes.

Aux États-Unis, le PDG de Meta, Mark Zuckerberg, et d'autres dirigeants d'entreprises technologiques témoigneront devant le Sénat sur la sécurité des enfants le 31 janvier, tandis qu'en Europe, des lois strictes obligent les grandes entreprises technologiques à être responsables du contenu partagé sur leurs plateformes.


« Meta fait évoluer ses politiques concernant les contenus qui pourraient être plus sensibles pour les adolescents, ce qui constitue une étape importante pour faire des plateformes de médias sociaux des espaces où les adolescents peuvent se connecter et être créatifs d'une manière adaptée à leur âge. Ces politiques reflètent les connaissances actuelles et les conseils d'experts concernant la sécurité et le bien-être des adolescents. Au fur et à mesure que ces changements se produisent, ils offrent de bonnes occasions aux parents de discuter avec leurs adolescents de la manière de gérer les sujets difficiles », Rachel Rodgers, professeur associé, département de psychologie appliquée, Northeastern University.

Le parcours de Facebook dans le ciblage des jeunes utilisateurs et la réaction réglementaire

En avril 2021, Facebook (Meta) a suscité des inquiétudes en annonçant des projets visant à développer une version d'Instagram destinée aux enfants de moins de 13 ans. Cette décision a été critiquée par une coalition internationale de défenseurs de la santé des enfants, soulignant les préoccupations liées à la manipulation et à l'exploitation potentielles des jeunes utilisateurs. Bien que Facebook affirmait vouloir créer une expérience adaptée à l'âge des enfants et axée sur la sécurité, les signataires de la lettre ouverte ont exprimé leurs doutes des véritables intentions de l'entreprise. Ils citent des risques pour la santé mentale des enfants, faisant référence à une étude classant Instagram comme la pire plateforme pour la santé mentale des jeunes.

En septembre 2021, des documents internes de Facebook révélés par le Wall Street Journal dévoilent les efforts de l'entreprise pour exploiter les préadolescents considérés comme une « richesse inexploitée ». Les documents montrent que Facebook envisageait de tirer parti des rendez-vous de jeu pour inciter davantage d'enfants à utiliser l'application Messenger Kids. Cette révélation s'inscrit dans la série d'enquêtes du WSJ, The Facebook Files, mettant en lumière les efforts de Facebook pour cibler et engager les jeunes enfants malgré une baisse de popularité parmi les adolescents. Les documents internes révèlent la préoccupation de Facebook quant à sa perte de terrain face à des applications concurrentes telles que Snapchat et TikTok, ainsi qu'une baisse de 19 % du nombre d'adolescents utilisant Facebook chaque jour au cours des deux dernières années. Facebook prévoyait une chute d'environ 45 % de son audience adolescente en 2023 et cherchait des moyens d'inciter les enfants à utiliser Messenger Kids pour éviter cette diminution.

En octobre 2021, Facebook a annoncé la suspension temporaire de son projet Instagram Kids, une version destinée aux enfants de moins de 13 ans, suite à des préoccupations exprimées par des législateurs et d'autres parties concernant les effets potentiels de la plateforme sur la santé mentale des jeunes. Adam Mosseri, responsable d'Instagram, a déclaré que cette pause permettrait à l'entreprise de prendre en compte les préoccupations, de démontrer la valeur de la version pour enfants, censée être dépourvue de publicité et permettant aux parents de surveiller l'activité des enfants.

Cette décision fait suite à une enquête du Wall Street Journal révélant que les recherches internes de Facebook indiquaient qu'Instagram était potentiellement dangereux pour un pourcentage important de jeunes utilisateurs, en particulier les adolescentes ayant des problèmes d'image corporelle, suscitant ainsi des inquiétudes sur l'impact de l'application sur la santé mentale des adolescents. Facebook a contesté ces conclusions tout en soulignant la nécessité de créer des espaces numériques fiables pour les enfants, où les parents peuvent mieux surveiller leurs activités plutôt que de les empêcher totalement d'accéder en ligne.

Dans un article de blog daté du 22 octobre 2023, David Colborne, chroniqueur et responsable informatique pour The Nevada Independent, critique la Kids Online Safety Act, une loi régulant l'âge et le contenu des utilisateurs en ligne. Colborne affirme que cette loi, censée protéger les enfants, porte atteinte à leur vie privée et à leur liberté d'expression. Il souligne que la législation actuelle ne répond pas efficacement aux véritables dangers en ligne tels que le harcèlement, la haine, la violence et la publicité. Selon lui, cette loi risque d'être anticonstitutionnelle en instaurant une forme excessive et indiscriminée de censure.

Dans un contexte où les enfants passent de plus en plus de temps en ligne dès un jeune âge, avec un nouvel enfant connecté toutes les demi-secondes dans le monde, Colborne reconnaît les opportunités éducatives et sociales offertes par l'internet. Cependant, il met en garde contre les risques inhérents à cette présence en ligne croissante. La cyberintimidation et d'autres formes de violence entre pairs peuvent impacter les jeunes lors de leur utilisation des médias sociaux et des plateformes de messagerie instantanée. L'exposition à des discours haineux et à des contenus violents, incluant des incitations à l'automutilation et au suicide, est également soulignée comme une préoccupation majeure. Colborne cite des statistiques alarmantes, indiquant que 80 % des enfants dans 25 pays se sentent en danger d'abus sexuel ou d'exploitation en ligne.

En outre, il met en avant le danger que représentent les violations de la vie privée des enfants par les entreprises technologiques, qui collectent des données à des fins de marketing ciblé. Le marketing dirigé vers les enfants par le biais d'applications, souvent associé à une utilisation excessive de l'écran, peut compromettre le développement sain des enfants.

En janvier 2023, la secrétaire d'État britannique à la culture, Michele Donelan, a envisagé des modifications au projet de loi sur la sécurité en ligne pour permettre la poursuite des dirigeants de médias sociaux qui ne protègent pas la sécurité des enfants. Un amendement, soutenu par des députés conservateurs, y compris Priti Patel et Iain Duncan Smith, propose de donner à l'Ofcom le pouvoir de poursuivre individuellement les cadres complices de violations de la loi sur la sécurité des enfants.

Ces dirigeants pourraient être condamnés à des peines de prison allant jusqu'à deux ans. Le projet de loi prévoit également des changements dans la répression des contenus préjudiciables vus par des adultes, avec des obligations de transparence accrues pour les entreprises technologiques en matière de modération de ces contenus, et la possibilité pour les utilisateurs de demander leur suppression des plateformes de médias sociaux.

Au-delà du porno, les législateurs ont fait savoir qu'ils étaient prêts à imposer des limites d'âge sur de larges pans de l'internet afin de protéger les enfants de certains contenus (légaux), tels que ceux qui traitent du suicide ou des troubles de l'alimentation. Depuis des années, des rapports indiquent que les fils d'actualité des adolescents sont inondés de contenus préjudiciables, par exemple. Mais le blocage de tous les contenus autres que ceux que les plateformes jugent dignes de confiance et acceptables pourrait empêcher les jeunes d'accéder à d'autres ressources éducatives ou de soutien.

Dans le même temps, dans l'UE, la loi sur les services numériques tient les grandes entreprises technologiques, dont Meta et TikTok, responsables du contenu partagé sur leurs plateformes, avec des règles concernant la transparence algorithmique et le ciblage publicitaire. La Commission européenne a présenté en décembre 2020 deux propositions législatives, le Digital Services Act (DSA) et le Digital Markets Act (DMA), visant à réguler le secteur numérique. Un accord provisoire a été trouvé pour le DMA en mars 2022 et pour le DSA en avril 2022. Ces règlements ont pour objectif de mettre fin à l'irresponsabilité des géants du numérique en créant un cadre de régulation adapté aux défis actuels tout en préservant l'innovation. Le DSA, remplaçant la directive sur le commerce électronique obsolète de 2000, vise à établir des règles communes pour les intermédiaires en ligne et garantir un niveau élevé de protection des utilisateurs.

Les impacts de la législation sur les services numériques

Le Conseil de l'UE a salué l'accord sur le DSA, le décrivant comme une première mondiale en matière de régulation du numérique. Les nouvelles règles sont conçues pour mieux protéger les consommateurs en ligne, assurer la transparence des plateformes et favoriser l'innovation tout en rééquilibrant les responsabilités entre les utilisateurs, les plateformes et les pouvoirs publics. Ces règlements s'appliqueront à tous les intermédiaires en ligne opérant dans le marché unique de l'UE, avec des obligations adaptées à leur rôle, taille et impact sur l'écosystème en ligne.

Les micro- et petites entreprises auront des obligations proportionnées à leur taille pour rester responsables. Ces nouvelles règles visent à offrir plus de choix, des prix plus bas, une exposition moindre aux contenus illicites et une protection accrue des droits fondamentaux pour les citoyens et les entreprises utilisant des services numériques. En résumé, la législation sur les services numériques vise à créer un environnement en ligne plus sûr, transparent et propice à l'innovation au sein du marché unique européen.

Chaque géant de la technologie avait jusqu'au 17 février 2023 pour divulguer ses données sur le nombre d'utilisateurs mensuels, et ceux qui dépassent le seuil ont maintenant quatre mois pour se conformer aux nouvelles règles, sous peine de lourdes amendes. Twitter a signalé 100 millions d'utilisateurs mensuels dans l'UE, Google a présenté des chiffres pour Google Maps, Play, Search, Shopping, et YouTube, tandis que Meta Platforms a détaillé les données d'utilisation de Facebook et Instagram.

Au Royaume-Uni, la loi sur la sécurité en ligne, entrée en vigueur en octobre, oblige désormais les plateformes en ligne à se conformer aux règles de sécurité des enfants, sous peine d'amendes. La loi sur la sécurité en ligne a pour objectif de faire du Royaume-Uni « l'endroit le plus sûr au monde pour être en ligne », mais elle a suscité de vives critiques, estimant qu'elle pourrait porter atteinte à la vie privée des utilisateurs. L'application de messagerie cryptée Signal, par exemple, a déclaré qu'elle quitterait le Royaume-Uni plutôt que de collecter davantage de données susceptibles de mettre en péril la vie privée des utilisateurs.

Les nouvelles mesures soulèvent des questions sur la censure

La société Meta a aujourd'hui qu'elle interdisait aux adolescents de consulter des contenus traitant de sujets tels que le suicide, l'automutilation et les troubles de l'alimentation. Ces contenus, qui, selon Meta, peuvent ne pas être "adaptés à l'âge" des jeunes, ne seront pas visibles même s'ils sont partagés par une personne que l'adolescent suit.

Si un adolescent recherche ce type de contenu sur Facebook et Instagram, il sera dirigé vers des « ressources d'aide expertes » telles que la National Alliance on Mental Illness, selon Meta. Les utilisateurs adolescents peuvent également ne pas savoir si les contenus de ces catégories sont partagés et qu'ils ne peuvent pas les voir. Cette modification sera étendue aux utilisateurs de moins de 18 ans au cours des prochains mois.

En plus de masquer le contenu des catégories sensibles, les comptes des adolescents seront également soumis par défaut à des paramètres de filtrage restrictifs qui modifient le type de contenu qu'ils voient sur Facebook et Instagram. Ce changement affecte les posts recommandés dans Search et Explore qui pourraient être « sensibles » ou « de faible qualité », et Meta réglera automatiquement tous les comptes d'adolescents sur les paramètres les plus stricts, bien que ces paramètres puissent être modifiés par les utilisateurs.

La décision de Meta d'implémenter des mesures visant à protéger les adolescents de contenus sensibles liés au suicide, à l'automutilation et aux troubles de l'alimentation est sujette à une évaluation nuancée. D'un côté, ces actions témoignent d'une responsabilité accrue de la part de l'entreprise en réponse à des préoccupations légitimes concernant la sécurité des adolescents en ligne. D'un autre côté, cela soulève des questions sur la ligne fine entre la protection des utilisateurs et la censure.

D'un point de vue positif, l'initiative de Meta d'empêcher les adolescents de voir des contenus potentiellement dangereux et de les rediriger vers des ressources d'aide spécialisées démontre une prise de conscience de l'impact potentiellement néfaste de certaines informations sur la santé mentale des jeunes utilisateurs. Cela pourrait être interprété comme une mesure proactive visant à créer un environnement en ligne plus sécurisé et à prévenir des situations graves.


Cependant, la question de savoir si ces actions représentent une forme de censure dépend de la perspective adoptée. Certains pourraient applaudir ces mesures comme une intervention nécessaire pour protéger les adolescents vulnérables, tandis que d'autres pourraient exprimer des préoccupations quant à la restriction de l'accès à certaines informations, argumentant que cela limite la liberté d'expression et l'autonomie des utilisateurs, même s'il s'agit d'une population jeune.

La surveillance gouvernementale concernant la sécurité des enfants sur les plateformes de Meta souligne également le défi complexe de trouver un équilibre entre la protection des utilisateurs les plus jeunes et le respect de principes tels que la liberté d'expression. Il est essentiel de s'interroger sur la manière dont ces mesures sont mises en œuvre, surveillées et ajustées afin d'éviter tout excès qui pourrait conduire à une forme de censure indue.

Source : Meta

Et vous ?

Quel est votre avis sur le sujet ?

Dans quelle mesure ces nouvelles mesures de protection des adolescents sont-elles une réponse efficace aux préoccupations liées à la sécurité sur les plateformes de Meta, et sont-elles susceptibles de résoudre les problèmes sous-jacents ?

Les récentes annonces de Meta concernant la protection des adolescents ne sont-elles pas simplement une réaction à la pression gouvernementale, plutôt qu'une initiative proactive de l'entreprise ?

Face aux multiples scandales liés à la confidentialité des données et aux contenus nuisibles sur ses plateformes, comment Meta peut-elle garantir que ces nouvelles mesures ne sont pas simplement des actions superficielles pour redorer son image ?

En tant que société qui a profité de la viralité de contenus controversés par le passé, comment Meta peut-elle prétendre sérieusement vouloir créer un environnement en ligne plus sûr pour les adolescents sans compromettre ses propres intérêts commerciaux ?

Voir aussi :

Instagram pour les enfants ? Mark Zuckerberg cible maintenant vos enfants et si le milliardaire les attrape tôt, il les aura pour la vie

Des documents internes de Facebook divulgués décrivent les enfants de 10 à 12 ans comme une « richesse inexploitée » et contiennent des plans pour attirer les enfants sur le réseau social

Facebook suspend son projet de lancer Instagram Kids, cette décision fait suite aux préoccupations concernant les effets sur la santé mentale des moins de 13 ans

Réseaux sociaux et santé mentale des enfants : le Royaume-Uni pourrait emprisonner les responsables de médias sociaux, qui enfreignent les règles de sécurité des enfants

La loi sur la sécurité des enfants en ligne (Kids Online Safety Act) serait préjudiciable à la liberté et à la sécurité des enfants, selon David Colborne, chroniqueur et responsable informatique

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre expérimenté https://www.developpez.com
Le 23/04/2024 à 11:41
Je vois que qu'effectivement c'est toujours dans les tuyaux...

Décidément l'Europe c'est vraiment pas l'amour des peuples et des nations, c'est bel et bien l'antichambre du quatrième Reich.

Et dire qu'ils sont aussi en train de pousser à la création d'un état européen pour définitivement nous spolier des états nations, on sera vraiment tout nus si ils arrivent à passer ça.
7  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 11/01/2024 à 7:53
Quel est votre avis sur le sujet ?
L'automutilation, du suicide et des TCA chez les jeunes est un sujet délicat et je ne suis pas sûr que cette décision soit idéale parce qu'elle censurera sans doute autant la prévention que l'encouragement.
Le prévention sur les réseaux sociaux a sauvé des vies, probablement moins que l'encouragement, j'en conviens.
Donc jeter le bébé avec l'eau du bain est bénéfique mais ne pas le faire l'est probablement encore plus, même si ça complique les choses.
Dans quelle mesure ces nouvelles mesures de protection des adolescents sont-elles une réponse efficace aux préoccupations liées à la sécurité sur les plateformes de Meta, et sont-elles susceptibles de résoudre les problèmes sous-jacents ?
Le mal être des adolescent est quasi intrinsèque à cette période de la vie, les réseaux sociaux sont loin d'être le premier problème (la représentation d'une société idéale dans les œuvres culturelles est probablement encore plus proche de la source du problème) mais les réseaux sont un catalyseur critique.
Donc les limiter aura un effet mais ne résoud en aucun cas le problème de fond.
Les récentes annonces de Meta concernant la protection des adolescents ne sont-elles pas simplement une réaction à la pression gouvernementale, plutôt qu'une initiative proactive de l'entreprise ?
Bien sûr que si et la pression gouvernementale va retomber immédiatement même si l'on constatait que la mesure n'est pas efficace.
Le gouvernement attends des actes à vendre plutôt que des résultats réels sur ce genre de sujet.
Face aux multiples scandales liés à la confidentialité des données et aux contenus nuisibles sur ses plateformes, comment Meta peut-elle garantir que ces nouvelles mesures ne sont pas simplement des actions superficielles pour redorer son image ?
Il va suivre tout ça, sortir une étude pas forcément si pertinente que ça avec un beau camembert, quelques histogrammes et un graph parlant avec des bonhomme barrés ou pas et il se félicitera de ça.
Mais ce n'est que le glaçage sur le gâteau du nettoyage de son image.
En tant que société qui a profité de la viralité de contenus controversés par le passé, comment Meta peut-elle prétendre sérieusement vouloir créer un environnement en ligne plus sûr pour les adolescents sans compromettre ses propres intérêts commerciaux ?
Une meilleure image rime aussi avec des annonceurs qui reviennent ou sont prêts à y mettre un peu plus de moyens.
En valorisant la sureté des ado Meta redore son blason et augmente la valeur de ce qu'il partage.
Les influenceurs en profiteront et Meta aussi.
4  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 24/01/2024 à 10:51
Dans un rapport de la CNIL, il est mentionné que seuls 45% des 40% que représentent les données sensibles dans le cloud sont chiffrées (source ziff davis). Un guide de bonnes pratiques est publié avec ce rapport. Si les CNIL européennes se battent pour le respect du RGPD, ce serait effectivement un mauvais signal que d'abandonner le chiffrement en rase campagne pour une cause, certes juste, mais disproportionnée en conséquences par rapport au but à atteindre. Il n'existe pas de raison assez juste pour mettre sur écoute 450 millions de citoyens pour sauver une infime proportion d'entre eux d'attitudes marginales même si elles sont abjects.

Je propose plutôt des descentes de police spécialisée dans le Dark Web qui concentre l'immense majorité des sites illégaux et le renforcement des moyens pour y parvenir comme l'envisage la France. source lefigaro.fr
4  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 11/01/2024 à 11:01
Citation Envoyé par Jon Shannow Voir le message
Le mieux est de ne rien faire. Ça s'appelle la sélection naturelle.
La sélection naturelle ne marche que sur les défauts génétiques, et que en cas de décès avant reproduction.

Ici on parle de mutilation, ce qui n'empêche pas la reproduction, et dûe non pas à des facteurs génétiques, mais environnementaux.

En d'autre terme, cette phrase, que j'espère volontairement cynique, est scientifiquement fausse...
3  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 11/01/2024 à 11:23
C'était de l'humour grinçant, un peu de "politiquement incorrect".
2  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 01/02/2024 à 13:15
Mark Zuckerberg s'excuse auprès des familles des enfants qui se sont suicidés après avoir rejeté la suggestion de créer un fonds de compensation
Si il veut vraiment faire quelque chose, qu'il mette en place une vraie modération, mais bien sûr que ne sera pas fait.
3  1 
Avatar de totozor
Membre expert https://www.developpez.com
Le 09/04/2024 à 7:48
Pensez-vous que ces avis sur la loi KOSA sont crédibles ou pertinents ?
Oui, je penses qu'ils le sont. Les jeunes qui s'expriment sont en cours de construction, ils sont curieux, veulent comprendre, cherchent les limites des "réflexions des adultes".
Ils veulent donc un minimum de contrainte.
Dans leurs expérimentations ils iront trop loin et apprendront quelles sont leurs limites personnelles.
C'est comme ça qu'un ado ce construit.

Quel est votre avis sur le sujet ?
Je penses que les législateurs sont d'accord avec ce que disent ces jeunes, et que c'est leur objectif.
Je penses que protéger nos ados ne passe pas par l'interdiction mais pas l'accompagnement avant et après. Mais ça demande bien plus de travail et de souplesse intellectuelle que d'interdire.
Les jeunes ont besoin d'espaces sûrs et d'explorer les limites. Ils ont besoin des deux de se construire.
3  1 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 11/01/2024 à 10:27
Citation Envoyé par Jon Shannow Voir le message
Le mieux est de ne rien faire. Ça s'appelle la sélection naturelle.
C'est ironique ?
1  0 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 11/01/2024 à 11:08
Citation Envoyé par AoCannaille Voir le message
La sélection naturelle ne marche que sur les défauts génétiques, et que en cas de décès avant reproduction.

Ici on parle de mutilation, ce qui n'empêche pas la reproduction, et dûe non pas à des facteurs génétiques, mais environnementaux.

En d'autre terme, cette phrase, que j'espère volontairement cynique, est scientifiquement fausse...
Je suis totalement d'accord, scientifiquement il n'y a que les défauts génétiques induisant un décès avant reproduction qui comptes.
Pour montrer la fausseté de cette affirmation, Albert Jacquard prenait l'exemple de Leonard de Vinci et de Ludwig van Beethoven qui n'avait probablement pas eu d'enfant ; au sens de la sélection naturelle, c'était donc des êtres inférieurs
1  0 
Avatar de Lcf.vs
Membre éclairé https://www.developpez.com
Le 11/04/2024 à 23:15
Citation Envoyé par totozor Voir le message
Je penses que protéger nos ados ne passe pas par l'interdiction mais pas l'accompagnement avant et après. Mais ça demande bien plus de travail et de souplesse intellectuelle que d'interdire.
Les jeunes ont besoin d'espaces sûrs et d'explorer les limites. Ils ont besoin des deux de se construire.
J'irais même jusqu'à dire que ça nécessite de l'honnêteté intellectuelle !

Mais, bon, on est dans une époque où les gens n'en n'ont même plus rien à foutre d'avoir tort ou raison, iels veulent juste qu'on soit dans leur camp, peu importe ce qu'iels avancent... et même en sachant pertinemment avoir tort.
1  0