IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les enfants devraient avoir des sections séparées sur les sites de médias sociaux, préconise un coroner britannique,
Qui recommande également la vérification de l'âge sur ces différents sites

Le , par Nancy Rey

95PARTAGES

7  0 
Le coroner (juge enquêtant sur les décès au Royaume-Uni) britannique Andrew Walker a envoyé un rapport à Meta, Pinterest, Twitter, Snapchat et au gouvernement britannique, dans lequel il recommande que les adultes et les enfants aient chacun leur propre partie de la plateforme afin de prévenir tout préjudice pour les jeunes. Accusés de nuire à la santé mentale des jeunes, les réseaux sociaux ont fait l’objet de plaintes de la part de parents pour leur rôle dans la mort de leur enfant. Le juge a reconnu que ces plateformes, avec leurs contenus préjudiciables, avaient contribué à la mort de Molly Russell en 2017, à l’âge de 14 ans. Andrew Walker a conclu qu’il n’était pas sûr de qualifier la mort de Molly Russell d’un suicide. Selon lui, il s’agit d’« un acte d’automutilation alors qu’elle souffrait de dépression et des effets négatifs des contenus en ligne ».


Le rapport du coroner fait suite à la mort de Molly Russell, 14 ans, en 2017, et Walker a conclu que le contenu des médias sociaux qu'elle a vu avait "probablement contribué" au suicide de l'enfant. Meta (ex-Facebook) et Pinterest sont accusés d’avoir « contribué à sa mort de manière plus que minime » avec leurs contenus. L’adolescente a en effet vu plus de 16 000 contenus sur Instagram – réseau social appartenant à Meta – dont 2 100 étaient liés au suicide, à l’automutilation et à la dépression, au cours des six mois précédant sa mort. Plus de 400 images liées à des sujets similaires ont également été trouvées sur son compte Pinterest.

Pour Andrew Walker, les algorithmes des deux plateformes ont transmis à Molly Russell des contenus préjudiciables qu’elle n’avait pas demandé. Il estime, de plus, que certaines des publications « idéalisaient » les actes d’automutilation et cherchaient à décourager les utilisateurs de rechercher une aide professionnelle.

Dans son rapport Andrew Walker recommande que les adultes et les enfants aient chacun leur propre partie de la plateforme afin de prévenir tout préjudice pour les jeunes. Walker a également demandé que les plateformes contrôlent le contenu en fonction de l'âge, que les comptes des enfants puissent être « liés au compte du parent, du tuteur ou de la personne qui s'occupe d'eux à des fins de contrôle » et que la vérification de l'âge des utilisateurs lors de l'inscription sur les plateformes en ligne soit mise en place.

Twitter exige que tous les utilisateurs aient au moins 13 ans pour avoir un compte, tout comme Meta, qui dispose également d'une application Messenger Kids, qui fonctionne séparément du produit principal de Facebook. Pinterest et Snapchat exigent également que leurs utilisateurs soient âgés d'au moins 13 ans, bien que cette exigence ne soit évidemment pas appliquée. Les applications de sécurité parentale existantes permettent pour la plupart aux adultes de bloquer entièrement l'accès aux sites de médias sociaux.

Les réactions des différents médias sociaux

Pinterest a déclaré qu'il était « engagé à apporter des améliorations continues pour aider à garantir que la plateforme est sûre pour tout le monde » et a déclaré que « le rapport du coroner sera considéré avec soin ».

Meta a déclaré : « Nous nous engageons à faire d'Instagram une expérience sûre et positive pour tous, en particulier pour les adolescents, et nous examinons le rapport du coroner. Nous sommes d'accord sur le fait qu'une réglementation est nécessaire et nous avons déjà travaillé sur de nombreuses recommandations décrites dans ce rapport, y compris de nouveaux outils de supervision parentale qui permettent aux parents de voir qui leurs adolescents suivent et de limiter le temps qu'ils passent sur Instagram.

Nous configurons aussi automatiquement les comptes des adolescents en mode privé lorsqu'ils s'inscrivent, nous les poussons vers un contenu différent s'ils défilent sur le même sujet depuis un certain temps et nous disposons de contrôles conçus pour limiter les types de contenus que les adolescents voient. Nous n'autorisons pas les contenus qui encouragent le suicide ou l'automutilation, et nous trouvons 98 % des contenus sur lesquels nous agissons avant qu'ils ne nous soient signalés ».

Projet de loi britannique sur la sécurité en ligne

Le rapport du coroner survient alors que le projet de loi britannique sur la sécurité en ligne se poursuit à la Chambre des communes, une législation qui demande la vérification ou l'assurance de l'âge et, de façon encore plus controversée, cherche une fois de plus à affaiblir le chiffrement. Ce projet de loi, rédigé pour la première fois sous l'ancien premier ministre Theresa May en 2019, a été révisé cette année pour autoriser l'emprisonnement (jusqu'à deux ans ) pour toute personne dont le message sur les médias sociaux pourrait causer « un préjudice psychologique s'élevant au moins à une détresse grave ».

Ses détracteurs, parmi lesquels l'EFF, affirment qu'il s'agit d'un instrument contondant qui s'attaque à la fois à la liberté d'expression et à la sécurité d’Internet. Jo Joyce, conseiller principal au sein de l'équipe de Taylor Wessing spécialisée dans les technologies et les données commerciales, a déclaré au début du mois qu'il était difficile de légiférer et de réglementer le contenu numérique vu par les enfants tout en respectant la liberté d'expression des adultes. « La nouvelle du retour du projet de loi sur la sécurité en ligne au Parlement n'a pas surpris beaucoup de commentateurs. La protection des enfants et des personnes vulnérables en ligne est perçue comme une victoire électorale pour le gouvernement et il était peu probable que l'abandon total du projet de loi soit une option, malgré les préoccupations des défenseurs de la liberté d'expression et la pression des entreprises technologiques ».

L'adoption du projet de loi a été suspendue, mais le régulateur des communications Ofcom a publié une étude qu'il a commandée la semaine dernière et qui montre la façon dont il espère peut-être que les choses se déroulent, avec la vérification de l'âge de nouveau en jeu. Selon cette étude, « un tiers des enfants ont un faux âge de 18 ans et plus sur les médias sociaux ».

La vérification de l'âge sur Internet a été proposée pour la première fois dans la loi britannique sur l'économie numérique de 2017, puis abandonnée en 2019, les experts en sécurité et en protection de la vie privée s'inquiétant de la collation de données privées rendue nécessaire par de telles vérifications. Parmi les propositions, il y avait celle de s'inscrire avec sa carte de crédit (une idée profondément impopulaire) et celle d'autoriser certaines entreprises à travailler comme collecteurs d'informations / fournisseurs de services de vérification de l'âge.

L'expert britannique en sécurité informatique Ross Anderson, du département compsci de l'Université de Cambridge, a soutenu la semaine dernière que la législation proposée sur la sécurité des enfants et les questions de police, y compris le projet de loi sur la sécurité en ligne, conduisait à une "pensée magique". Il a déclaré : « L'idée d'utiliser l'intelligence artificielle pour remplacer les officiers de police, les travailleurs sociaux et les enseignants est le genre de pensée magique qui mène à une mauvaise politique ».

Un sondage réalisé par BCS The Chartered Institute for IT auprès de professionnels de la technologie a révélé que seuls 14 % d'entre eux pensaient que la législation était « adaptée à son objectif », la plupart (58 %) estimant qu'elle « aurait un effet négatif sur la liberté d'expression ». Quant à la partie 3 du projet de loi amendé, qui demande aux plateformes de « développer ou de se procurer » une technologie précise pour détecter les contenus abusifs, seulement un quart (25 %) des technophiles estiment qu'il est réaliste que l'Ofcom le demande ; 57 % disent que ce n'est pas le cas.

Rob Deri, directeur général de BCS, a fait remarquer au début de cette année : « La technologie elle-même a un rôle important à jouer pour assurer la sécurité des personnes sur les plateformes de médias sociaux. Cependant, le projet de loi s'appuie trop sur des solutions technologiques pour empêcher les contenus indésirables, ce qui n'est pas suffisant et pourrait affecter la liberté d'expression et la vie privée d'une manière inacceptable dans une société démocratique. La législation devrait également se concentrer sur des programmes substantiels d'éducation et de conseils numériques afin que les jeunes et leurs parents puissent naviguer en toute confiance parmi les risques des médias sociaux tout au long de leur vie ».

Le secteur de la technologie devrait être impliqué

Un aspect particulièrement controversé du projet de loi initial était son objectif de limiter ce qu'il appelle l'expression « légale mais nuisible » des net-citoyens. Joyce de Taylor Wessing a déclaré à ce sujet : « La tentative, dans le projet de loi initial, de réglementer une catégorie d'expression nuisible (mais non illégale) pour tous les individus était très controversée et difficile à mettre en pratique. Il semble que la tentative de réglementer les propos nuisibles, mais légaux sera répétée pour les enfants, mais pas pour les adultes. Nous devrons attendre le projet révisé pour voir si le gouvernement peut trouver une formule qui respecte la liberté d'expression des adultes tout en réglementant le contenu numérique visionné par les enfants… Il s'agit d'un défi énorme, non seulement pour ceux qui rédigent la législation, mais aussi pour l'application ou la réglementation dans ce domaine. Des orientations détaillées seront nécessaires et, sans une adhésion et un engagement significatifs du secteur technologique en matière d'autorégulation, l'impact de la législation pourrait être très limité ». Si l'on met de côté la vérification de l'âge et les autres législations interventionnistes qui portent atteinte à la vie privée et à la sécurité sur Internet, on pourrait faire valoir que les enfants et les adolescents ne voudront pas visiter une plateforme réservée aux enfants et qu'ils pourraient quand même tenter de s'introduire dans les versions pour adultes.

Sources : Rapport, Projet de loi, OFCOM

Et vous ?

Quel est votre avis sur le sujet ?
En tant que parents comment dirigez-vous vos enfants et adolescents dans leur utilisation d'Internet ?
Utilisez-vous des applications de contrôle parental, interdisez-vous des appareils ou fournissez-vous simplement à vos enfants des téléphones sans accès à Internet ?

Voir aussi :

Un parent poursuit Facebook au motif de ce que l'utilisation excessive de la plateforme a contribué aux problèmes de santé mentale de sa fille et ravive le débat sur la nécessité d'interdire les RS

La santé mentale des adolescents est en chute libre et les médias sociaux en sont une cause majeure, une étude de Jonathan Haidt

Meta fait l'objet de huit actions en justice pour exploitation des jeunes à des fins lucratives, au motif que l'utilisation prolongée de la plateforme entraîne de graves problèmes de santé mentale

300 scientifiques demandent à Marc Zuckerberg l'accès aux données de recherche de Meta sur la santé mentale des enfants et des adolescents : quel impact ont les médias sociaux sur la santé mentale ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de walfrat
Membre émérite https://www.developpez.com
Le 19/10/2022 à 15:38
Il me semble qu'il y a déjà eu des suicide du a du cyber harcèlement entre jeunes de la même catégorie d'âge et non adulte.

Je ne suis donc pas certain de la pertinence de cette mesure.
2  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 19/10/2022 à 19:57
Citation Envoyé par walfrat Voir le message
Il me semble qu'il y a déjà eu des suicide du a du cyber harcèlement entre jeunes de la même catégorie d'âge et non adulte.

Je ne suis donc pas certain de la pertinence de cette mesure.
Si l'on explore les faits divers de cette catégorie, on se rend vite compte que la majorité des cas concerne du cyberharcèlement entre jeunes. Et il y a fort à parier que dans les cas où le cyberharceleur est majeur, il a seulement quelques années de plus que la victime. C'est un peu le même phénomène vis-à-vis des agressions sexuelles. Mais dans ce domaine, mieux vaut ne pas trop bousculer la bien-pensance bourgeoise-puritaine occidentale .
1  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 19/10/2022 à 20:19
Citation Envoyé par escartefigue Voir le message
Admettons, mais comment vérifie-t-on de manière imparable que tel internaute derrière son écran et majeur et tel autre non...
Une solution portable, à un coût raisonnable et fiable n'est certainement pas pour demain.
Il n'y en a pas, car le seul moyen est d'utiliser la reconnaissance faciale. C'est ce qui se passe en Australie et en Chine.

Cela peut aussi être d'autre type de données biométrique. Sauf que toute obligation de confirmer son identité par l'utilisation de données biométriques est une atteinte grave aux droits de l'homme.

Et de toute façon, la vérification de l'âge pour accéder à un site web va à l'encontre de tout ce que je défends pour un web libre. Si un site tente de faire cela, je le boycotte. Et j'invite tout le monde à faire de même. D'ailleurs, je soutiens les projets open source (sur Github, par exemple) qui permettent de contourner les restrictions.
1  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 19/10/2022 à 20:28
Citation Envoyé par Locabimp Voir le message
Je suis tout à fait d'accord avec, il faut séparer les réseaux sociaux pour les adultes et pour les enfants, mais il y a un autre côté combien de parents d'élèves utilisent les applications parentales pour gérer leurs enfants?
Ça devient de plus en plus dur pour les parents de gérer leurs enfants donc la seule solution c'est d'imposer aux réseaux sociaux de faire l'effort que les parents doivent faire ?
Malheureusement de nos jours on voit de plus en plus des enfants sur les réseaux des enfants avec des appareils numériques avec des portables... Là encore une fois c'est pas vraiment la faute au réseaux...

Mais adapté son algorithme pour les plus jeunes je trouve que c'est une très bonne solution et j'espère qu'elle sera appliquée.
Si vous trouvez les réseaux sociaux toxiques, ce que je peux comprendre (à titre personnel, je boycotte ces services), vous feriez mieux de militer pour des réseaux sociaux respectueux des utilisateurs. Rien que soutenir Framasoft (par exemple, en informant votre entourage de leur existence) constituerait un grand pas en avant.

Cela serait plus constructif que de soutenir des lois immondes qui menacent toutes les libertés sur le web.

A votre question : qu’est-ce que que les parents doivent faire ?
Eh bien, tout simplement ne plus utiliser tels ou tels service toxique pour leur enfant, puisqu’un service toxique pour un enfant/ado est en général également toxique pour tout le monde. Par exemple, il ne s'agit pas d'adapter les algorithmes de recommandation, il s'agit de supprimer les algorithmes de recommandation pour tous les utilisateurs.

Quant aux "applications parentales" : il s'agit uniquement de logiciels espions qui utilise probablement les même basent de code que des logiciels genre Pegasus. Les contrôles parentaux devrait être banni. D'ailleurs, tout code contenant la possibilité d’espionner un ordinateur à distance devrait être banni, trop de cybercriminels en profitent.
1  0 
Avatar de escartefigue
Modérateur https://www.developpez.com
Le 19/10/2022 à 12:54
Admettons, mais comment vérifie-t-on de manière imparable que tel internaute derrière son écran et majeur et tel autre non...
Une solution portable, à un coût raisonnable et fiable n'est certainement pas pour demain.
1  1 
Avatar de Locabimp
Nouveau membre du Club https://www.developpez.com
Le 19/10/2022 à 12:52
Je suis tout à fait d'accord avec, il faut séparer les réseaux sociaux pour les adultes et pour les enfants, mais il y a un autre côté combien de parents d'élèves utilisent les applications parentales pour gérer leurs enfants?
Ça devient de plus en plus dur pour les parents de gérer leurs enfants donc la seule solution c'est d'imposer aux réseaux sociaux de faire l'effort que les parents doivent faire ?
Malheureusement de nos jours on voit de plus en plus des enfants sur les réseaux des enfants avec des appareils numériques avec des portables... Là encore une fois c'est pas vraiment la faute au réseaux...

Mais adapté son algorithme pour les plus jeunes je trouve que c'est une très bonne solution et j'espère qu'elle sera appliquée.
0  1 
Avatar de Arya Nawel
Membre extrêmement actif https://www.developpez.com
Le 19/10/2022 à 17:48
Si vous voulez achetez de l'alcool, vous devez être adulte.
Si vous voulez entrer dans une boîte nuit, vous devez être adulte.
Si vous voulez conduire une voiture, vous devez être adulte.
Nous avons décidez depuis longtemps qu'il ýa des choses que les enfants ne devraient pas faire et nous avons mis en place des protocoles. Pourquoi internet devrait il être différent?
D'autant plus qu'Internet est un endroit où les pires tendances humaines se manifestent.
Je n'ai aucune idée de comment ça devrait se passer, mais je suis plutôt d'accord.
0  2