IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

"Cela vous marque à vie" : des travailleurs poursuivent Meta, affirmant que le visionnage de vidéos brutales leur a causé un traumatisme psychologique

Le , par Anthony

5PARTAGES

4  0 
Un Irlandais a parlé des horreurs dégoûtantes qu'il a vécues alors qu'il travaillait comme modérateur de contenu pour Facebook. Chris Gray (50 ans) a commencé à travailler pour CPL, un sous-traitant de Facebook, en 2017. Son contrat de modérateur n'a duré qu'un an, mais M. Gray a fini par être la première personne en Europe à poursuivre Facebook en justice.

En Espagne, plus de 20 % du personnel de CCC Barcelona Digital Services - appartenant à Telsus, la société que Meta a engagée pour vérifier le contenu de Facebook et d'Instagram, sont en congé maladie en raison de traumatismes psychologiques, a révélé Euronews.


Les affaires judiciaires concernant le personnel qui a travaillé comme modérateur de contenu se multiplient, les ex-employés intentant des procès pour traumatisme psychologique.

"Je n'ai pas réalisé à quel point cela m'avait affecté. Ce n'est que plus tard que j'ai réalisé que j'étais dans un sale état, que j'étais très stressé. Je n'arrivais pas à dormir et je devenais très agressif. Si quelqu'un parlait de mon travail, je pleurais après", a déclaré M. Gray à Euronews.

Une enquête d'Euronews sur cette affaire a révélé des faits troublants. Les avocats qui ont parlé à l'organisation de presse ont décrit des vidéos de chiens bouillis vivants, de personnes torturées et une vidéo trop crue pour être décrite, impliquant le meurtre d'un enfant.

"J'ai rempli des questionnaires disant que je me sentais débordé au travail. Mais il a fallu des années pour obtenir un rendez-vous avec quelqu'un", a déclaré M. Gray.

Un avocat, Francesc Feliu, a déclaré à Euronews que l'exposition à des meurtres graphiques détruisait la vie des employés.

"Outre le contenu absolument inhumain, il y a beaucoup de bruit, de cris et de sang", a déclaré M. Feliu. Cela entraîne de graves problèmes de santé mentale, tels que le stress post-traumatique, les troubles obsessionnels compulsifs et la dépression.

"Nous parlons de personnes qui étaient en bonne santé et qui, tout à coup, voient apparaître ces troubles mentaux. Certains de ces travailleurs ont tenté de se suicider."

"Ils produiraient des dizaines et des dizaines de personnes relativement jeunes qui souffrent de troubles mentaux. C'est extrêmement grave."

"Ce genre de contenu vous marque à vie. Nous ne sommes pas des machines ou des ordinateurs dépourvus de sentiments."

"En regardant une vidéo, beaucoup de ces personnes s'effondraient, elles ne pouvaient plus continuer."

"Le psychologue les écoutait et leur disait que ce qu'ils faisaient était extrêmement important pour la société, qu'ils devaient imaginer que ce qu'ils voyaient n'était pas réel mais un film, et qu'ils devaient retourner au travail", a ajouté M. Feliu.

Facebook a répondu à cette question par une déclaration à Euronews : "Nous prenons au sérieux le soutien des réviseurs de contenu et demandons à toutes les entreprises avec lesquelles nous travaillons de fournir un soutien sur site 24/7 par des praticiens formés."

Facebook affirme qu'il existe des "solutions techniques pour limiter autant que possible l'exposition au matériel graphique".

"Les personnes qui examinent le contenu sur Facebook et Instagram peuvent ajuster l'outil d'examen du contenu pour que le contenu graphique apparaisse complètement flou, en noir et blanc ou sans son."

Cependant, Euronews rapporte que certains anciens modérateurs de contenu ont peur de sortir dans la rue, une demi-décennie après avoir quitté leur poste.

M. Gray a publié un livre sur le sujet, intitulé The Moderator.

"Je suis sorti depuis quelques années et je travaille maintenant avec des gens. Un contact face à face avec de vraies personnes", a-t-il déclaré lors d'une interview radiophonique sur RTÉ l'année dernière.

Source : Euronews

Et vous ?

Quelle lecture faites-vous de cette situation ?

Selon vous, les plateformes de médias sociaux comme Facebook ont-elles la responsabilité morale de veiller au bien-être mental de leurs modérateurs de contenu, compte tenu des contenus traumatisants auxquels ils sont exposés ?

Quel est votre point de vue sur l'efficacité des solutions proposées par Facebook, telles que le floutage des contenus graphiques ou la fourniture d'une assistance sur place, pour remédier au traumatisme psychologique subi par les modérateurs de contenu ?

Voir aussi

Les modérateurs de contenu de Facebook au Kenya qualifient leur travail de torture, leur action en justice pourrait avoir des répercussions dans le monde entier

Une ex-modératrice de Facebook porte plainte pour stress post-traumatique, après avoir été exposée à des contenus choquants

Une modératrice qui a regardé des heures de vidéos traumatisantes poursuit TikTok pour avoir échoué à protéger sa santé mentale

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Membre expert https://www.developpez.com
Le 23/10/2023 à 8:19
Citation Envoyé par Anthony Voir le message
Quelle lecture faites-vous de cette situation ?
Je trouve d'un cynisme crasse que la modération graphique semble être essentiellement faites par des personnes alors que pour ce qui est du texte l'humain a été retiré depuis longtemps.
Les bots devraient être capable de trier ces vidéos et qu'elles ne passent en revue qu'en cas de doute ou en cas de réclamation.
Citation Envoyé par Anthony Voir le message
Selon vous, les plateformes de médias sociaux comme Facebook ont-elles la responsabilité morale de veiller au bien-être mental de leurs modérateurs de contenu, compte tenu des contenus traumatisants auxquels ils sont exposés ?
Absolument, bon nombre d'industries sont en partie responsables de s'assurer que leurs sous-traitants respectent les règles.
Bien sûr, les sous-traitants sont capables de contourner ça et ce n'est qu'une solution partielle mais ça diminue largement le risque et ça ouvre la porte aux audits/enquetes judiciaires ou journalistiques etc.
J'ai aussi envie de poser la question de ce qui est fait de ce contenu, les faits décrits me semblent (je ne suis pas juriste) être des crimes, n'est pas un moyen de s'attaquer à ce que notre gouvernmenement prétend combattre en nous espionnant tous?
Citation Envoyé par Anthony Voir le message
Quel est votre point de vue sur l'efficacité des solutions proposées par Facebook, telles que le floutage des contenus graphiques ou la fourniture d'une assistance sur place, pour remédier au traumatisme psychologique subi par les modérateurs de contenu ?
Les moyens techniques de réduire la violence de vidéos (floutage, couper le son etc) sont probablement pertinents mais on demande probablement aux personnes d'avoir un rythme élevé et on ne leur donne probablement pas le temps de visionner les vidéos plusieurs fois en commençant par le filtrage maximal. Donc c'est de l'hypocrisie.
Concernant l'assistance sur place, c'est un peu pareil, les gens sont mis sous pression, aller voir le psy c'est perdre en "productivité" et des que le manager sait que tu y es passé le licenciement se rapproche. Et quand on lit les réponses des psy c'est un pur scandale, ces personnes sont elles vraiment diplomées ou sont elles dans la même situation que les personnes qui viennent les voir : elles ont le seul boulot qu'elles ont trouvé et elles ont peur de le perdre?

Facebook n'en a rien à faire de ces modérateurs, ce sont des consommables à exploiter jusqu'à la fin. Ils pensent probablement que c'est un mal nécessaire et donc qu'il faut faire avec.
Je trouve que l'idée du "vis ma vie" a quelque chose de ridicule mais dans certaines situations c'est peut être efficace.
1  0