IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'algorithme de Meta a largement contribué au nettoyage ethnique au Myanmar, selon Amnesty International,
Les Rohingyas ont été tués, torturés, violés par milliers par des forces de sécurité

Le , par Bruno

108PARTAGES

6  1 
Les algorithmes dangereux du propriétaire de Facebook, Meta, et sa recherche inconsidérée du profit ont largement contribué aux atrocités perpétrées par l'armée du Myanmar contre les Rohingyas en 2017, a déclaré Amnesty International dans un nouveau rapport publié le 28 septembre. Le rapport intitulé The Social Atrocity: Meta and the right to remedy for the Rohingya détaille comment Meta savait ou aurait dû savoir que les systèmes algorithmiques de Facebook suralimentaient la diffusion de contenus nuisibles anti-Rohingya au Myanmar, mais que l'entreprise n'a toujours pas agi.

« En 2017, les Rohingyas ont été tués, torturés, violés et déplacés par milliers dans le cadre de la campagne de nettoyage ethnique des forces de sécurité du Myanmar. Dans les mois et les années qui ont précédé ces atrocités, les algorithmes de Facebook ont intensifié une tempête de haine contre les Rohingyas qui a contribué à la violence dans le monde réel », a déclaré Agnès Callamard, secrétaire générale d'Amnesty International. « Alors que l'armée du Myanmar commettait des crimes contre l'humanité à l'encontre des Rohingyas, Meta profitait de la chambre d'écho de la haine créée par ses algorithmes porteurs de haine. « Meta doit être tenue de rendre des comptes. L'entreprise a maintenant la responsabilité d'offrir des réparations à tous ceux qui ont subi les conséquences violentes de leurs actions imprudentes. »


L'ancienne journaliste de CNN et militante Maria Ressa, qui a reçu le prix Nobel de la paix tant convoité, a reproché à Facebook de diffuser des informations erronées et mensongères empreintes de colère et de haine. Facebook, que Ressa a qualifié de plus grand distributeur de nouvelles au monde, est « biaisé contre les faits » et « biaisé contre le journalisme », ce qui constitue une menace pour la démocratie, car la plateforme continue de permettre aux mauvais acteurs de semer la désinformation. La journaliste chevronnée et directrice du site d'information philippin Rappler a déclaré dans une interview après avoir remporté le prix que les algorithmes de Facebook « donnent la priorité à la diffusion de mensonges empreints de colère et de haine plutôt qu'aux faits. »

Sawyeddollah, un réfugié rohingya de 21 ans, a déclaré à Amnesty International : « J'ai vu beaucoup de choses horribles sur Facebook. Et j'ai simplement pensé que les personnes qui les avaient postées étaient mauvaises... Puis j'ai réalisé que ce ne sont pas seulement ces personnes - les posteurs - mais que Facebook est aussi responsable. Facebook les aide en ne prenant pas soin de sa plateforme. » Les Rohingyas sont une minorité ethnique majoritairement musulmane basée dans le nord de l'État de Rakhine au Myanmar. En août 2017, plus de 700 000 Rohingyas ont fui Rakhine lorsque les forces de sécurité du Myanmar ont lancé une campagne ciblée de meurtres, de viols et d'incendies de maisons généralisés et systématiques. Ces violences ont fait suite à des décennies de discrimination, de persécution et d'oppression orchestrées par l'État à l'encontre des Rohingyas, qui s'apparentent à de l'apartheid.

Une chambre d'écho anti-Rohingya

Meta utilise des systèmes algorithmiques basés sur l'engagement pour alimenter le fil d'actualité, le classement, les recommandations et les groupes de Facebook, façonnant ainsi ce qui est vu sur la plateforme. Meta réalise des bénéfices lorsque les utilisateurs de Facebook restent sur la plateforme le plus longtemps possible, en vendant des publicités plus ciblées. L'affichage de contenus incendiaires - y compris ceux qui prônent la haine, constituant une incitation à la violence, à l'hostilité et à la discrimination - est un moyen efficace de garder les gens sur la plateforme plus longtemps. À ce titre, la promotion et l'amplification de ce type de contenu sont essentielles au modèle économique de Facebook, fondé sur la surveillance.

Dans les mois et les années qui ont précédé la répression, Facebook au Myanmar était devenu une chambre d'écho de contenus anti-Rohingya. Des acteurs liés à l'armée du Myanmar et à des groupes nationalistes bouddhistes radicaux ont inondé la plateforme de contenus antimusulmans, diffusant des informations erronées sur l'imminence d'une prise de pouvoir par les musulmans et décrivant les Rohingyas comme des « envahisseurs ». Dans un message qui a été partagé plus de 1 000 fois, un défenseur des droits de l'homme musulman était photographié et décrit comme un « traître national ». Les commentaires laissés sur le post comprenaient des messages menaçants et racistes, notamment « C'est un musulman. Les musulmans sont des chiens et doivent être abattus », et « Ne le laissez pas en vie. Supprimez toute sa race. Le temps presse ».

Les contenus incitant à la violence et à la discrimination sont parvenus jusqu'au sommet de la hiérarchie militaire et civile du Myanmar. Le général Min Aung Hlaing, chef de l'armée du Myanmar, a publié sur sa page Facebook en 2017 : « Nous déclarons ouvertement qu'absolument, notre pays n'a pas de race Rohingya ». Il a ensuite pris le pouvoir lors d'un coup d'État en février 2021. En juillet 2022, la Cour internationale de justice (CIJ) s'est déclarée compétente pour engager une procédure contre le gouvernement du Myanmar au titre de la Convention sur le génocide, en raison du traitement des Rohingyas par ce pays. Amnesty International salue cette étape essentielle pour que le gouvernement du Myanmar rende des comptes et continue de demander que les hauts responsables de l'armée du Myanmar soient traduits en justice pour leur rôle dans les crimes contre les Rohingyas.

En 2014, Meta a tenté de soutenir une initiative contre la haine connue sous le nom de « Panzagar » ou « discours des fleurs » en créant un pack d'autocollants que les utilisateurs de Facebook pouvaient afficher en réponse à des contenus prônant la violence ou la discrimination. Les autocollants portaient des messages tels que « Réfléchissez avant de partager » et « Ne soyez pas la cause de la violence ». Cependant, les militants ont rapidement remarqué que les autocollants avaient des conséquences inattendues. Les algorithmes de Facebook ont interprété l'utilisation de ces autocollants comme un signe que les gens appréciaient une publication et ont commencé à les promouvoir. Au lieu de réduire le nombre de personnes qui voyaient une publication prônant la haine, les autocollants ont en fait rendu ces publications plus visibles.

La mission internationale indépendante d'établissement des faits des Nations unies sur le Myanmar a finalement conclu que le « rôle des médias sociaux [était] important » dans les atrocités commises dans un pays où « Facebook est l'Internet ». Mohamed Showife, un militant rohingya, a déclaré : « Les Rohingyas rêvent juste de vivre de la même manière que les autres personnes dans ce monde... mais vous, Facebook, vous avez détruit notre rêve ».

L'inaction de Facebook

Le rapport explique en détail comment Meta a omis à plusieurs reprises d'exercer une diligence raisonnable en matière de droits de l'homme sur ses opérations au Myanmar, alors que les normes internationales l'y obligent. Des études internes remontant à 2012 ont indiqué que Meta savait que ses algorithmes pouvaient entraîner de graves préjudices dans le monde réel. En 2016, les propres recherches de Meta ont clairement reconnu que « nos systèmes de recommandation font croître le problème » de l'extrémisme.

Meta a reçu des communications et des visites répétées de militants de la société civile locale entre 2012 et 2017, lorsque l'entreprise a été avertie qu'elle risquait de contribuer à la violence extrême. En 2014, les autorités du Myanmar ont même temporairement bloqué Facebook en raison du rôle de la plateforme dans le déclenchement d'une flambée de violence ethnique à Mandalay. Cependant, Meta n'a pas tenu compte de ces avertissements à plusieurs reprises, et n'a pas non plus toujours appliqué ses propres politiques en matière de discours de haine.

L'enquête d'Amnesty International comprend l'analyse de nouveaux éléments de preuve tirés des Facebook Papers, un ensemble de documents internes divulgués par la dénonciatrice et ancienne employée de Facebook, France Haugen, qui a publié des milliers de pages de recherches sur Facebook et évoque la façon dont le PDG de Facebook, Mark Zuckerberg, permet à des contenus haineux d'atteindre un plus grand nombre de personnes sur la plateforme et comment l'entreprise pousse les adolescents à adopter des attitudes néfastes en matière de santé mentale et d'image corporelle.

Dans un document interne daté d'août 2019, un employé de Meta écrit : « Nous avons des preuves provenant de diverses sources que les discours de haine, les discours politiques diviseurs et la désinformation sur Facebook... affectent les sociétés du monde entier. Nous avons également des preuves irréfutables que les mécanismes de base de nos produits, tels que la viralité, les recommandations et l'optimisation de l'engagement, sont une partie importante de la raison pour laquelle ces types de discours fleurissent sur la plateforme. »

Meta doit payer

Amnesty International lance aujourd'hui une nouvelle campagne demandant à Meta Platforms, Inc. de répondre aux demandes de réparation des Rohingyas. Ce jour marque le premier anniversaire du meurtre de l'éminent militant Mohib Ullah, président de l'Arakan Rohingya Society for Peace and Human Rights. Mohib était à l'avant-garde des efforts communautaires visant à demander des comptes à Meta. Des groupes de réfugiés rohingyas ont demandé directement à Meta de remédier à la situation en finançant un projet éducatif d'un million de dollars américains dans le camp de réfugiés de Cox's Bazar, au Bangladesh. Cette demande de financement ne représente que 0,002 % des bénéfices de Meta, soit 46,7 milliards de dollars de 2021. En février 2021, Meta a rejeté la demande de la communauté rohingya, déclarant : « Facebook ne s'engage pas directement dans des activités philanthropiques ».

Selon l'ONU, les besoins éducatifs des Rohingyas en 2022 s'élèvent à 70,5 millions de dollars. Sur ce montant, un maigre 1,6 % a été effectivement financé.346 Mohamed Junaid, un réfugié rohingya de 23 ans, a déploré l'état de l'offre éducative pour les Rohingyas à Cox's Bazar : « Bien qu'il y ait eu de nombreuses restrictions au Myanmar, nous pouvions toujours aller à l'école jusqu'au baccalauréat au moins. Mais dans les camps, nos enfants ne peuvent rien faire. Nous gâchons nos vies sous des bâches ».

Mohamed, réfugié rohingya et professeur bénévole de mathématiques et de chimie, a expliqué ces défis à Amnesty International : « Cela fait presque cinq ans que nous vivons dans les camps de réfugiés, mais nous n'avons toujours pas la possibilité d'étudier ou d'aller à l'école. Notre prochaine génération se perd jour après jour. Au moins, au Myanmar, nous pouvions aller de la première année au baccalauréat, mais à cause de ce discours de haine, nous avons dû fuir au Bangladesh. Nous ne voyons donc pas d'avenir pour notre prochaine génération. Facebook peut nous aider à construire notre avenir et nous donner des opportunités. »

Showkutara, une femme et jeune militante rohingya de 22 ans, a déclaré à Amnesty International : « Facebook doit payer. S'ils ne le font pas, nous irons devant tous les tribunaux du monde. Nous n'abandonnerons jamais notre combat. » Il existe au moins trois plaintes actives visant à obtenir des mesures correctives pour les Rohingyas de la part de Meta. Des poursuites civiles ont été engagées contre l'entreprise en décembre 2021 au Royaume-Uni et aux États-Unis. Des groupes de jeunes réfugiés rohingyas ont également déposé une plainte contre Meta auprès de l'OCDE, qui est actuellement examinée par le point de contact national de l'OCDE des États-Unis.

« Meta a la responsabilité, en vertu des normes internationales relatives aux droits de l'homme, de remédier aux terribles préjudices subis par les Rohingyas auxquels ils ont contribué. Les conclusions doivent tirer la sonnette d'alarme : Meta risque de contribuer à de nouvelles violations graves des droits de l'homme, à moins qu'elle n'apporte des changements fondamentaux à son modèle économique et à ses algorithmes », a déclaré Agnès Callamard.

« Je crois vraiment que nous méritons un recours de la part de Facebook. I crois que nous vivons dans cet enfer à cause de plusieurs différents [acteurs], dont Facebook... Facebook ne peut pas nous refaire nos vies comme avant ; nous sommes les seuls à pouvoir le faire. Mais ce dont nous avons Mais pour cela, nous avons besoin d'éducation. Facebook dispose de milliards de dollars. Nous ne demandons qu'un peu d'argent pour donner des opportunités aux étudiants rohingyas dans ces camps de réfugiés. »

« Des réformes urgentes et de grande envergure de leurs systèmes algorithmiques pour prévenir les abus et accroître la transparence sont désespérément nécessaires pour garantir que l'histoire de Meta avec les Rohingyas ne se répète pas ailleurs dans le monde, en particulier là où la violence ethnique couve. » « En fin de compte, les États doivent maintenant contribuer à protéger les droits de l'homme en introduisant et en appliquant une législation efficace pour freiner les modèles commerciaux basés sur la surveillance dans l'ensemble du secteur technologique. Big Tech s'est montré incapable de le faire alors que des profits aussi énormes sont en jeu. »

Le président Joe Biden a déclaré l'année dernière que des plateformes comme Facebook tuent des gens en autorisant la désinformation sur le vaccin Covid-19 sur leurs services. Des professionnels de santé étayent ces propos du président américain ; à l’instar du docteur Nahid Bhadelia, une experte en maladies infectieuses, qui a déclaré : « Je pense que les médias sociaux jouent un rôle important dans l'amplification de la désinformation, ce qui conduit les gens à ne pas se faire vacciner, ce qui les tue ». En effet de récentes données montrent qu’après avoir baissé pendant des semaines aux USA, le nombre moyen de décès quotidiens dus au Covid sur sept jours a augmenté de 26 % pour atteindre 211 par jour.

Le 20 mai 2022, Amnesty International a écrit à Meta concernant les actions de l'entreprise dans le cadre de ses activités commerciales au Myanmar avant et pendant les atrocités de 2017. Meta a répondu qu'elle ne pouvait pas fournir d'informations concernant la période précédant 2017 car l'entreprise est « actuellement engagée dans une procédure de litige concernant des questions connexes. » Le 14 juin 2022, Amnesty International a de nouveau écrit à Meta au sujet des allégations pertinentes contenues dans le rapport, et pour donner à l'entreprise la possibilité de répondre. Meta a refusé de faire des commentaires.

Source : Amnesty International

Et vous ?

Que pensez-vous des accusations d'Amnesty International sur l'implication supposée de Meta face au nettoyage ethnique au Myanmar ?

Trouvez-vous pertinent le rapport d'Amnesty International ?

Quel est votre avis sur Meta ? Pensez-vous que l'intérêt financier de Meta prend le dessus sur le bien-être de nos sociétés ?

Que faire pour remédier selon vous ?

Voir aussi :

Facebook est « biaisé contre les faits » et constitue une menace pour la démocratie, selon la lauréate du prix Nobel de la paix Maria Ressa

Biden déclare que les plateformes comme Facebook tuent les gens avec les fausses informations COVID-19, plus de pression dans la lutte de la Maison-Blanche contre la désinformation sur les vaccins

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Prox_13
Membre averti https://www.developpez.com
Le 30/09/2022 à 12:29
"Meta doit payer", mais payer de quoi !? La loi n'est pas un menu à atrocités pour multi-nationales !

Il suffit donc simplement de payer pour se dédouaner d'un nettoyage ethnique ?
4  0 
Avatar de Ezerrot
Candidat au Club https://www.developpez.com
Le 09/10/2022 à 11:30
Citation Envoyé par pierre.E Voir le message
l histoire de l’humanité se résume à guerres et génocides de temps a autre et cela bien avant l'existence de facebook
donc .........................
Donc il faut inlassablement lutter contre ce fait
1  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 30/09/2022 à 13:31
Citation Envoyé par Prox_13 Voir le message
"Meta doit payer", mais payer de quoi !? La loi n'est pas un menu à atrocités pour multi-nationales !
Il suffit donc simplement de payer pour se dédouaner d'un nettoyage ethnique ?
Pour moi non, mais il y a d'autres façon de faire payer, par exemple imposer une certification avec les audits qui vont avec (et si on parle de sous, se faire auditer coute un bras)
La vie n'a pas de prix mais si Meta risque de payer plus cher la vie d'un mort qu'elle aide qu'elle ne pourrait lui rapporter alors on évitera peut être qu'elle prenne le risque de ne pas la protéger.

Lors d'une formation on m'a expliqué que "la société" estime que tuer des gens est un risque acceptable pour mettre un pilote automatique pas fini sur la route.
Je lui ai dit que nous n'avions pas la même notion d'éthique, il m'a répondu que la limite de l'éthique était la réglementation. Depuis je crois un peu moins en l'avenir si nous sommes dirigés (au sens large, y compris industriel) par ce genre de personnes
1  1 
Avatar de pierre.E
Membre confirmé https://www.developpez.com
Le 08/10/2022 à 17:46
l histoire de l’humanité se résume à guerres et génocides de temps a autre et cela bien avant l'existence de facebook
donc .........................
0  0 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 01/10/2022 à 5:51
Citation Envoyé par Prox_13 Voir le message
"Meta doit payer", mais payer de quoi !? La loi n'est pas un menu à atrocités pour multi-nationales !

Il suffit donc simplement de payer pour se dédouaner d'un nettoyage ethnique ?
La population du Myanmar leur ont offert "Le cercueil ou la valise", ils ont choisis le cercueil. Les peuples ont le droit de se défendre contre une invasion. Si la pratique était acceptable contre les Européens, il n'y pas de raison pour que ce ne soit pas avec des Musulmans.
2  4