Apple a menacé d'éjecter Facebook de son App Store après qu'un rapport de la BBC en 2019 a détaillé comment les trafiquants d'êtres humains utilisaient Facebook pour vendre des victimes, selon le Wall Street Journal. Le Journal a consulté des documents de l'entreprise qui montrent qu'une équipe d'enquête de Facebook traquait un marché de la traite des êtres humains au Moyen-Orient dont les organisateurs utilisaient les services de Facebook. Ce qui semblait être des agences de placement faisait de la publicité pour les travailleurs domestiques qu'elles pouvaient fournir contre leur gré, selon le Journal.
Des dizaines de documents Facebook examinés par le Wall Street Journal montrent que des employés Facebook ont tiré la sonnette d'alarme sur la façon dont ses plateformes sont utilisées dans les pays en développement, où sa base d'utilisateurs est énorme et en expansion. Les employés ont signalé que des trafiquants d'êtres humains au Moyen-Orient utilisaient les plateformes pour proposer des « femmes de ménage à vendre » qui étaient présentées comme du personnel corvéable à merci, sans contrat de travail ni protection sociale et confiscation du passeport.
Apple a dû menacer le réseau social de retirer ses applications de l'App Store pour qu'il s'engage à réprimer cette pratique.
Pourtant, une note interne a révélé que Facebook était au courant de la pratique avant même cette date : un chercheur de Facebook a écrit dans un rapport daté de 2019, « ce problème était-il connu de Facebook avant l'enquête de la BBC et l'escalade d'Apple ? », selon le Journal.
Sous la question se lit : « Oui. Tout au long de 2018 et du premier semestre 2019, nous avons mené l'exercice de compréhension global afin de bien comprendre comment la servitude domestique ne se manifeste pas sur notre plateforme tout au long de son cycle de vie : recrutement, facilitation et exploitation ».
À maintes reprises, montrent les documents, les chercheurs de Facebook ont identifié les effets néfastes de la plateforme. À maintes reprises, malgré les audiences du Congrès, ses propres engagements et de nombreux exposés médiatiques, la société ne les a pas corrigés. Les documents offrent peut-être l'image la plus claire à ce jour de l'étendue de la connaissance des problèmes de Facebook au sein de l'entreprise, jusqu'au directeur général lui-même.
À la lecture des documents internes, des employés de Facebook ont averti que des groupes armés en Éthiopie utilisaient le site pour inciter à la violence contre les minorités ethniques. Ils ont envoyé des alertes à leurs patrons sur l'utilisation des plateformes pour la vente d'organes, la pédopornographie et l'action du gouvernement contre la dissidence politique. Les documents ont montré également la réponse de l'entreprise, qui dans de nombreux cas est inadéquate ou inexistante. Un porte-parole de Facebook a déclaré que la société avait déployé des équipes mondiales, des partenariats locaux et des vérificateurs de faits tiers pour assurer la sécurité des utilisateurs.
Facebook dit que ses règles s'appliquent à tous. Les documents de l'entreprise révèlent une élite secrète qui est exemptée
Mark Zuckerberg a déclaré que Facebook permet à ses utilisateurs de parler sur un pied d'égalité avec les élites de la politique, de la culture et du journalisme, et que ses normes s'appliquent à tout le monde. En privé, la société a construit un système qui a exempté les utilisateurs de haut niveau de tout ou partie de ses règles. Le programme, connu sous le nom de « contrôle croisé » (cross check) ou « XCheck », était conçu comme une mesure de contrôle de la qualité pour les comptes de grande envergure. Aujourd'hui, il protège des millions de VIP de l'application normale de l'entreprise, selon les documents. Beaucoup abusent de ce privilège, publiant du matériel comprenant du harcèlement et de l'incitation à la violence qui entraînerait généralement des sanctions. Facebook affirme que la critique du programme est juste, qu'il a été conçu dans un bon but et que l'entreprise s'efforce de le corriger.
Facebook sait qu'Instagram est toxique pour de nombreuses adolescentes, selon les documents de l'entreprise
Les chercheurs d'Instagram, qui appartient à Facebook, étudient depuis des années comment son application de partage de photos affecte des millions de jeunes utilisateurs. À plusieurs reprises, la société a constaté qu'Instagram est nocif pour un pourcentage important d'entre elles, notamment les adolescentes, plus que les autres plateformes de médias sociaux. En public, Facebook a toujours minimisé les effets négatifs de l'application, y compris dans les commentaires au Congrès, et n'a pas rendu ses recherches publiques ou disponibles pour les universitaires ou les législateurs qui l'ont demandé. En réponse, Facebook dit que les effets négatifs ne sont pas généralisés, que la recherche en santé mentale est précieuse et que certains des aspects nocifs ne sont pas faciles à traiter
Facebook a essayé de faire de sa plateforme un endroit plus sain. Le résultat est loin d'être celui qui était escompté
En 2018, Facebook a annoncé avoir procédé à un changement dans son algorithme afin d'améliorer sa plateforme et d'arrêter les signes de déclin de l'engagement des utilisateurs. Zuckerberg a déclaré que son objectif était de renforcer les liens entre les utilisateurs et d'améliorer leur bien-être en favorisant les interactions entre amis et famille. Au sein de l'entreprise, montrent les documents, les membres du personnel ont averti que le changement avait l'effet inverse. Cela rendait Facebook et ceux qui l'utilisaient encore plus en colère. Zuckerberg a résisté à certaines corrections proposées par son équipe, selon les documents, car il craignait qu'elles conduisent les gens à moins interagir avec Facebook. Facebook, en réponse, affirme que tout algorithme peut promouvoir un contenu répréhensible ou préjudiciable et que l'entreprise fait de son mieux pour atténuer le problème.
Les modérateurs qui ne comprennent pas certaines langues et laissent passer des messages nuisibles
Les modérateurs de contenu alimentés par l'intelligence artificielle de Facebook ne peuvent pas lire certaines langues utilisées sur la plateforme, ce qui soulève des inquiétudes quant à la façon dont l'entreprise contrôle le contenu dans les pays qui parlent des langues autres que l'anglais, a rapporté jeudi le Wall Street Journal.
Le Journal a consulté des documents de l'entreprise qui montrent que Facebook n'a pas suffisamment d'employés capables de parler les langues locales pour surveiller les événements dans d'autres pays, des marchés sur lesquels l'entreprise s'est développée pour renforcer sa base d'utilisateurs non américains. Plus de 90 % des utilisateurs mensuels de Facebook se trouvent en dehors de l'Amérique du Nord, selon le Journal.
Le rapport montre comment le manque de modérateurs humains possédant des compétences multilingues (combiné aux lacunes de l'utilisation de robots pour éliminer les messages toxiques)affaiblit la capacité de Facebook à surveiller le contenu préjudiciable en ligne, un sujet qui l'a soumis à un examen minutieux dans plusieurs pays ces dernières années.
Les employés de Facebook ont ​​exprimé leurs inquiétudes quant à la façon dont le système a permis à de mauvais acteurs d'utiliser le site à des fins néfastes, selon les documents consultés par The Journal.
Un ancien vice-président de la société a déclaré au Journal que Facebook perçoit les dommages potentiels dans les pays étrangers comme étant « simplement le prix à payer pour faire des affaires » sur ces marchés. Il a également déclaré qu'il y a « très rarement un effort significatif et concerté pour investir dans la réparation de ces domaines ».
Les cartels de la drogue et les trafiquants d'êtres humains ont utilisé Facebook pour cibler des victimes. Un cartel, en particulier, représente la plus grande menace criminelle de drogue pour les États-Unis, selon les responsables américains, et a utilisé plusieurs pages Facebook pour publier des photos de scènes violentes et graphiques et d'images d'armes à feu. Une équipe d'enquête interne voulait que le cartel soit complètement banni, mais l'équipe chargée de le faire n'a jamais donné suite, selon le rapport.
En Éthiopie, des groupes ont utilisé Facebook pour inciter à la violence contre le peuple tigréen victime du nettoyage ethnique. Ce contenu a glissé entre les mailles du filet en raison d'un manque de modérateurs qui parlent cette langue. La société n'avait pas non plus traduit ses règles de « normes communautaires » dans les langues utilisées en Éthiopie, selon le Journal.
Et la plupart des modérateurs de Facebook arabophones marocains ne sont pas capables de parler d'autres dialectes arabes, ce qui a permis aux contenus violents de rester en ligne.
Dans la plupart des cas, Facebook a supprimé les publications nuisibles uniquement lorsqu'elles ont attiré l'attention du public et n'a pas réparé les systèmes automatisés (surnommés « classificateurs ») qui ont permis la publication de ce contenu en premier lieu, selon le rapport.
Sources : BBC, WSJ
Voir aussi :
Apple a bloqué le clavier FlickType Watch disant que les claviers ne sont pas autorisés sur l'Apple Watch puis a annoncé un clone de celui-ci sur le dispositif
Procès Epic : Apple ne pourra plus forcer les développeurs à utiliser son système de paiement, une décision qui pourrait sérieusement nuire aux revenus de l'éditeur sur l'App Store
Apple censure les mots et expressions que ses clients peuvent graver sur ses produits en Chine, à Hong Kong et à Taïwan : droits de l'Homme, liberté de la presse et démocratie en font partie
Apple enregistre un chiffre d'affaires record de 89,6 Md $ au 2T21, soit une hausse de 54 % d'une année à l'autre, mais reste tout de même vigilant quant à la pénurie de puces
Apple aurait menacé d'éjecter Facebook de l'App Store après un rapport indiquant le laxisme du réseau social sur les problèmes de la traite des êtres humains
Auxquels il faisait face
Apple aurait menacé d'éjecter Facebook de l'App Store après un rapport indiquant le laxisme du réseau social sur les problèmes de la traite des êtres humains
Auxquels il faisait face
Le , par Stéphane le calme
Une erreur dans cette actualité ? Signalez-nous-la !