IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Apple aurait menacé d'éjecter Facebook de l'App Store après un rapport indiquant le laxisme du réseau social sur les problèmes de la traite des êtres humains
Auxquels il faisait face

Le , par Stéphane le calme

164PARTAGES

11  0 
Apple a menacé d'éjecter Facebook de son App Store après qu'un rapport de la BBC en 2019 a détaillé comment les trafiquants d'êtres humains utilisaient Facebook pour vendre des victimes, selon le Wall Street Journal. Le Journal a consulté des documents de l'entreprise qui montrent qu'une équipe d'enquête de Facebook traquait un marché de la traite des êtres humains au Moyen-Orient dont les organisateurs utilisaient les services de Facebook. Ce qui semblait être des agences de placement faisait de la publicité pour les travailleurs domestiques qu'elles pouvaient fournir contre leur gré, selon le Journal.

Des dizaines de documents Facebook examinés par le Wall Street Journal montrent que des employés Facebook ont tiré la sonnette d'alarme sur la façon dont ses plateformes sont utilisées dans les pays en développement, où sa base d'utilisateurs est énorme et en expansion. Les employés ont signalé que des trafiquants d'êtres humains au Moyen-Orient utilisaient les plateformes pour proposer des « femmes de ménage à vendre » qui étaient présentées comme du personnel corvéable à merci, sans contrat de travail ni protection sociale et confiscation du passeport.


Apple a dû menacer le réseau social de retirer ses applications de l'App Store pour qu'il s'engage à réprimer cette pratique.

Pourtant, une note interne a révélé que Facebook était au courant de la pratique avant même cette date : un chercheur de Facebook a écrit dans un rapport daté de 2019, « ce problème était-il connu de Facebook avant l'enquête de la BBC et l'escalade d'Apple ?  », selon le Journal.

Sous la question se lit : « Oui. Tout au long de 2018 et du premier semestre 2019, nous avons mené l'exercice de compréhension global afin de bien comprendre comment la servitude domestique ne se manifeste pas sur notre plateforme tout au long de son cycle de vie : recrutement, facilitation et exploitation ».

À maintes reprises, montrent les documents, les chercheurs de Facebook ont identifié les effets néfastes de la plateforme. À maintes reprises, malgré les audiences du Congrès, ses propres engagements et de nombreux exposés médiatiques, la société ne les a pas corrigés. Les documents offrent peut-être l'image la plus claire à ce jour de l'étendue de la connaissance des problèmes de Facebook au sein de l'entreprise, jusqu'au directeur général lui-même.

À la lecture des documents internes, des employés de Facebook ont averti que des groupes armés en Éthiopie utilisaient le site pour inciter à la violence contre les minorités ethniques. Ils ont envoyé des alertes à leurs patrons sur l'utilisation des plateformes pour la vente d'organes, la pédopornographie et l'action du gouvernement contre la dissidence politique. Les documents ont montré également la réponse de l'entreprise, qui dans de nombreux cas est inadéquate ou inexistante. Un porte-parole de Facebook a déclaré que la société avait déployé des équipes mondiales, des partenariats locaux et des vérificateurs de faits tiers pour assurer la sécurité des utilisateurs.

Facebook dit que ses règles s'appliquent à tous. Les documents de l'entreprise révèlent une élite secrète qui est exemptée

Mark Zuckerberg a déclaré que Facebook permet à ses utilisateurs de parler sur un pied d'égalité avec les élites de la politique, de la culture et du journalisme, et que ses normes s'appliquent à tout le monde. En privé, la société a construit un système qui a exempté les utilisateurs de haut niveau de tout ou partie de ses règles. Le programme, connu sous le nom de « contrôle croisé » (cross check) ou « XCheck », était conçu comme une mesure de contrôle de la qualité pour les comptes de grande envergure. Aujourd'hui, il protège des millions de VIP de l'application normale de l'entreprise, selon les documents. Beaucoup abusent de ce privilège, publiant du matériel comprenant du harcèlement et de l'incitation à la violence qui entraînerait généralement des sanctions. Facebook affirme que la critique du programme est juste, qu'il a été conçu dans un bon but et que l'entreprise s'efforce de le corriger.

Facebook sait qu'Instagram est toxique pour de nombreuses adolescentes, selon les documents de l'entreprise

Les chercheurs d'Instagram, qui appartient à Facebook, étudient depuis des années comment son application de partage de photos affecte des millions de jeunes utilisateurs. À plusieurs reprises, la société a constaté qu'Instagram est nocif pour un pourcentage important d'entre elles, notamment les adolescentes, plus que les autres plateformes de médias sociaux. En public, Facebook a toujours minimisé les effets négatifs de l'application, y compris dans les commentaires au Congrès, et n'a pas rendu ses recherches publiques ou disponibles pour les universitaires ou les législateurs qui l'ont demandé. En réponse, Facebook dit que les effets négatifs ne sont pas généralisés, que la recherche en santé mentale est précieuse et que certains des aspects nocifs ne sont pas faciles à traiter

Facebook a essayé de faire de sa plateforme un endroit plus sain. Le résultat est loin d'être celui qui était escompté

En 2018, Facebook a annoncé avoir procédé à un changement dans son algorithme afin d'améliorer sa plateforme et d'arrêter les signes de déclin de l'engagement des utilisateurs. Zuckerberg a déclaré que son objectif était de renforcer les liens entre les utilisateurs et d'améliorer leur bien-être en favorisant les interactions entre amis et famille. Au sein de l'entreprise, montrent les documents, les membres du personnel ont averti que le changement avait l'effet inverse. Cela rendait Facebook et ceux qui l'utilisaient encore plus en colère. Zuckerberg a résisté à certaines corrections proposées par son équipe, selon les documents, car il craignait qu'elles conduisent les gens à moins interagir avec Facebook. Facebook, en réponse, affirme que tout algorithme peut promouvoir un contenu répréhensible ou préjudiciable et que l'entreprise fait de son mieux pour atténuer le problème.

Les modérateurs qui ne comprennent pas certaines langues et laissent passer des messages nuisibles

Les modérateurs de contenu alimentés par l'intelligence artificielle de Facebook ne peuvent pas lire certaines langues utilisées sur la plateforme, ce qui soulève des inquiétudes quant à la façon dont l'entreprise contrôle le contenu dans les pays qui parlent des langues autres que l'anglais, a rapporté jeudi le Wall Street Journal.

Le Journal a consulté des documents de l'entreprise qui montrent que Facebook n'a pas suffisamment d'employés capables de parler les langues locales pour surveiller les événements dans d'autres pays, des marchés sur lesquels l'entreprise s'est développée pour renforcer sa base d'utilisateurs non américains. Plus de 90 % des utilisateurs mensuels de Facebook se trouvent en dehors de l'Amérique du Nord, selon le Journal.

Le rapport montre comment le manque de modérateurs humains possédant des compétences multilingues (combiné aux lacunes de l'utilisation de robots pour éliminer les messages toxiques)affaiblit la capacité de Facebook à surveiller le contenu préjudiciable en ligne, un sujet qui l'a soumis à un examen minutieux dans plusieurs pays ces dernières années.

Les employés de Facebook ont ​​exprimé leurs inquiétudes quant à la façon dont le système a permis à de mauvais acteurs d'utiliser le site à des fins néfastes, selon les documents consultés par The Journal.

Un ancien vice-président de la société a déclaré au Journal que Facebook perçoit les dommages potentiels dans les pays étrangers comme étant « simplement le prix à payer pour faire des affaires » sur ces marchés. Il a également déclaré qu'il y a « très rarement un effort significatif et concerté pour investir dans la réparation de ces domaines ».

Les cartels de la drogue et les trafiquants d'êtres humains ont utilisé Facebook pour cibler des victimes. Un cartel, en particulier, représente la plus grande menace criminelle de drogue pour les États-Unis, selon les responsables américains, et a utilisé plusieurs pages Facebook pour publier des photos de scènes violentes et graphiques et d'images d'armes à feu. Une équipe d'enquête interne voulait que le cartel soit complètement banni, mais l'équipe chargée de le faire n'a jamais donné suite, selon le rapport.

En Éthiopie, des groupes ont utilisé Facebook pour inciter à la violence contre le peuple tigréen victime du nettoyage ethnique. Ce contenu a glissé entre les mailles du filet en raison d'un manque de modérateurs qui parlent cette langue. La société n'avait pas non plus traduit ses règles de « normes communautaires » dans les langues utilisées en Éthiopie, selon le Journal.

Et la plupart des modérateurs de Facebook arabophones marocains ne sont pas capables de parler d'autres dialectes arabes, ce qui a permis aux contenus violents de rester en ligne.

Dans la plupart des cas, Facebook a supprimé les publications nuisibles uniquement lorsqu'elles ont attiré l'attention du public et n'a pas réparé les systèmes automatisés (surnommés « classificateurs ») qui ont permis la publication de ce contenu en premier lieu, selon le rapport.

Sources : BBC, WSJ

Voir aussi :

Apple a bloqué le clavier FlickType Watch disant que les claviers ne sont pas autorisés sur l'Apple Watch puis a annoncé un clone de celui-ci sur le dispositif
Procès Epic : Apple ne pourra plus forcer les développeurs à utiliser son système de paiement, une décision qui pourrait sérieusement nuire aux revenus de l'éditeur sur l'App Store
Apple censure les mots et expressions que ses clients peuvent graver sur ses produits en Chine, à Hong Kong et à Taïwan : droits de l'Homme, liberté de la presse et démocratie en font partie
Apple enregistre un chiffre d'affaires record de 89,6 Md $ au 2T21, soit une hausse de 54 % d'une année à l'autre, mais reste tout de même vigilant quant à la pénurie de puces

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de adamsson
Membre à l'essai https://www.developpez.com
Le 20/09/2021 à 9:39
Très bon article qui au lieu de rester dans le conflit Apple/Facebook comme le laissait craindre le titre, rentre dans le fond du sujet.
C'est quand-même une tâche très compliquée pour facebook, qui se retrouve à devoir gérer des problématiques normalement confiées aux Etats.

La question est : Facebook doit-il jouer le rôle d'un Etat ? Car ce sont purement et simplement les problématiques du monde "IRL" qui se retrouvent transposées sur le réseau social. Ce qui demande des moyens conséquent pour enquêter, démêler le vrai du faux, dénicher, sanctionner...
C'est véritablement un travail de policier !

Facebook peut êre blamé poru avoir vu trop grand et avoir voulu manger le monde entier sans savoir à quoi il s'attaquait. Des réseaux sociaux décentralisés dont la gouvernance est confiées aux autorités locales l'aurait déchargé de cette responsabilité mais aurait amené aussi tout son lot de problèmes comme par exemple le cadre donné à la parole. Ce qui est tolérable pour facebook ne le sera pas forcément pour les autorités ou communautés locales, et inversement.

Facebook se retrouve à devoir appliquer sa politique, sa vision du monde dans une myriade de contextes différents avec chacun leur spécificités, c'est un travail de titan et je suis pas sûr qu'une entreprise à la base à but lucratif soit faite pour ça. D'autant plus que sa politique ne fait même pas l'unanimité dans son pays d'origine, les USA !

Sacré bazar.
5  0 
Avatar de kain_tn
Membre expert https://www.developpez.com
Le 20/09/2021 à 20:34
Citation Envoyé par free07 Voir le message
Un problème majeur des réseaux sociaux est l'anonymat ce qui rend très difficile l'action des autorités d'état compétentes.
Si tu crois que tu es vraiment anonyme pour les employés de Facebook ou autre, tu rêves. Entre tes données de connexion, les données envoyées en permanence par ton téléphone (par à peu près n'importe quelle app qui embarque un SDK FB ou Google), les données partagées par/avec tes contacts, tu as zéro chance d'être d'anonyme.
5  1 
Avatar de tanaka59
Membre extrêmement actif https://www.developpez.com
Le 19/10/2021 à 14:11
Bonjour,

Facebook estime que l'IA va assainir sa plateforme, mais ses propres ingénieurs ont des doutes notant que l'IA est loin de pouvoir appliquer avec succès les règles de la plateforme contre les contenus problématiques

Quelle lecture en faites-vous ?
Une ia comme son nom l'indique = intelligence artificielle .

Artificiel = Produit par le travail de l'homme et non par la nature.

Cela est donc soumis à des règles de gestion et de fonctionnement. Ce n'est pas l'intelligence naturelle d'un cerveau humain .

Donc l'ia en question peut avoir des résultats complétement con .

Caricature de Macron en hitler :



Photo historique d'un véhicule allemand nazi :



> pour l'ia Facebook = la caricature de macron passe
> la photo historique = photo raciste

----

En tenant compte de la notion de "contexte" et "subtilité" pour un humain , chose à la quelle l'ia a bien du mal ou alors n'est pas programmée pour :

> la caricature de macron est raciste
> l photo historique acceptable

Le jour ou l'ia arrivera a tenir compte des notions de "contexte" et "subtilité" , peut être, je dis bien peut être qu'on arrivera a avancer ...

Peut être doit on garder une main mise, sur une modération manuelle ?

Tout ce qui n'est pas régi par des règles binaires est peut être tout simplement impossible à régir informatiquement ?

Les émotions, les sentiments, les jugements, les envies , les goûts , les valeurs ...
4  0 
Avatar de youpimatos
Membre du Club https://www.developpez.com
Le 20/09/2021 à 8:19
Fais ce que je dis pas ce que je fais
3  0 
Avatar de Ehma
Membre averti https://www.developpez.com
Le 20/09/2021 à 10:46
Citation Envoyé par adamsson Voir le message
...

La question est : Facebook doit-il jouer le rôle d'un Etat ? Car ce sont purement et simplement les problématiques du monde "IRL" qui se retrouvent transposées sur le réseau social. Ce qui demande des moyens conséquent pour enquêter, démêler le vrai du faux, dénicher, sanctionner...
C'est véritablement un travail de policier !
Enfin une parole sensée...
Oui, j'en discute souvent, comme quand Tweeter censure D. Trump. Les réseaux sociaux doivent-être considérés comme l'espace publique et soumis aux autorités d'état compétentes. Nul ne peut faire justice soi-même.

Selon moi, le problème est bien là !
3  1 
Avatar de TotoParis
Membre confirmé https://www.developpez.com
Le 04/10/2021 à 20:46
Citation Envoyé par youpimatos Voir le message
Fais ce que je dis pas ce que je fais
Non, c'est bien pire, le comportement de FB est tout simplement criminel.
Que les américains prient pour qu'aucune guerre civile n'éclate dans ce pays.
FB aurait une grande responsabilité.
ENCORE BRAVO A CETTE LANCEUSE D'ALERTE.
2  0 
Avatar de Fagus
Membre éprouvé https://www.developpez.com
Le 07/10/2021 à 14:53
Citation Envoyé par Charrette Voir le message
Il y a tellement d'utilisateurs sur Facebook, qu'il me parait difficile de tout contrôler,
Ce n'est pas tant cela le problème. Ils pourraient très bien mettre en place un système antique de permis à points géré par des modérateurs. Au bout d'un certain nombre d'avertissements c'est la fermeture du compte, comme sur les forums.

Le problème c'est plutôt que leurs algorithmes ont bénéficié des recherches en psychologie et sont capable de manipuler l'état émotionnel des gens (car une personne révoltée est plus attentive à la publicité, reste plus en, ligne, etc.) , sont capable d'induire des abstentions de vote etc., polarisent les opinions, et dégradent l'état mental des gens. C'est documenté et ils ne s'en privent pas du tout.

Cette société est malveillante. La structuration même du fil d'actualité infini crée le scroll of death. En réaction à ça, les gens de Framasoft ont crée Mobilizon .
2  0 
Avatar de Planetary
Nouveau membre du Club https://www.developpez.com
Le 08/10/2021 à 7:50
Plus ça va, plus j’ai l’impression que c'est une vaste conspiration par les censeurs alliés au gouvernement américain pour mettre en place et en pratique la censure généralisé des réseaux sociaux en censurant toute opinion déviant de la ligne tracé par la pensée dominante.

Cette lanceuse d'alerte tombe vraiment à pique.
2  0 
Avatar de smobydick
Membre habitué https://www.developpez.com
Le 20/10/2021 à 9:04
À partir du moment où les fondateurs de ses réseaux sociaux ne veulent pas que leurs propres gosses y aient accès (alors qu'ils proposent des versions soit disant édulcorées et protégées pour les ados), faut commencer à chercher la porte de sortie.
2  0 
Avatar de PomFritz
Membre actif https://www.developpez.com
Le 20/10/2021 à 16:44
Citation Envoyé par phil995511 Voir le message
Globalement Internet c'est le Far-West.
Dans ce cas, le Far-West, c'est le monde des entreprises privées qui ne veulent surtout pas se voir brider leur "capacité d'innovation".
2  0