IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Facebook encourage les discours de haine pour gagner de l'argent, selon une lanceuse d'alerte
Qui a publié des informations qu'elle a pu glaner durant son passage au sein de l'entreprise

Le , par Stéphane le calme

668PARTAGES

7  0 
Apple aurait menacé d'éjecter Facebook de son App Store après un rapport notant que des esclavagistes utilisaient la plateforme
et Facebook était laxiste quant à la gestion de ce problème

Apple a menacé d'éjecter Facebook de son App Store après qu'un rapport de la BBC en 2019 a détaillé comment les trafiquants d'êtres humains utilisaient Facebook pour vendre des victimes, selon le Wall Street Journal. Le Journal a consulté des documents de l'entreprise qui montrent qu'une équipe d'enquête de Facebook traquait un marché de la traite des êtres humains au Moyen-Orient dont les organisateurs utilisaient les services de Facebook. Ce qui semblait être des agences de placement faisait de la publicité pour les travailleurs domestiques qu'elles pouvaient fournir contre leur gré, selon le Journal.

Des dizaines de documents Facebook examinés par le Wall Street Journal montrent que des employés Facebook ont tiré la sonnette d'alarme sur la façon dont ses plateformes sont utilisées dans les pays en développement, où sa base d'utilisateurs est énorme et en expansion. Les employés ont signalé que des trafiquants d'êtres humains au Moyen-Orient utilisaient les plateformes pour proposer des « femmes de ménage à vendre » qui étaient présentées comme du personnel corvéable à merci, sans contrat de travail ni protection sociale et confiscation du passeport.


Apple a dû menacer le réseau social de retirer ses applications de l'App Store pour qu'il s'engage à réprimer cette pratique.

Pourtant, une note interne a révélé que Facebook était au courant de la pratique avant même cette date : un chercheur de Facebook a écrit dans un rapport daté de 2019, « ce problème était-il connu de Facebook avant l'enquête de la BBC et l'escalade d'Apple ?  », selon le Journal.

Sous la question se lit : « Oui. Tout au long de 2018 et du premier semestre 2019, nous avons mené l'exercice de compréhension global afin de bien comprendre comment la servitude domestique ne se manifeste pas sur notre plateforme tout au long de son cycle de vie : recrutement, facilitation et exploitation ».

À maintes reprises, montrent les documents, les chercheurs de Facebook ont identifié les effets néfastes de la plateforme. À maintes reprises, malgré les audiences du Congrès, ses propres engagements et de nombreux exposés médiatiques, la société ne les a pas corrigés. Les documents offrent peut-être l'image la plus claire à ce jour de l'étendue de la connaissance des problèmes de Facebook au sein de l'entreprise, jusqu'au directeur général lui-même.

À la lecture des documents internes, des employés de Facebook ont averti que des groupes armés en Éthiopie utilisaient le site pour inciter à la violence contre les minorités ethniques. Ils ont envoyé des alertes à leurs patrons sur l'utilisation des plateformes pour la vente d'organes, la pédopornographie et l'action du gouvernement contre la dissidence politique. Les documents ont montré également la réponse de l'entreprise, qui dans de nombreux cas est inadéquate ou inexistante. Un porte-parole de Facebook a déclaré que la société avait déployé des équipes mondiales, des partenariats locaux et des vérificateurs de faits tiers pour assurer la sécurité des utilisateurs.

Facebook dit que ses règles s'appliquent à tous. Les documents de l'entreprise révèlent une élite secrète qui est exemptée

Mark Zuckerberg a déclaré que Facebook permet à ses utilisateurs de parler sur un pied d'égalité avec les élites de la politique, de la culture et du journalisme, et que ses normes s'appliquent à tout le monde. En privé, la société a construit un système qui a exempté les utilisateurs de haut niveau de tout ou partie de ses règles. Le programme, connu sous le nom de « contrôle croisé » (cross check) ou « XCheck », était conçu comme une mesure de contrôle de la qualité pour les comptes de grande envergure. Aujourd'hui, il protège des millions de VIP de l'application normale de l'entreprise, selon les documents. Beaucoup abusent de ce privilège, publiant du matériel comprenant du harcèlement et de l'incitation à la violence qui entraînerait généralement des sanctions. Facebook affirme que la critique du programme est juste, qu'il a été conçu dans un bon but et que l'entreprise s'efforce de le corriger.

Facebook sait qu'Instagram est toxique pour de nombreuses adolescentes, selon les documents de l'entreprise

Les chercheurs d'Instagram, qui appartient à Facebook, étudient depuis des années comment son application de partage de photos affecte des millions de jeunes utilisateurs. À plusieurs reprises, la société a constaté qu'Instagram est nocif pour un pourcentage important d'entre elles, notamment les adolescentes, plus que les autres plateformes de médias sociaux. En public, Facebook a toujours minimisé les effets négatifs de l'application, y compris dans les commentaires au Congrès, et n'a pas rendu ses recherches publiques ou disponibles pour les universitaires ou les législateurs qui l'ont demandé. En réponse, Facebook dit que les effets négatifs ne sont pas généralisés, que la recherche en santé mentale est précieuse et que certains des aspects nocifs ne sont pas faciles à traiter

Facebook a essayé de faire de sa plateforme un endroit plus sain. Le résultat est loin d'être celui qui était escompté

En 2018, Facebook a annoncé avoir procédé à un changement dans son algorithme afin d'améliorer sa plateforme et d'arrêter les signes de déclin de l'engagement des utilisateurs. Zuckerberg a déclaré que son objectif était de renforcer les liens entre les utilisateurs et d'améliorer leur bien-être en favorisant les interactions entre amis et famille. Au sein de l'entreprise, montrent les documents, les membres du personnel ont averti que le changement avait l'effet inverse. Cela rendait Facebook et ceux qui l'utilisaient encore plus en colère. Zuckerberg a résisté à certaines corrections proposées par son équipe, selon les documents, car il craignait qu'elles conduisent les gens à moins interagir avec Facebook. Facebook, en réponse, affirme que tout algorithme peut promouvoir un contenu répréhensible ou préjudiciable et que l'entreprise fait de son mieux pour atténuer le problème.

Les modérateurs qui ne comprennent pas certaines langues et laissent passer des messages nuisibles

Les modérateurs de contenu alimentés par l'intelligence artificielle de Facebook ne peuvent pas lire certaines langues utilisées sur la plateforme, ce qui soulève des inquiétudes quant à la façon dont l'entreprise contrôle le contenu dans les pays qui parlent des langues autres que l'anglais, a rapporté jeudi le Wall Street Journal.

Le Journal a consulté des documents de l'entreprise qui montrent que Facebook n'a pas suffisamment d'employés capables de parler les langues locales pour surveiller les événements dans d'autres pays, des marchés sur lesquels l'entreprise s'est développée pour renforcer sa base d'utilisateurs non américains. Plus de 90 % des utilisateurs mensuels de Facebook se trouvent en dehors de l'Amérique du Nord, selon le Journal.

Le rapport montre comment le manque de modérateurs humains possédant des compétences multilingues (combiné aux lacunes de l'utilisation de robots pour éliminer les messages toxiques)affaiblit la capacité...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de vanquish
Membre chevronné https://www.developpez.com
Le 16/11/2021 à 15:21
Citation Envoyé par redcurve Voir le message
Facebook n'est pas devenu Meta
Quand même un peu ...

Soit ! Le produit/site/réseau social s'appelait et continue de s'appeler "Facebook".
Mais la société "Facebook Inc." a bien changé de nom en (et est donc devenu) "Meta Platforms, Inc."

Alors ne pas spécifier le "Inc." est peut-être un raccourci de langage, mais on dit "Microsoft", jamais "Microsoft Corp."
On ne peut pas considérer la phrase comme fausse.
8  0 
Avatar de
https://www.developpez.com
Le 19/10/2021 à 14:11
Bonjour,

Facebook estime que l'IA va assainir sa plateforme, mais ses propres ingénieurs ont des doutes notant que l'IA est loin de pouvoir appliquer avec succès les règles de la plateforme contre les contenus problématiques

Quelle lecture en faites-vous ?
Une ia comme son nom l'indique = intelligence artificielle .

Artificiel = Produit par le travail de l'homme et non par la nature.

Cela est donc soumis à des règles de gestion et de fonctionnement. Ce n'est pas l'intelligence naturelle d'un cerveau humain .

Donc l'ia en question peut avoir des résultats complétement con .

Caricature de Macron en hitler :



Photo historique d'un véhicule allemand nazi :



> pour l'ia Facebook = la caricature de macron passe
> la photo historique = photo raciste

----

En tenant compte de la notion de "contexte" et "subtilité" pour un humain , chose à la quelle l'ia a bien du mal ou alors n'est pas programmée pour :

> la caricature de macron est raciste
> l photo historique acceptable

Le jour ou l'ia arrivera a tenir compte des notions de "contexte" et "subtilité" , peut être, je dis bien peut être qu'on arrivera a avancer ...

Peut être doit on garder une main mise, sur une modération manuelle ?

Tout ce qui n'est pas régi par des règles binaires est peut être tout simplement impossible à régir informatiquement ?

Les émotions, les sentiments, les jugements, les envies , les goûts , les valeurs ...
6  0 
Avatar de archqt
Membre émérite https://www.developpez.com
Le 16/11/2021 à 9:16
On s'en doutait que les réseaux sociaux n'étaient pas bons pour la santé. Mais c'est valable aussi pour les téléphones. Les jeunes passent leur temps dessus.
Et encore mes gamins n'ont pas de comptes sur les réseaux sociaux, ils regardent plein de vidéos (tik-tok, youtube, des séries) moins pire. Par contre il est clair que les influenceurs physiques ne peuvent que donner des complexes. Ils prennent des produits, ne mangent pas pour rester "sec", font 4H de muscu par jour, sans compter la chirurgie pour se faire gonfler les seins, blanchir les dents...
Une personne normale ne peut pas lutter.

De toute façon quand c'est gratuit c'est toi le produit.
8  3 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 07/10/2021 à 14:53
Citation Envoyé par Charrette Voir le message
Il y a tellement d'utilisateurs sur Facebook, qu'il me parait difficile de tout contrôler,
Ce n'est pas tant cela le problème. Ils pourraient très bien mettre en place un système antique de permis à points géré par des modérateurs. Au bout d'un certain nombre d'avertissements c'est la fermeture du compte, comme sur les forums.

Le problème c'est plutôt que leurs algorithmes ont bénéficié des recherches en psychologie et sont capable de manipuler l'état émotionnel des gens (car une personne révoltée est plus attentive à la publicité, reste plus en, ligne, etc.) , sont capable d'induire des abstentions de vote etc., polarisent les opinions, et dégradent l'état mental des gens. C'est documenté et ils ne s'en privent pas du tout.

Cette société est malveillante. La structuration même du fil d'actualité infini crée le scroll of death. En réaction à ça, les gens de Framasoft ont crée Mobilizon .
4  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 01/11/2021 à 12:31
Citation Envoyé par Nancy Rey Voir le message

Quel est votre avis sur le sujet ?
Facebook est une boîte qui collecte autant d'information et qui ne les protège pas (cf. les fuites de données massives de ces dernières années). Je dirais même qu'ils s'en moque, si l'on en crois le mail interne qui avait lui aussi fuité et qui disait qu'il fallait habituer les utilisateurs au fuites de données en normalisant ces évènements...

Si l'on tient à la sécurité de ses enfants, il faut essayer de les tenir le plus éloignés possible de cette cochonnerie.

Citation Envoyé par Nancy Rey Voir le message

Pensez-vous que Facebook et ses filiales sont investis dans la protection des enfants en ligne ?
La seule protection dans laquelle Facebook investit c'est la protection de ses revenus.
4  0 
Avatar de escartefigue
Modérateur https://www.developpez.com
Le 16/11/2021 à 15:42
Citation Envoyé par archqt Voir le message
Par contre il est clair que les influenceurs physiques ne peuvent que donner des complexes. Ils prennent des produits, ne mangent pas pour rester "sec", font 4H de muscu par jour, sans compter la chirurgie pour se faire gonfler les seins, blanchir les dents...
Une personne normale ne peut pas lutter.
J'aimerai voir la tronche de l'influenceur des frères Bogdanov
4  0 
Avatar de TotoParis
Membre expérimenté https://www.developpez.com
Le 04/10/2021 à 20:46
Citation Envoyé par youpimatos Voir le message
Fais ce que je dis pas ce que je fais
Non, c'est bien pire, le comportement de FB est tout simplement criminel.
Que les américains prient pour qu'aucune guerre civile n'éclate dans ce pays.
FB aurait une grande responsabilité.
ENCORE BRAVO A CETTE LANCEUSE D'ALERTE.
3  0 
Avatar de Planetary
Membre du Club https://www.developpez.com
Le 08/10/2021 à 7:50
Plus ça va, plus j’ai l’impression que c'est une vaste conspiration par les censeurs alliés au gouvernement américain pour mettre en place et en pratique la censure généralisé des réseaux sociaux en censurant toute opinion déviant de la ligne tracé par la pensée dominante.

Cette lanceuse d'alerte tombe vraiment à pique.
3  0 
Avatar de smobydick
Membre averti https://www.developpez.com
Le 20/10/2021 à 9:04
À partir du moment où les fondateurs de ses réseaux sociaux ne veulent pas que leurs propres gosses y aient accès (alors qu'ils proposent des versions soit disant édulcorées et protégées pour les ados), faut commencer à chercher la porte de sortie.
3  0 
Avatar de rbolan
Membre actif https://www.developpez.com
Le 20/10/2021 à 10:37
Il y a 2 points bien distincts sur cet article :

- La capacité de Facebook a retirer du contenus de sa plateforme jugé préjudiciable et illégal
- La capacité de Facebook a sélectionner à priori du contenu pour qu'il soit présent ou non dans le fil d'actualité des utilisateurs par des algorithmes.

C'est le deuxième point qui est critiqué, à raison, par Frances Haugen, car elle considère que Fb est pleinement responsable des conséquences d'une filtration active du contenu à priori. C'est ce qui constitue son business model et qui enrichit l'entreprise. D'ailleurs elle sépare bien les deux points dans son argumentaire.

Le principe de censure du contenu par la plateforme est un débat complètement différent à mon sens. Notamment, qui décide de ce qui est préjudiciable, limites d'un système centralisé, etc...
3  0