IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Facebook estime que l'IA va assainir sa plateforme, mais ses propres ingénieurs ont des doutes.
L'IA n'a qu'un succès minime dans la suppression des discours de haine

Le , par Stéphane le calme

398PARTAGES

8  0 
Facebook comptait sur son système d'intelligence artificielle pour faire fonctionner correctement la plateforme en appliquant ses règles contre les discours violents ou haineux. Pourtant, les ingénieurs de Facebook affirment que l'intelligence artificielle est loin d'être en mesure d'appliquer avec succès les règles de la plateforme contre les discours de haine, les images violentes et autres contenus problématiques, selon des documents internes de l'entreprise.

Les dirigeants de Facebook, Inc. disent depuis longtemps que l'intelligence artificielle résoudrait les problèmes chroniques de l'entreprise en gardant ce qu'elle considère comme des discours de haine et une violence excessive ainsi que les utilisateurs mineurs hors de ses plateformes.

Cet avenir est plus éloigné que ne le suggèrent ces dirigeants, selon des documents internes examinés par le Wall Street Journal. L'IA de Facebook ne peut pas systématiquement identifier les vidéos filmées à la première personne, les diatribes racistes et même, dans un épisode notable qui a intrigué les chercheurs internes pendant des semaines, la différence entre les combats de coqs et les accidents de voiture.

Concernant les discours de haine, les documents internes montrent que les employés de Facebook ont estimé que l'entreprise ne supprime qu'une partie des messages qui enfreignent ses règles (un pourcentage à un chiffre, disent-ils). Lorsque les algorithmes de Facebook ne sont pas suffisamment certains que le contenu enfreint les règles pour le supprimer, la plateforme montre moins souvent ce contenu aux utilisateurs, mais les comptes qui ont publié le contenu restent impunis.

Les employés analysaient le succès de Facebook dans l'application de ses propres règles sur le contenu qu'il énonce en détail en interne et dans des documents publics comme ses normes communautaires.

Les documents examinés par le Journal montrent également qu'il y a deux ans, Facebook a réduit le temps que les examinateurs humains passaient sur les plaintes pour propos haineux des utilisateurs et a apporté d'autres ajustements qui ont réduit le nombre total de plaintes. Cela a rendu l'entreprise plus dépendante de l'application de ses règles par l'IA et a gonflé le succès apparent de la technologie dans ses statistiques publiques.

Selon les documents, les personnes chargées de maintenir la plateforme exempte de contenus que Facebook juge offensants ou dangereux reconnaissent que l'entreprise est loin de pouvoir la filtrer de manière fiable.

« Le problème est que nous n'avons pas et n'aurons peut-être jamais un modèle qui capture même la majorité des atteintes à l'intégrité, en particulier dans les zones sensibles », a écrit un ingénieur de l'équipe de recherche dans une note à la mi-2019.

Il a estimé que les systèmes automatisés de l'entreprise supprimaient les messages qui généraient seulement 2 % des vues de discours de haine sur la plateforme qui enfreignaient ses règles. « Des estimations récentes suggèrent qu'à moins d'un changement majeur de stratégie, il sera très difficile de l'améliorer au-delà de 10-20 % à court et moyen terme », a-t-il écrit.

En mars, une autre équipe d'employés de Facebook a tiré une conclusion similaire, estimant que ces systèmes supprimaient les publications qui généraient 3 à 5 % des vues de discours de haine sur la plateforme, et 0,6 % de tout le contenu qui violait les politiques de Facebook contre la violence et incitation.


Facebook encourage les discours de haine pour gagner de l'argent, selon une lanceuse d'alerte

Pourtant, la dénonciatrice Frances Haugen qui a fait fuiter un énorme cache de documents glané lors de son passage dans l'entreprise avait déjà indiqué lors d'une interview que la situation était en quelque sorte « encouragée ». « Ce que j'ai vu à plusieurs reprises chez Facebook, c'est qu'il y avait des conflits d'intérêts entre ce qui était bon pour le public et ce qui était bon pour Facebook. Et Facebook, encore et encore, a choisi de faire passer ses propres intérêts en premier, comme gagner plus d'argent », a déclaré Haugen à Scott Pelley, son interlocuteur.

Elle a secrètement copié des dizaines de milliers de pages de recherches internes sur Facebook. Elle dit que les preuves montrent que l'entreprise ment au public sur ses progrès significatifs contre la haine, la violence et la désinformation.

Scott Pelley : Pour citer un autre des documents que vous avez publiés : « Nous avons des preuves provenant de diverses sources que les discours de haine, les discours politiques qui divisent et la désinformation sur Facebook et la famille d'applications affectent les sociétés du monde entier. »

Frances Haugen : Lorsque nous vivons dans un environnement d'information rempli de contenus colériques, haineux et polarisants, cela érode notre confiance civique, cela érode notre confiance mutuelle, cela érode notre capacité à vouloir prendre soin les uns des autres, la version de Facebook qui existe aujourd'hui déchire nos sociétés et provoque des violences ethniques dans le monde.

Frances Haugen : Alors, vous savez, vous avez votre téléphone. Vous pourriez ne voir que 100 éléments de contenu si vous vous asseyez et faites défiler pendant, disons, cinq minutes. Mais Facebook a des milliers d'options qu'il pourrait vous montrer.

L'algorithme choisit parmi ces options en fonction du type de contenu avec lequel vous vous êtes le plus engagé dans le passé.

Frances Haugen : Et l'une des conséquences de la façon dont Facebook sélectionne ce contenu aujourd'hui, c'est qu'il s'agit d'optimiser le contenu qui suscite l'engagement ou la réaction. Mais ses propres recherches montrent qu'un contenu haineux, qui divise, qui polarise, inspire plus facilement aux gens de la colère que d'autres émotions.

Scott Pelley : La désinformation, du contenu plein de colère est attrayant pour les gens et continue de les garder sur la plateforme.

Françoise Haugen : Oui. Facebook s'est rendu compte que s'ils changent l'algorithme pour qu'il devienne plus sûr, les gens passeront moins de temps sur le site, ils cliqueront sur moins de publicités, ils gagneront moins d'argent.

Haugen note que Facebook a compris le danger pour les élections de 2020. Facebook a donc activé les systèmes de sécurité pour réduire la désinformation, mais bon nombre de ces changements, dit-elle, étaient temporaires.

Frances Haugen : Et dès que les élections étaient terminées, ils les ont désactivés ou ils ont ramené les paramètres à ce qu'ils étaient avant, pour donner la priorité à la croissance plutôt qu'à la sécurité. Et cela ressemble vraiment à une trahison de la démocratie pour moi.

Scott Pelley : Facebook amplifie essentiellement le pire de la nature humaine.

Frances Haugen : C'est l'une de ces conséquences malheureuses, n'est-ce pas ? Personne chez Facebook n'est malveillant, mais les incitations sont mal alignées, n'est-ce pas ? Néanmoins, Facebook gagne plus d'argent lorsque vous consommez plus de contenu. Les gens aiment s'engager dans des choses qui suscitent une réaction émotionnelle. Et plus ils sont exposés à la colère, plus ils interagissent et plus ils consomment.

Tenir les réseaux sociaux pour responsables de leurs algorithmes

Face à cette situation, la lanceuse d'alerte a témoigné devant un panel du Sénat, recommandant une liste de changements pour freiner l'entreprise, y compris une refonte de l'article 230 qui tiendrait le géant des médias sociaux pour responsables de ses algorithmes qui promeuvent le contenu en fonction de l'engagement qu'il reçoit dans le fil d'actualité des utilisateurs.

« Si nous avions une surveillance appropriée ou si nous réformions [l'article] 230 pour rendre Facebook responsable des conséquences de leurs décisions de classement intentionnelles, je pense qu'ils se débarrasseraient du classement basé sur l'engagement », a déclaré Haugen. « Parce que cela expose les adolescents à plus de contenu anorexique, cela sépare les familles, et dans des endroits comme l'Éthiopie, cela attise littéralement la violence ethnique ».

Haugen s'est assuré de faire la distinction entre le contenu généré par les utilisateurs et les algorithmes de Facebook, qui priorisent le contenu dans les fils d'actualité et stimulent l'engagement. Elle a suggéré que Facebook ne devrait pas être responsable du contenu que les utilisateurs publient sur ses plateformes, mais qu'il devrait être tenu responsable une fois que ses algorithmes commencent à prendre des décisions sur le contenu que les gens voient.

Cette suggestion reflète un projet de loi, le Protecting Americans from Dangerous Algorithms Act, qui a été présenté à la Chambre.

Pourtant, malgré l'appel à la réforme de l'article 230, Haugen a également averti que la réforme à elle seule ne suffirait pas à surveiller de manière adéquate la large portée de l'entreprise. « La gravité de cette crise exige que nous rompions avec les cadres réglementaires précédents », a-t-elle déclaré. « Les modifications apportées aux protections de la vie privée obsolètes ou les modifications apportées à la section 230 ne seront pas suffisantes. »

Et vous ?

Quelle lecture en faites-vous ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de vanquish
Membre expérimenté https://www.developpez.com
Le 16/11/2021 à 15:21
Citation Envoyé par redcurve Voir le message
Facebook n'est pas devenu Meta
Quand même un peu ...

Soit ! Le produit/site/réseau social s'appelait et continue de s'appeler "Facebook".
Mais la société "Facebook Inc." a bien changé de nom en (et est donc devenu) "Meta Platforms, Inc."

Alors ne pas spécifier le "Inc." est peut-être un raccourci de langage, mais on dit "Microsoft", jamais "Microsoft Corp."
On ne peut pas considérer la phrase comme fausse.
7  0 
Avatar de tanaka59
Membre extrêmement actif https://www.developpez.com
Le 19/10/2021 à 14:11
Bonjour,

Facebook estime que l'IA va assainir sa plateforme, mais ses propres ingénieurs ont des doutes notant que l'IA est loin de pouvoir appliquer avec succès les règles de la plateforme contre les contenus problématiques

Quelle lecture en faites-vous ?
Une ia comme son nom l'indique = intelligence artificielle .

Artificiel = Produit par le travail de l'homme et non par la nature.

Cela est donc soumis à des règles de gestion et de fonctionnement. Ce n'est pas l'intelligence naturelle d'un cerveau humain .

Donc l'ia en question peut avoir des résultats complétement con .

Caricature de Macron en hitler :



Photo historique d'un véhicule allemand nazi :



> pour l'ia Facebook = la caricature de macron passe
> la photo historique = photo raciste

----

En tenant compte de la notion de "contexte" et "subtilité" pour un humain , chose à la quelle l'ia a bien du mal ou alors n'est pas programmée pour :

> la caricature de macron est raciste
> l photo historique acceptable

Le jour ou l'ia arrivera a tenir compte des notions de "contexte" et "subtilité" , peut être, je dis bien peut être qu'on arrivera a avancer ...

Peut être doit on garder une main mise, sur une modération manuelle ?

Tout ce qui n'est pas régi par des règles binaires est peut être tout simplement impossible à régir informatiquement ?

Les émotions, les sentiments, les jugements, les envies , les goûts , les valeurs ...
5  0 
Avatar de kain_tn
Expert confirmé https://www.developpez.com
Le 01/11/2021 à 12:31
Citation Envoyé par Nancy Rey Voir le message
Quel est votre avis sur le sujet ?
Facebook est une boîte qui collecte autant d'information et qui ne les protège pas (cf. les fuites de données massives de ces dernières années). Je dirais même qu'ils s'en moque, si l'on en crois le mail interne qui avait lui aussi fuité et qui disait qu'il fallait habituer les utilisateurs au fuites de données en normalisant ces évènements...

Si l'on tient à la sécurité de ses enfants, il faut essayer de les tenir le plus éloignés possible de cette cochonnerie.

Citation Envoyé par Nancy Rey Voir le message
Pensez-vous que Facebook et ses filiales sont investis dans la protection des enfants en ligne ?
La seule protection dans laquelle Facebook investit c'est la protection de ses revenus.
3  0 
Avatar de archqt
Membre expérimenté https://www.developpez.com
Le 16/11/2021 à 9:16
On s'en doutait que les réseaux sociaux n'étaient pas bons pour la santé. Mais c'est valable aussi pour les téléphones. Les jeunes passent leur temps dessus.
Et encore mes gamins n'ont pas de comptes sur les réseaux sociaux, ils regardent plein de vidéos (tik-tok, youtube, des séries) moins pire. Par contre il est clair que les influenceurs physiques ne peuvent que donner des complexes. Ils prennent des produits, ne mangent pas pour rester "sec", font 4H de muscu par jour, sans compter la chirurgie pour se faire gonfler les seins, blanchir les dents...
Une personne normale ne peut pas lutter.

De toute façon quand c'est gratuit c'est toi le produit.
6  3 
Avatar de escartefigue
Modérateur https://www.developpez.com
Le 16/11/2021 à 15:42
Citation Envoyé par archqt Voir le message
Par contre il est clair que les influenceurs physiques ne peuvent que donner des complexes. Ils prennent des produits, ne mangent pas pour rester "sec", font 4H de muscu par jour, sans compter la chirurgie pour se faire gonfler les seins, blanchir les dents...
Une personne normale ne peut pas lutter.
J'aimerai voir la tronche de l'influenceur des frères Bogdanov
3  0 
Avatar de smobydick
Membre habitué https://www.developpez.com
Le 20/10/2021 à 9:04
À partir du moment où les fondateurs de ses réseaux sociaux ne veulent pas que leurs propres gosses y aient accès (alors qu'ils proposent des versions soit disant édulcorées et protégées pour les ados), faut commencer à chercher la porte de sortie.
2  0 
Avatar de rbolan
Membre régulier https://www.developpez.com
Le 20/10/2021 à 10:37
Il y a 2 points bien distincts sur cet article :

- La capacité de Facebook a retirer du contenus de sa plateforme jugé préjudiciable et illégal
- La capacité de Facebook a sélectionner à priori du contenu pour qu'il soit présent ou non dans le fil d'actualité des utilisateurs par des algorithmes.

C'est le deuxième point qui est critiqué, à raison, par Frances Haugen, car elle considère que Fb est pleinement responsable des conséquences d'une filtration active du contenu à priori. C'est ce qui constitue son business model et qui enrichit l'entreprise. D'ailleurs elle sépare bien les deux points dans son argumentaire.

Le principe de censure du contenu par la plateforme est un débat complètement différent à mon sens. Notamment, qui décide de ce qui est préjudiciable, limites d'un système centralisé, etc...
2  0 
Avatar de PomFritz
Membre actif https://www.developpez.com
Le 20/10/2021 à 16:44
Citation Envoyé par phil995511 Voir le message
Globalement Internet c'est le Far-West.
Dans ce cas, le Far-West, c'est le monde des entreprises privées qui ne veulent surtout pas se voir brider leur "capacité d'innovation".
2  0 
Avatar de marsupial
Expert confirmé https://www.developpez.com
Le 01/11/2021 à 9:49
Punaise, mais laissez les grandir en paix !
2  0 
Avatar de Fagus
Membre éprouvé https://www.developpez.com
Le 19/10/2021 à 14:49
ça a l'air de rentrer dans les limites de l'IA qui sait reconnaître des choses, mais pas les interpréter. L'interprétation, c'est beaucoup d'inférences par rapport au contexte, à la connaissance générale du monde (implicites humains, physique intuitive...), à la compréhension de ce qui est reconnu.

Et encore, ça, c'est quand on a crée des bases d'apprentissage énormes où on a mis l'essentiel des choses à reconnaître et que la base est pure, et qu'on a réussi à taguer ce qui est sensé, et pour l'humain insensé.

En ce moment, on teste une IA commerciale de détection de fracture. À 1ère vue, ça marche pas mal mais :
- elle ne voit pas les fractures énormes avec dislocation ni les luxations (qui ne devaient pas être dans la base)
- elle affiche souvent fracture ou suspicion de fracture alors qu'il n'y en a pas, en cas de présence d'épanchement articulaire, de radio faite dans une position qui soulage le patient de sa douleur, de pansements... . En effet, ces éléments sont souvent associés à une fracture mais pas toujours et semblent avoir été appris par le réseau comme une situation où il faut dire fracture.
1  0