IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'algorithme de YouTube recommande des vidéos qui violent les politiques de la plateforme,
Selon une étude de Mozilla

Le , par Bill Fassinou

279PARTAGES

11  0 
Les algorithmes de recommandation des plateformes de médias sociaux sont souvent critiqués pour leur tendance à rendre les internautes très dépendants, à nuire à leur santé mentale, et pour beaucoup d'autres problèmes. Une nouvelle étude portant sur l'algorithme de recommandation de YouTube, en particulier l'IA qui l'alimente, a révélé que cette dernière recommande des vidéos contenant des informations erronées, des contenus violents, des discours de haine et des escroqueries. La recherche révèle également que les personnes vivant dans des pays non anglophones sont beaucoup plus susceptibles de tomber sur des vidéos dérangeantes.

L'algorithme de recommandation de YouTube serait nuisible aux internautes

L'algorithme (l'IA) de recommandation de vidéos de YouTube est généralement accusé d'alimenter un ensemble de maux de la société en montrant aux utilisateurs des discours haineux, d'extrémisme politique et/ou de conspiration/désinformation, dans le but lucratif d'essayer de garder des milliards d'yeux rivés sur son inventaire publicitaire. Un nouveau rapport publié aujourd'hui par Mozilla confirme cette idée, alléguant que l'IA de YouTube continue de gonfler des piles de contenus "de bas étage"/de qualité inférieure/divisifs/désinformants. Ces contenus tenteraient d'attirer les regards en déclenchant le sentiment d'indignation des gens.



Mozilla a mené cette recherche en utilisant RegretsReporter, une extension open source de navigateur qui a converti des milliers d'utilisateurs de YouTube en chiens de garde de YouTube. Dix mois après le lancement de RegretsReporter, 37 380 volontaires ont téléchargé l'extension. Ensemble, ils ont partagé des "regrets" concernant 3 362 vidéos. Les utilisateurs ont volontairement donné leurs données, ce qui a permis aux chercheurs d'avoir accès à un ensemble de données de recommandation de YouTube, strictement confidentielles. Il s'agit de la plus grande enquête jamais réalisée sur l'algorithme de YouTube.

Qu'est-ce que Mozilla entend exactement par "regret" de YouTube ? La société précise qu'il s'agit d'un concept issu de la foule, basé sur les utilisateurs qui signalent eux-mêmes leurs mauvaises expériences sur YouTube, il s'agit donc d'une mesure subjective. Mais Mozilla affirme que cette approche "humaine" est centrée sur les expériences vécues des internautes et permet donc de mettre en avant les expériences des personnes et des communautés marginalisées et/ou vulnérables (par opposition, par exemple, à l'application d'une définition juridique plus étroite du "préjudice".

Une équipe de 41 assistants de recherche a ensuite examiné les vidéos signalées par les utilisateurs pour tenter d'établir des liens entre le contenu préjudiciable et les modèles de recommandation. Ils ont constaté qu'une proportion écrasante (71 %) de regrets provenait de vidéos recommandées par l'algorithme. Qui plus est, les vidéos recommandées étaient 40 % plus susceptibles d'être signalées que les vidéos qui avaient été recherchées. Selon le rapport de l'étude, dans près de la moitié des cas, le contenu que l'algorithme recommandait semblait n'avoir aucun rapport avec les visionnages précédents.

À titre d'exemple, un volontaire a déclaré avoir été encouragé à regarder des chaînes d'extrême droite après avoir consulté des vidéos de survie en pleine nature. En outre, l'algorithme a parfois recommandé des messages qui violent les politiques de YouTube. Voici les principales conclusions de l'étude :

  • les volontaires de l'enquête ont rencontré toute une série de vidéos regrettables, allant de l'apologie du Covid-19 à la désinformation politique en passant par des dessins animés pour enfants tout à fait inappropriés ;
  • les pays non anglophones sont les plus touchés, le taux de vidéos "regrettables" étant 60 % plus élevé dans les pays où l'anglais n'est pas la langue principale ;
  • 71 % des vidéos jugées regrettables par les bénévoles ont été activement recommandées par l'algorithme de YouTube ;
  • près de 200 vidéos recommandées par l'algorithme de YouTube aux bénévoles ont été retirées de YouTube, dont plusieurs ont été jugées contraires à la politique de l'entreprise. Ces vidéos avaient été vues environ 160 millions de fois avant d'être supprimées ;
  • les vidéos recommandées étaient 40 % fois plus susceptibles d'être regrettées que les vidéos recherchées ;
  • dans 43,6 % des cas où Mozilla disposait de données sur les vidéos qu'un volontaire avait regardées avant un regret, la recommandation n'avait aucun rapport avec les vidéos précédentes que le volontaire avait regardées ;
  • les regrets sur YouTube ont tendance à être extrêmement performants sur la plateforme, les vidéos signalées acquérant 70 % de vues supplémentaires par jour par rapport aux autres vidéos regardées par les volontaires ;
  • l'algorithme de YouTube ne traite pas les gens de la même manière ;
  • les reportages liés aux pandémies sont particulièrement prolifiques dans les langues non anglaises. Parmi les regrets en langue anglaise, 14 % sont liés à une pandémie.


YouTube garde secrètes les informations sur son algorithme de recommandation

Les participants à l'enquête de Mozilla ont également signalé un grand nombre de ce que YouTube "pourrait" considérer comme du "contenu limite". Autrement dit, des contenus plus difficiles à catégoriser, des vidéos de mauvaise qualité qui se situent peut-être à la limite de l'acceptable. Elles sont donc plus difficiles à traiter par les systèmes de modération algorithmique de la plateforme (et donc des contenus qui peuvent aussi survivre plus longtemps au risque de suppression). Toutefois, le rapport signale un problème connexe : YouTube ne fournit pas de définition du contenu limite même si ses directives le mentionnent.

Selon Mozilla, cela rend impossible la vérification de l'hypothèse des chercheurs selon laquelle une grande partie des contenus que les volontaires ont signalés comme étant "regrettables" entrerait probablement dans la catégorie "contenu limite" de YouTube. En 2019, Mozilla avait demandé à YouTube des détails sur le fonctionnement de l'algorithme de recommandation de la plateforme. Mais en demandant à la plateforme de médias sociaux de révéler les détails du modèle, l'organisation avait rencontré une ferme résistance. Et malgré une demande répétée, les chercheurs de Mozilla n'ont toujours pas pu accéder aux rouages de la technologie.

Cela a alors conduit au projet RegretsReport. « YouTube nous indique le nombre de vues d'une vidéo, mais pas le nombre de fois qu'ils ont recommandé cette vidéo ». « Il est donc très difficile de comprendre le rôle que joue l'algorithme dans les mauvaises expériences que vivent les gens. C'est absolument là que nous devrions mettre l'accent et nous inquiéter. Il ne s'agit pas seulement de savoir combien de contenus nuisibles il y a sur la plateforme, mais aussi d'assumer la responsabilité du rôle que leurs outils pourraient jouer dans leur amplification », a déclaré Brandi Geurkink, responsable senior de la défense des intérêts de Mozilla.

En outre, les chercheurs de Mozilla reconnaissent que RegretsReporter a ses limites. Il n'y a en effet aucun moyen d'empêcher les utilisateurs de rechercher activement des vidéos nuisibles pour fausser les données, par exemple, et il n'est pas non plus possible de prétendre qu'un pool de quelques dizaines de milliers de spectateurs est représentatif de l'ensemble de la base d'utilisateurs de la plateforme. « Nous essayons de faire comprendre très clairement que des outils comme celui-ci ne remplacent pas la transparence de YouTube », a expliqué Geurkink.

« Ce que nous faisons, c'est exposer certaines tendances que nous observons et qui, selon nous, ne sont que la partie émergée de l'iceberg. Cependant, être capable de vraiment comprendre comment ces expériences pourraient se produire à l'échelle de YouTube nécessiterait une transparence de la part de YouTube, ce qui, selon nous, doit se produire », a-t-elle ajouté. Selon Geurkink, les failles de la méthodologie ne font que souligner la profondeur du problème : en l'absence d'une transparence appropriée de la part de la plateforme, les chercheurs doivent recourir à des méthodes alternatives moins fiables pour tenter de faire la lumière sur la cause profonde du problème.

Mozilla : il faut obliger Google à corriger l'IA de recommandation de YouTube

Selon les experts, le fait que l'intelligence artificielle de YouTube se comporte toujours aussi mal (selon l'étude de Mozilla) suggère que Google a bien réussi à brouiller les critiques avec des revendications de réforme superficielles. Ils estiment que la clé de voûte de ce succès est probablement le mécanisme de protection primaire qui consiste à dissimuler les mécanismes algorithmiques du moteur de recommandation (et les données associées) à la vue du public et à la surveillance externe, via le bouclier pratique du "secret commercial". Mais ils pensent que les choses pourraient changer à l'avenir.

Ils estiment que des réglementations qui pourraient aider à ouvrir les boîtes noires de l'IA propriétaire de YouTube sont à l'examen en...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 08/07/2021 à 12:06
Que propose Mozilla comme algo alternative ? N'avoir dans les recommandations, que des vidéos de squeezie et arté ?
6  0 
Avatar de
https://www.developpez.com
Le 08/07/2021 à 11:25
YouTube me passe régulièrement des "pubs" complotistes anti-5G, ou vantant quelque pseudo-médecine dénuée de tout fondement scientifique.
4  1 
Avatar de melka one
Membre expérimenté https://www.developpez.com
Le 08/07/2021 à 20:03
Quel est votre avis sur le sujet
J'ai l'impression que l’algorithme se base principalement sur l’historique de recherche et peut voir pas sur la pertinence, quand je fait une recherche je précise les mot important pour cette recherche et ce c@@ d’algorithme me propose trop de truc qui tourne bien autour du sujet recherché et c'est ça le problème le fait que ça tourne autour du sujet sans être réellement dedans.
2  0 
Avatar de
https://www.developpez.com
Le 15/07/2021 à 14:42
Bonjour,

Quel est votre avis sur le sujet ?
Le problème de fond , c'est lorsque l'utilisateur regarde des vidéos "peu attratives financièrement" pour Youtube. Youtube va alors tenter de proposer un genre de "pute/nid à clic" . Youtube se fiche pas mal de savoir la qualité de la vidéo ... même si celle est nocif. Tout ce qui importe "c'est l'aspect $$$" que cela génère.

D’où des utilisateurs qui peuvent être déçus de la vidéo vue ...
0  0