IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'algorithme de YouTube recommande des vidéos qui violent les politiques de la plateforme,
Selon une étude de Mozilla

Le , par Bill Fassinou

391PARTAGES

11  0 
Les algorithmes de recommandation des plateformes de médias sociaux sont souvent critiqués pour leur tendance à rendre les internautes très dépendants, à nuire à leur santé mentale, et pour beaucoup d'autres problèmes. Une nouvelle étude portant sur l'algorithme de recommandation de YouTube, en particulier l'IA qui l'alimente, a révélé que cette dernière recommande des vidéos contenant des informations erronées, des contenus violents, des discours de haine et des escroqueries. La recherche révèle également que les personnes vivant dans des pays non anglophones sont beaucoup plus susceptibles de tomber sur des vidéos dérangeantes.

L'algorithme de recommandation de YouTube serait nuisible aux internautes

L'algorithme (l'IA) de recommandation de vidéos de YouTube est généralement accusé d'alimenter un ensemble de maux de la société en montrant aux utilisateurs des discours haineux, d'extrémisme politique et/ou de conspiration/désinformation, dans le but lucratif d'essayer de garder des milliards d'yeux rivés sur son inventaire publicitaire. Un nouveau rapport publié aujourd'hui par Mozilla confirme cette idée, alléguant que l'IA de YouTube continue de gonfler des piles de contenus "de bas étage"/de qualité inférieure/divisifs/désinformants. Ces contenus tenteraient d'attirer les regards en déclenchant le sentiment d'indignation des gens.



Mozilla a mené cette recherche en utilisant RegretsReporter, une extension open source de navigateur qui a converti des milliers d'utilisateurs de YouTube en chiens de garde de YouTube. Dix mois après le lancement de RegretsReporter, 37 380 volontaires ont téléchargé l'extension. Ensemble, ils ont partagé des "regrets" concernant 3 362 vidéos. Les utilisateurs ont volontairement donné leurs données, ce qui a permis aux chercheurs d'avoir accès à un ensemble de données de recommandation de YouTube, strictement confidentielles. Il s'agit de la plus grande enquête jamais réalisée sur l'algorithme de YouTube.

Qu'est-ce que Mozilla entend exactement par "regret" de YouTube ? La société précise qu'il s'agit d'un concept issu de la foule, basé sur les utilisateurs qui signalent eux-mêmes leurs mauvaises expériences sur YouTube, il s'agit donc d'une mesure subjective. Mais Mozilla affirme que cette approche "humaine" est centrée sur les expériences vécues des internautes et permet donc de mettre en avant les expériences des personnes et des communautés marginalisées et/ou vulnérables (par opposition, par exemple, à l'application d'une définition juridique plus étroite du "préjudice".

Une équipe de 41 assistants de recherche a ensuite examiné les vidéos signalées par les utilisateurs pour tenter d'établir des liens entre le contenu préjudiciable et les modèles de recommandation. Ils ont constaté qu'une proportion écrasante (71 %) de regrets provenait de vidéos recommandées par l'algorithme. Qui plus est, les vidéos recommandées étaient 40 % plus susceptibles d'être signalées que les vidéos qui avaient été recherchées. Selon le rapport de l'étude, dans près de la moitié des cas, le contenu que l'algorithme recommandait semblait n'avoir aucun rapport avec les visionnages précédents.

À titre d'exemple, un volontaire a déclaré avoir été encouragé à regarder des chaînes d'extrême droite après avoir consulté des vidéos de survie en pleine nature. En outre, l'algorithme a parfois recommandé des messages qui violent les politiques de YouTube. Voici les principales conclusions de l'étude :

  • les volontaires de l'enquête ont rencontré toute une série de vidéos regrettables, allant de l'apologie du Covid-19 à la désinformation politique en passant par des dessins animés pour enfants tout à fait inappropriés ;
  • les pays non anglophones sont les plus touchés, le taux de vidéos "regrettables" étant 60 % plus élevé dans les pays où l'anglais n'est pas la langue principale ;
  • 71 % des vidéos jugées regrettables par les bénévoles ont été activement recommandées par l'algorithme de YouTube ;
  • près de 200 vidéos recommandées par l'algorithme de YouTube aux bénévoles ont été retirées de YouTube, dont plusieurs ont été jugées contraires à la politique de l'entreprise. Ces vidéos avaient été vues environ 160 millions de fois avant d'être supprimées ;
  • les vidéos recommandées étaient 40 % fois plus susceptibles d'être regrettées que les vidéos recherchées ;
  • dans 43,6 % des cas où Mozilla disposait de données sur les vidéos qu'un volontaire avait regardées avant un regret, la recommandation n'avait aucun rapport avec les vidéos précédentes que le volontaire avait regardées ;
  • les regrets sur YouTube ont tendance à être extrêmement performants sur la plateforme, les vidéos signalées acquérant 70 % de vues supplémentaires par jour par rapport aux autres vidéos regardées par les volontaires ;
  • l'algorithme de YouTube ne traite pas les gens de la même manière ;
  • les reportages liés aux pandémies sont particulièrement prolifiques dans les langues non anglaises. Parmi les regrets en langue anglaise, 14 % sont liés à une pandémie.


YouTube garde secrètes les informations sur son algorithme de...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 08/07/2021 à 12:06
Que propose Mozilla comme algo alternative ? N'avoir dans les recommandations, que des vidéos de squeezie et arté ?
6  0 
Avatar de
https://www.developpez.com
Le 08/07/2021 à 11:25
YouTube me passe régulièrement des "pubs" complotistes anti-5G, ou vantant quelque pseudo-médecine dénuée de tout fondement scientifique.
4  1 
Avatar de melka one
Membre expérimenté https://www.developpez.com
Le 08/07/2021 à 20:03
Quel est votre avis sur le sujet
J'ai l'impression que l’algorithme se base principalement sur l’historique de recherche et peut voir pas sur la pertinence, quand je fait une recherche je précise les mot important pour cette recherche et ce c@@ d’algorithme me propose trop de truc qui tourne bien autour du sujet recherché et c'est ça le problème le fait que ça tourne autour du sujet sans être réellement dedans.
2  0 
Avatar de
https://www.developpez.com
Le 15/07/2021 à 14:42
Bonjour,

Quel est votre avis sur le sujet ?
Le problème de fond , c'est lorsque l'utilisateur regarde des vidéos "peu attratives financièrement" pour Youtube. Youtube va alors tenter de proposer un genre de "pute/nid à clic" . Youtube se fiche pas mal de savoir la qualité de la vidéo ... même si celle est nocif. Tout ce qui importe "c'est l'aspect $$$" que cela génère.

D’où des utilisateurs qui peuvent être déçus de la vidéo vue ...
0  0