IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le PDG de Google admet que la société doit mieux gérer la propagation des théories du complot sur YouTube
Lors d'un entretien avec le Congrès

Le , par Stéphane le calme

611PARTAGES

13  0 
Le PDG de Google, Sundar Pichai, a reconnu que YouTube devait faire mieux face au contenu de conspirationnisme sur son site susceptible d'entraîner une violence réelle. Lors de son témoignage mardi devant le Comité judiciaire de la Chambre des représentants, il a été interrogé sur la manière dont YouTube gère les contenus extrémistes qui promeuvent des théories du complot telles que Pizzagate et, plus récemment, une théorie du complot axée sur Hillary Clinton, surnommée Frazzledrip.

Selon un article paru lundi dans le Washington Post, Frazzledrip est une variante de Pizzagate qui a commencé à se diffuser sur YouTube ce printemps.

Citation Envoyé par Washington Post
Une variante récente de cette théorie, qui a commencé à se répandre sur YouTube ce printemps, affirmait que la démocrate Hillary Clinton et son aide de longue date, Huma Abedin, avaient agressé sexuellement une fille et bu son sang - une théorie du complot que ses partisans ont baptisée «Frazzledrip».
Dans une série de questions, le représentant Jamie Raskin (D-MD) a demandé à Pichai s’il savait ce qu’était Frazzledrip. Pichai a répondu qu'il « n'était pas au courant des détails à ce sujet ».

Raskin a ensuite expliqué que le moteur de recommandation sur YouTube suggérait des vidéos prétendant que des politiciens, des célébrités et d’autres personnalités « abusaient sexuellement et consommaient des restes d’enfants, souvent lors de rituels sataniques ». Il a ajouté que ces nouvelles affirmations conspirationnistes faisaient écho à la conspiration Pizzagate, qui a conduit un homme à tirer dans une pizzeria de Washington DC il y a deux ans, à la recherche des enfants qui, selon lui, auraient été retenus comme esclaves sexuels par les dirigeants du Parti démocrate.

Il a également expliqué la nouvelle théorie Frazzledrip de manière plus détaillée, dont il a le le rapport sur le Washington Post, relatif aux complots haineux toujours rampants hébergés par YouTube. Cette nouvelle conspiration prétend qu'Hillary Clinton et son aide de longue date, Huma Abedin, ont agressé sexuellement une fille et bu son sang.


Sundar Pichai, PDG de Google

Le Post a déclaré que certains des clips vidéo avaient été retirés après leur première apparition en avril et qu'ils avaient été démentis, mais son examen de la question avait révélé des dizaines de vidéos dans lesquelles les revendications étaient toujours en discussion. Ensemble, ces vidéos ont été visionnées des millions de fois au cours des huit derniers mois. En outre, l’enquête a révélé que le champ de recherche de YouTube mettait en évidence ces vidéos lorsque des personnes entraient des termes tels que "vidéo HRC" ou "Frazzle".

Citation Envoyé par Washington Post
Bien que certaines de ces vidéos aient été supprimées après leur première apparition en avril et après avoir été rapidement critiqués, un article du Washington Post a révélé que des dizaines de vidéos alléguant ou discutant de ces fausses déclarations restaient en ligne et avaient été visionnées des millions de fois au cours des huit derniers mois . Le champ de recherche de YouTube a mis en évidence les vidéos lorsque des personnes ont tapé des termes apparemment inoffensifs tels que «vidéo HRC» ou «Frazzle».
La politique de YouTube n’empêche pas les internautes de télécharger des informations mensongères, note le rapport du WP

Raskin a interrogé Pichai sur ce type de propagande extrémiste : « Quelle est la politique de votre entreprise à ce sujet ? Essayez-vous de vous en occuper ? »

Pichai a admis, pour l'essentiel, que YouTube devait faire mieux : « Nous déployons des efforts constants pour lutter contre la désinformation. Nous avons clairement énoncé nos politiques et beaucoup de progrès ont été accomplis dans de nombreux domaines au cours de l’année écoulée, notamment dans des domaines tels que le terrorisme, la sécurité des enfants, etc. », a déclaré Pichai. « Nous cherchons à en faire plus », a-t-il déclaré.

En ce qui concerne la théorie de Frazzledrip, il a déclaré qu'il s'agissait plutôt d'un événement récent : « Mais je suis résolu à en faire le suivi et à veiller à ce que nous les évaluions par rapport à nos politiques », a promis le PDG.

Le problème avec des vidéos comme Frazzledrip est que les politiques actuelles de YouTube n’englobent pas complètement la manière de gérer la propagande extrémiste. Comme l’indique également le Washington Post, ses politiques sont axées sur les vidéos au contenu haineux et violent qui cible les minorités et d’autres groupes protégés. Dans le même temps, il cherche à permettre la liberté d'expression à ceux qui téléchargent du contenu sur son site, malgré la désinformation dont ils pourraient faire l'objet ou leur potentiel de violence.

L’équilibre entre la liberté de parole et les règles relatives au contenu est une question délicate et importante, compte tenu du pouvoir de YouTube d’influencer des personnes dangereuses. Outre le tireur de Pizzagate, le tireur de masse qui a tué 11 personnes à la synagogue de Pittsburgh en octobre regardait la propagande néonazie sur YouTube, indique un autre exemple dans le quotidien The Post.

Une stratégie à améliorer ?

« Notre croissance s'accompagne de plus de responsabilités et nous nous engageons à faire mieux alors que nous investissons davantage dans ce domaine », a déclaré Pichai.

YouTube a apporté quelques modifications pour remédier à la désinformation, bien que les résultats aient été mitigés. La plateforme a commencé à ajouter des sources « faisant autorité » au sein de la GNI (Google News Initiative). Dans un billet de blog, YouTube avait alors expliqué dans la section rendre les sources faisant autorité facilement accessibles que « L’autorité est essentielle pour les téléspectateurs, en particulier lors d’actualités de dernière minute. Nous avons donc investi dans de nouvelles fonctionnalités afin de mettre en évidence des sources faisant autorité ».


Mais ces efforts n’empêchent pas les contenus haineux d’apparaître sur la plateforme. Selon Pichai, les vidéos signalées, qui représentent un pourcentage élevé du contenu supprimé, sont ensuite examinées par l'algorithme ou par un modérateur humain. Si les vidéos violent les consignes de la société en matière de communauté et les conditions d’utilisation, elles sont supprimées. Si les créateurs estiment que leur vidéo a été supprimée par erreur, ils peuvent faire appel à l’équipe de confiance et de sécurité de YouTube.

Comme Facebook, YouTube s'appuie fortement sur des algorithmes d'apprentissage automatique pour parcourir les milliards de vidéos de la plateforme. « Notre objectif est de pouvoir vous fournir les informations les plus pertinentes », a déclaré Wojcicki en octobre. « Nous voulons que ces meilleurs résultats soient justes ».

Cependant, de nombreuses vidéos arrivent à passer sous le radar des modérateurs YouTube. Une vidéo, téléchargée par le créateur E & R il y a deux ans, a récemment fait l'objet d'un examen attentif après que la chaîne de la créatrice eut été signalée par PewDiePie. La vidéo, que PewDiePie a déclaré ne pas avoir regardée, contient quatre minutes ininterrompues d’un discours d’Adolf Hitler et d’autres commentaires antisémites. Elle a été hébergée par YouTube pendant deux ans avant d’être supprimée, et elle ne l’a été que grâce à l’action d’un YouTuber célèbre (la chaîne PewDiePie est celle qui a le plus d’abonnés).

Sources : Washington Post, rapport de transparence (YouTube), blog YouTube, BI

Voir aussi :

À sept ans, il devient le YouTuber le mieux payé de 2018 selon Forbes, qui estime ses entrées à 22 millions de dollars
Un service de distribution de pourriels via des imprimantes connectées fait surface après la campagne de promotion de la chaîne YouTube de PewDiePie
Un hacker a piraté 50 000 imprimantes connectées à internet pour encourager les gens à s'abonner à la chaine YouTube de PewDiePie
La taxe YouTube/Netflix va rapporter 7 millions € au cinéma français en 2018, c'est plus que les prévisions, mais juste 1 % des ressources du CNC
Directive copyright : la mise en oeuvre de l'article 13 est financièrement impossible selon la CEO de YouTube

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de benjani13
Membre extrêmement actif https://www.developpez.com
Le 13/12/2018 à 13:49
Quelle blague! Sur Youtube je regarde souvent des reportages sur l'espace, la conquête spatiale, etc. Youtube me propose tous le temps des vidéos complotistes sur la présence d'alien, la vrai histoire des pyramides et j'en passe...
1  0 
Avatar de steel-finger
Membre confirmé https://www.developpez.com
Le 13/12/2018 à 14:35
@benjani13 tu n'est pas le seule. J'ai exactement le même problème j'adore l'espace donc je regarde beaucoup de reportage dessus. Mais a chaque fois il me propose des contenues a la con avec des histoires de base secrete sur la lune ou les reptiliens !!!

On a l'impression que les algorithmes de YouTube sont programmé pour faire apparaître les vidéos théories du complot, mais on sais que vu que beaucoup de monde regarde ces videos il nous les proposes.
1  0 
Avatar de Ecthelion2
Membre extrêmement actif https://www.developpez.com
Le 13/12/2018 à 15:37
Ou tout simplement, les tags sur ces vidéos que vous aimez, et sur celles "complotistes" (de ce domaine) sont en majeure partie les mêmes, et donc toutes ces vidéos sont considérées comme faisant parti du même domaine d'intérêt par le robot.

Et comme les trucs complotistes, se propagent plus vite que les trucs intelligents (vu que c'est "contre le système", il va forcément vouloir l'effacer, donc il faut télécharger et partager la vidéo le plus vite possible), ça passe en "tendance" et vous est donc proposé dans les premiers résultats des vidéos "similaires" tout ça grâce à la paranoïa auto-convaincante des complotistes...

Au final, si on regarde dans ce sens là, on s'aperçoit qu'il n'y a pas spécialement de "dysfonctionnement" par rapports à vos mésaventures.
1  0 
Avatar de MiaowZedong
Membre extrêmement actif https://www.developpez.com
Le 13/12/2018 à 18:05
Ce qui me gêne n'est absolument pas le nombre de videos complotistes. Ces gens-là ont d'ailleurs le droit à la liberté d'expression comme nous tous, non?

Non, ce qui me gêne, c'est le nombre de gogos qui vont voir une video plus que douteuse et y croire ferme tout le restant de leur vie, malgré toutes les preuves du contraire. Mort aux cons
0  0