IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

YouTube affirme avoir supprimé plus de 17 000 chaînes
Et plus de 100 000 vidéos pour incitation à la haine au deuxième trimestre 2019

Le , par Stéphane le calme

532PARTAGES

12  0 
Début juin, dans un billet, YouTube a annoncé une mise à jour de sa politique en matière d'incitation à la haine :

« Au cours des dernières années, nous avons investi dans les politiques, les ressources et les produits nécessaires pour assumer notre responsabilité et protéger la communauté YouTube contre les contenus préjudiciables. Ce travail s’articule autour de quatre piliers : éliminer les contenus non conformes, créer des contenus faisant autorité, réduire la diffusion de contenus marginaux et récompenser les créateurs de confiance. Grâce à ces investissements, les vidéos qui enfreignent nos règles sont supprimées plus rapidement que jamais et les utilisateurs voient moins de contenus marginaux et d’intox préjudiciables. Ce faisant, nous collaborons étroitement avec les législateurs et la société civile du monde entier pour limiter la diffusion de contenus extrémistes violents en ligne.

« Nous révisons régulièrement nos politiques pour nous assurer de tracer la ligne au bon endroit: rien qu'en 2018, nous avons effectué plus de 30 mises à jour de politiques. Le domaine de l'incitation à la haine est l’un des domaines les plus complexes et en constante évolution dont nous traitons. Nous avons examiné de près notre approche du contenu haineux en consultation avec des dizaines d’experts dans des domaines tels que l’extrémisme violent, le suprémacisme, les droits civils et la liberté d’expression. Sur la base de ces enseignements, nous effectuons plusieurs mises à jour ».

Cette mise à jour visait à interdire davantage de vidéos de la suprématie blanche, telles que celles promouvant l'idéologie nazie. Le site interdisait également les canulars vidéo qui nient l'existence de l'Holocauste et d'autres événements violents bien documentés.


Déjà des résultats

Selon YouTube, plus de 17 000 chaînes et 100 000 vidéos tenant des propos incitant à la haine ont été supprimées. Selon l'entreprise, qui précise que ces chiffres sont cinq fois plus élevés que ce qu'elle a observé par le passé, ce pic du nombre de suppressions est en partie dû à la suppression d'anciens commentaires, vidéos et chaînes précédemment autorisés.


« Avant de supprimer les contenus qui enfreignent nos règles, nous devons nous assurer que la distinction entre ce que nous supprimons et ce que nous autorisons est bien établie - dans le but de préserver la liberté d'expression, tout en protégeant et en promouvant un environnement communautaire dynamique. À cette fin, nous disposons d’une équipe dédiée à l’élaboration de règles qui examine systématiquement toutes nos règles pour s’assurer qu’elles sont à jour, sécurisent notre communauté et n’étouffent pas la transparence de YouTube.

« Après avoir examiné une politique, nous découvrons souvent que des changements fondamentaux ne sont pas nécessaires, mais il nous arrive de réaliser qu'il existe des domaines vagues ou déroutants pour la communauté. Par conséquent, de nombreuses mises à jour sont en réalité des clarifications de nos directives existantes. Par exemple, plus tôt cette année, nous avons fourni plus de détails sur le moment où nous considérons qu'un "défi" est trop dangereux pour YouTube. Depuis 2018, nous avons apporté des dizaines de mises à jour à nos directives en matière d’application, dont beaucoup d’éclaircissements mineurs, mais certains plus importants.

« Pour les problèmes particulièrement complexes, nous pouvons passer plusieurs mois à élaborer une nouvelle politique. Pendant ce temps, nous consultons des experts externes et les créateurs de YouTube pour comprendre en quoi notre politique actuelle échoue et pour tenir compte des différences régionales, afin de nous assurer que les modifications proposées peuvent être appliquées équitablement dans le monde entier.

« Notre mise à jour relative aux discours haineux a représenté un changement fondamental de nos politiques. Nous avons passé des mois à élaborer la politique avec soin et à collaborer avec nos équipes pour créer les formations et les outils nécessaires à son application. La stratégie a été lancée au début du mois de juin. Au fur et à mesure que nos équipes examineront et supprimeront davantage de contenus conformément à la nouvelle politique, notre système automatisé de détection s’améliorera parallèlement. Bien que l’adoption d’une nouvelle politique puisse prendre plusieurs mois, l’impact profond de la mise à jour de notre politique en matière de discours de haine est déjà manifeste dans les données publiées dans le rapport sur l’application des directives communautaires de ce trimestre ».

L'utilisation du machine learning pour signaler un contenu incorrect

YouTube explique qu'une fois une politique définie, il s'appuie sur une combinaison humain - technologie pour signaler le contenu à ses équipes de révision. YouTube se sert parfois des hachages pour capturer des copies de contenus qui ne respectent pas ses règles connues avant que ces contenus ne soient mis à la disposition des utilisateurs. Pour certains contenus, tels que des images d'abus sexuels sur des enfants (CSAI) et des vidéos de recrutement de terroristes, YouTube contribue aux bases de données de hachage partagées du secteur afin d'augmenter le volume de contenu que ses machines peuvent capturer lors du téléchargement.

« En 2017, nous avons élargi notre utilisation de la technologie d'apprentissage automatique pour aider à détecter le contenu potentiellement non conforme et à l'envoyer à la révision par l'homme. L'apprentissage automatique est bien adapté à la détection de motifs, ce qui nous aide à trouver un contenu similaire (mais pas exactement identique) à un autre contenu que nous avons déjà supprimé, même avant sa visualisation. Ces systèmes sont particulièrement efficaces pour signaler des contenus qui se ressemblent souvent - tels que du spam ou du contenu réservé aux adultes. Les machines peuvent également aider à signaler les discours haineux et autres contenus violents, mais ces catégories dépendent fortement du contexte et soulignent l'importance de l'examen humain pour prendre des décisions nuancées. Néanmoins, plus de 87 % des 9 millions de vidéos que nous avons supprimées au deuxième trimestre de 2019 ont été signalées pour la première fois par nos systèmes automatisés.

« Nous investissons beaucoup dans ces systèmes de détection automatisés et nos équipes d’ingénierie continuent de les mettre à jour et de les améliorer mois après mois. Par exemple, une mise à jour de nos systèmes de détection de courrier indésirable au deuxième trimestre de 2019 a entraîné une augmentation de plus de 50 % du nombre de chaînes que nous avons résiliées pour violation de nos politiques en matière de courrier indésirable. »


Supprimer le contenu avant qu'il ne soit largement vu

La filiale d'Alphabet assure qu'elle s'efforce de faire en sorte que le contenu qui enfreint ses règles ne soit pas largement lu, voire pas du tout vu, avant d'être supprimé. « Comme indiqué ci-dessus, les améliorations apportées à nos systèmes de repérage automatisé nous ont permis de détecter et de réviser le contenu avant même que celui-ci ne soit signalé par notre communauté. Par conséquent, plus de 80 % de ces vidéos autosignalées ont été supprimées avant d'avoir reçu une seule vue au deuxième trimestre de l'année 2019. »

« Nous reconnaissons également que le meilleur moyen de supprimer rapidement du contenu est d’anticiper les problèmes avant qu’ils ne surgissent. En janvier 2018, nous avons lancé notre Intelligence Desk, une équipe qui surveille l'actualité, les médias sociaux et les rapports des utilisateurs afin de détecter les nouvelles tendances en matière de contenu inapproprié, et veille à ce que nos équipes soient prêtes à les traiter avant qu'elles ne deviennent de plus grands problèmes. »


Et cet effort semble porteur de fruits : « par exemple, les près de 30 000 vidéos que nous avons retirées pour discours haineux au cours du mois dernier n’ont généré que 3 % des vues enregistrées par les vidéos à tricoter au cours de la même période. »

YouTube, qui compte 2 milliards d'utilisateurs connectés chaque mois, a été critiqué au cours des dernières années dans sa difficulté à lutter contre l'afflux constant de nouveaux contenus promouvant la violence, les discours haineux ou la désinformation. La société a pris des mesures pour effectuer des « patrouilles » sur sa plateforme et supprimer ce contenu, en s’appuyant sur sa technologie d’apprentissage automatique pour détecter les vidéos nécessitant une vérification humaine. De plus, YouTube assure être déterminé à continuer à réduire l'exposition aux vidéos qui enfreignent ses règles. C'est pourquoi, en collaboration avec sa maison mère Alphabet, YouTube regroupe également une équipe de plus de 10 000 personnes qui détecte, examine et supprime les contenus enfreignant ses règles.

Source : YouTube

Et vous ?

Que pensez-vous des méthodes employées par YouTube ?
La combinaison humain - technologie, une équipe gagnante ?
Que vous inspire cette augmentation sensible du pic de suppression ?

Voir aussi :

Huawei prévoit le lancement de son prochain téléphone sans les applications populaires de Google, notamment Maps et YouTube, le smartphone n'aura pas non plus accès à Google Play
Susan Wojcicki, PDG de YouTube, explique pourquoi elle laisse des vidéos « controverses ou même offensantes » sur la plateforme
YouTube bannit des contenus à caractère éducatif en matière de piratage informatique en application d'un nouveau règlement qui fait débat
YouTube fait actuellement l'objet d'une enquête fédérale pour son incapacité à protéger les enfants, d'après un rapport du Washington Post

Une erreur dans cette actualité ? Signalez-nous-la !