Le feu a pris aux alentours de 18 h 50 dans les combles de la cathédrale, monument historique le plus visité d’Europe, ont indiqué les pompiers. Selon les informations du quotidien Le Monde, il est parti d’un échafaudage, dans la partie supérieure de l’édifice.
Lundi soir, alors que Notre-Dame de Paris était ravagée par un grave incendie, plusieurs internautes américains souhaitant suivre l’évènement en direct sur YouTube ont remarqué l’apparition d’une fenêtre les invitant à consulter un article de l’Encyclopedia Britannica sur les attentats du 11-Septembre. En fait, YouTube a indiqué que les flux de données de l'incident étaient des sources possibles de désinformation, puis il a commencé à montrer des articles à la population sur les attentats du 11 septembre.
Plusieurs organes de presse ont rapidement commencé à diffuser l'incendie sur YouTube. Cependant, sous plusieurs d'entre eux se trouvait un petit panneau gris intitulé "Attaques du 11 septembre", qui contenait un extrait d'un article de l'Encyclopedia Britannica concernant le 11 septembre.
Cette fonctionnalité fait partie d’un plus vaste déploiement d’outils et de clauses de non-responsabilité visant à empêcher les utilisateurs de consommer des informations erronées sur la plateforme.
Qu'est ce qui pourrait expliquer cela ?
Pour le moment, aucune information pouvant expliquer une telle association n’a été communiquée. Toutefois, selon Vagelis Papalexakis, professeur adjoint d’informatique et d’ingénierie à l’Université de Californie, Riverside, qui étudie l’apprentissage automatique utilisé dans des systèmes similaires, les outils automatisés de la plateforme ont peut-être confondu les images du bâtiment en feu avec des images du 11 septembre.
« Tant que nous utilisons des méthodes automatisées pour limiter le contenu, il y a toujours une marge d'erreur », a-t-il déclaré. « C’est un problème multiforme ; non seulement l'algorithme travaille à détecter les fake news, mais il travaille également à détecter quelque chose faussement associé au 11 septembre ».
YouTube a déclaré dans un communiqué avoir supprimé les panneaux sur les flux en direct de l'incendie à la suite de critiques.
« Nous sommes profondément attristés par l'incendie en cours à la cathédrale Notre-Dame. L'année dernière, nous avons lancé des panneaux d'informations contenant des liens vers des sources tierces telles que l'Encyclopaedia Britannica et Wikipedia pour des sujets pouvant faire l'objet d'une désinformation. Ces panneaux sont déclenchés par algorithme et nos systèmes émettent parfois le mauvais appel. Nous avons désactivé ces panneaux pour les flux en direct liés à l'incendie ».
L'échec de l'algorithme dans ce cas donne un nouvel élan aux appels des observateurs techniques pour plus d'ouverture sur la manière dont les algorithmes sont écrits et utilisés sur la plateforme, a déclaré Caroline Sinders, chercheuse en conception et apprentissage automatique à Harvard.
« Dans ce cas précis, la recommandation étant sans aucun rapport, nous avons vraiment besoin de meilleurs audits pour comprendre pourquoi elle recommande ce qu’elle recommande », a-t-elle déclaré. « Le cacher n'aide en rien ».
L'incendie fait déjà l'objet de tentatives de manipulation et de hoaxes
L’erreur est d’autant plus problématique que l’incendie de Notre-Dame fait déjà l’objet de tentatives de manipulation et de «hoaxes», des fausses informations diffusées massivement en ligne, certaines remettant en cause le caractère accidentel de l’évènement.
InfoWars, le site Web tristement célèbre pour avoir propagé des théories du complot, a été parmi les premiers à affirmer sans fondement que le feu avait été délibérément allumé. La cause de l'incendie est actuellement inconnue, bien que la cathédrale ait récemment fait l'objet d'importantes rénovations. InfoWars n'a fourni aucune preuve de son récit, à l'exception d'un tweet effacé depuis de quelqu'un affirmant connaître un employé de Notre Dame.
Un faux compte Twitter se faisant passer pour CNN a propagé un canular à propos de l'incendie, affirmant qu’il avait été causé par un acte de terrorisme. Le compte a été créé ce mois-ci et ne compte que sept abonnés, mais le faux tweet a rapidement gagné du terrain lundi. Le compte a finalement été supprimé par Twitter - plus de deux heures après le début de l'envoi de tweets relayant la fake news.
YouTube (propriété de Google), comme Facebook et Twitter, est accusé depuis plusieurs années de faciliter la propagation de désinformation en ligne. En France, une loi «contre la manipulation de l’information» a été adoptée fin 2018, renforçant la pression sur les géants du Web pour lutter contre les «fake news». Ce texte concerne néanmoins plus particulièrement les périodes électorales. YouTube tente d’endiguer le problème avec différentes solutions, la majorité reposant sur des algorithmes automatiques. Par exemple, lorsque YouTube devine qu’un évènement important est en train de se produire, il ne met en avant que des chaînes de médias vérifiés dans les résultats de recherche, afin d’éviter la propagation de rumeurs. Néanmoins, les machines font souvent des erreurs, dont les résultats varient entre l’absurde et le choquant, selon les circonstances.
Sources : Le Monde, Le Figaro, The Guardian, Twitter
Et vous ?
Que pensez-vous de cette situation ?
Cette bourde avec les algorithmes pourrait-elle servir à relancer le débat sur les outils de filtrage automatique ?
Voir aussi :
Les cadres dirigeants de YouTube auraient laissé les contenus « toxiques » sur la plateforme, tant qu'ils généraient de l'audience
YouTube va désactiver les commentaires sur la plupart des vidéos de mineurs à cause des pédophiles
YouTube annonce avoir pris des mesures strictes pour lutter contre les vidéos avec les mineurs et pouvant faire l'objet de commentaires prédateurs
Une mère découvre des instructions de suicide en vidéo sur YouTube et YouTube Kids dissimulées entre des extraits d'un jeu vidéo populaire
Disney aurait retiré les fonds alloués pour la publicité sur YouTube, suite à une controverse liée à l'exploitation des enfants