
La société a annoncé mardi dernier des changements dans sa politique concernant les publications manipulées de manière trompeuse, y compris les deepfakes ou les vidéos modifiées par l'IA qui déforment la réalité. En vertu des nouvelles règles, Twitter supprimera ce type de média si la société estime qu'il est susceptible de causer de graves dommages tels que du contenu qui menace la sécurité physique des personnes, qui pourrait provoquer des troubles civils généralisés ou qui comporte des risques pour la vie privée.
Dans l’éventualité où Twitter juge qu’une publication manipulée ne puisse pas causer du tort, celle-ci sera néanmoins étiquetée et tout utilisateur qui tentera de la partager sera averti de ce qu’il s’agit d’un contenu manipulé. Toutes ces modifications entreront en vigueur le 5 mars prochain, mais une décision de la société a tout de même suscité l’indignation générale. En effet, la société a fait savoir que sa nouvelle politique ne sera pas appliquée à une vidéo trafiquée de la présidente de la Chambre des représentants Nancy Pelosi. Cette vidéo devenue virale a été manipulée et le discours de Pelosi a été ralenti pour la faire paraître ivre. Avec autant d’évidence, il est assez difficile de comprendre cette décision de Twitter.
Twitter n’est pas la seule plateforme de médias sociaux à prendre des mesures contre ces contenus manipulés. Avec les élections présidentielles qui approchent rapidement aux États-Unis, les vidéos deepfake sont une menace plus qu’urgente et les entreprises de médias sociaux sont bien obligées de prendre des mesures. Le mois dernier, Facebook a déclaré que les deepfakes ainsi que certaines vidéos manipulées seront supprimées de sa plateforme. TikTok a fait pareil en interdisant pour sa part de manière générale, les vidéos contenant des informations trompeuses. YouTube a suivi le mouvement et a déclaré plus tôt cette semaine que tout contenu qui a été techniquement manipulé ou trafiqué et qui pourrait présenter un risque grave de préjudice flagrant, sera supprimé de sa plateforme.
Il ne sera certainement pas facile de faire appliquer ces nouvelles directives, car cela nécessitera sans doute de solides pratiques de modération utilisant des systèmes d'IA conçus pour signaler automatiquement le contenu indésirable. Mais comme l’a déclaré le chef de l'intégrité du site de Twitter, Yoel Roth, lors d'un appel téléphonique avec des journalistes : « Notre objectif dans le cadre de cette politique est de regarder le résultat, pas comment il a été atteint ».
Source : Reuters
Et vous ?



Voir aussi :


