Will Cathcart est un cadre de Meta depuis plus de 12 ans et dirige WhatsApp depuis 2019. Il a déclaré à la BBC la semaine dernière que WhatsApp ne contournerait pas son chiffrement de bout en bout (EE2E) juste pour les "fouineurs britanniques". « Si nous devions réduire la sécurité pour le monde entier, pour répondre aux exigences d'un pays, ce serait très stupide pour nous d'accepter, rendant notre produit moins désirable pour 98 % de nos utilisateurs en raison des exigences de 2 %. Ce qui est proposé, c'est que nous lisions les messages de tout le monde, soit directement, soit indirectement par le biais d'un logiciel », a déclaré Cathcart.
« Je ne pense pas que les gens le souhaitent », a-t-il ajouté. En effet, les plans du gouvernement britannique pour détecter les images d'abus sexuels d'enfants (CSAM) incluent la possibilité de scanner les messages privés. Le gouvernement estime que les entreprises technologiques doivent s'attaquer au matériel pédopornographique en ligne. Ses propositions font partie du projet de loi sur la sécurité en ligne (Online Safety Bill), qui a été reporté à l'automne. « Elles ne devraient pas ignorer le risque évident que le EE2E les rende aveugles à ce contenu et entrave les efforts pour attraper les auteurs », a déclaré un porte-parole du gouvernement.
Le chiffrement de bout en bout offre le niveau de sécurité le plus solide, car - par conception - seul le destinataire visé détient la clé de déchiffrement du message, ce qui est essentiel pour une communication privée. Cette technologie sous-tend les échanges en ligne sur des applications telles que WhatsApp, Signal et Telegram. Mais le gouvernement britannique est convaincu qu'il est possible de détecter le CSAM tout en protégeant la vie privée. Il propose aux entreprises d'ajouter un dispositif de balayage automatisé piloté par l'IA dans le pipeline - idéalement dans l'application cliente - afin de détecter et de signaler les contenus illégaux.
« Nous continuons à travailler avec le secteur de la technologie pour soutenir le développement de technologies innovantes qui protègent la sécurité publique sans compromettre la vie privée », a ajouté le porte-parole. Cependant, les experts se sont interrogés sur la possibilité d'y parvenir et la plupart d'entre eux concluent que le balayage côté client est la seule option tangible. Toutefois, cela détruit les fondements du chiffrement du bout en bout, car les messages ne seraient plus privés. Avec ce que propose le gouvernement britannique, l'avantage est qu'au moins les messages sont chiffrés comme d'habitude lorsqu'ils sont transmis.
Le logiciel de votre téléphone, par exemple, étudie le contenu, et continue normalement si les données sont jugées exemptes de CSAM. L'inconvénient, c'est que tout faux positif signifie que les communications privées des gens sont signalées et potentiellement analysées par les forces de l'ordre ou un agent du gouvernement. Un autre inconvénient est que la définition de ce qui est filtré peut progressivement changer au fil du temps, et avant que vous ne le sachiez : les conversations de tout le monde sont automatiquement filtrées pour les choses que les politiciens ont décidé d'interdire. Un risque que les entreprises refusent de courir.
En outre, un autre inconvénient est que les modèles d'IA côté client qui ne produisent pas beaucoup de faux positifs sont susceptibles d'être facilement mis en échec, et sont principalement bons pour attraper des exemples connus et non modifiés de CSAM. Les services de messagerie comme WhatsApp et d'autres sont au centre d'un débat qui dure depuis des années sur le chiffrement et la sécurité publique. La question est de savoir si les forces de l'ordre doivent être autorisées à fouiller dans les communications chiffrées de milliards d'individus pour traquer les terroristes, les trafiquants de drogue, le CSAM et le crime organisé.
Ils sont généralement appelés "les quatre cavaliers de l'infocalypse". En mai, l'Union européenne a également proposé une législation qui confère aux fournisseurs une grande part de responsabilité dans la recherche et la divulgation de ces contenus. Les projets du Royaume-Uni et de l'Union européenne font écho aux efforts déployés par Apple l'année dernière pour analyser les images sur les iPhone afin de détecter les contenus abusifs avant de les télécharger sur iCloud. Mais Apple a annulé son projet après que des groupes de défense de la vie privée ont affirmé que le géant technologique avait créé une porte dérobée de sécurité dans son logiciel.
Selon les défenseurs de la vie privée en ligne, ces projets reviennent à installer un logiciel espion sur le téléphone de chaque individu, permettant ainsi aux gouvernements de mettre en place une surveillance de masse. Ella Jakubowska, conseillère politique au groupe de campagne European Digital Rights, a déclaré : « le balayage côté client revient presque à mettre un logiciel espion sur le téléphone de chaque personne. Il crée également une porte dérobée permettant aux acteurs malveillants d'accéder à vos messages. Le balayage côté client est une forme de surveillance de masse. C'est une profonde ingérence dans la vie privée des gens ».
Le professeur Alan Woodward, de l'université du Surrey, à Londres, estime que le scan pourrait être utilisé à mauvais escient. « Bien sûr, si vous demandez : "pensez-vous que les enfants doivent être protégés ?", tout le monde répondra "oui". Toutefois, si vous dites ensuite à quelqu'un : "bon, je vais mettre quelque chose sur votre téléphone qui va scanner chacune de vos images et la comparer à la base de données", alors soudainement vous commencez à réaliser les implications », explique-t-il. Lors de l'interview, Cathcart a déclaré que WhatsApp avait déjà détecté des centaines de milliers d'images d'abus sexuels d'enfants.
« Il existe des techniques très efficaces qui n'ont pas été adoptées par l'industrie et qui ne nécessitent pas que nous sacrifiions la sécurité de tout le monde. Nous signalons plus que presque tous les autres services internet dans le monde », a-t-il déclaré. Mais cette affirmation a suscité la colère des associations caritatives pour les enfants. « La réalité est qu'en l'état actuel des choses, sous le couvert du chiffrement, ils n'identifient qu'une fraction des niveaux d'abus que les produits frères, Facebook et Instagram, sont capables de détecter », a déclaré Andy Burrows, responsable de la politique de sécurité des enfants en ligne de la NSPCC.
La NSPCC (société nationale pour la prévention de la cruauté envers les enfants) est une organisation caritative britannique de protection de l'enfance. Selon Burrows, la messagerie chiffrée est la "ligne de front" des abus sexuels sur les enfants. « Deux tiers des abus sur les enfants qui sont actuellement identifiés et supprimés sont vus et supprimés dans la messagerie privée. Il est de plus en plus clair que la sécurité des enfants et la vie privée des adultes ne sont pas forcément opposées. Nous voulons une discussion sur ce à quoi peut ressembler un règlement équilibré », a déclaré Burrows.
Par ailleurs, il est important de rappeler que face au refus des applications de messagerie chiffrées de bout en bout d'introduire des filtres d'IA pour scanner les conversations privées, le gouvernement britannique a apporté le mois dernier un amendement au projet de loi sur la sécurité en ligne pour "punir sévèrement les entreprises qui ne vont pas obtempérer". Celles qui n'obéiront pas pourraient être frappées par une amende de 25 millions de dollars. L'amendement a été vivement critiqué, mais pourrait encourager Apple à mettre en œuvre sa solution controversée de détection du CSAM.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la position de WhatsApp vis-à-vis du projet de loi britannique ?
Que pensez-vous de l'introduction de ces filtres dans les applications de messagerie chiffrées de bout en bout ?
Que pensez-vous de l'argument selon lequel le déploiement de ces filtres est équivalent à la mise en place d'une surveillance de masse ?
Voir aussi
Les entreprises technologiques risquent de lourdes amendes si elles ne recherchent pas le CSAM dans les conversations chiffrées, un projet de loi britannique prévoit 25 millions de dollars d'amende
L'UE déclare la guerre au chiffrement de bout en bout et exige l'accès aux messages privés sur n'importe quelle plateforme, au nom de la protection des enfants
CSAM : le service de messagerie Tutanota expose « les mensonges de la Commission européenne » pour justifier la surveillance de masse, « la surveillance ne sauvera pas les enfants »
Le Parlement allemand demande à Tim Cook de reconsidérer ses projets de CSAM, estimant que le système de balayage d'Apple sape la communication confidentielle