IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le patron de WhatsApp a déclaré qu'il n'introduira pas des filtres d'IA pour scanner les conversations chiffrées,
Comme l'exige un projet de loi du gouvernement britannique

Le , par Bill Fassinou

187PARTAGES

4  0 
Will Cathcart, directeur de WhatsApp, a déclaré lors d'une interview la semaine dernière qu'il ne comptait pas affaiblir la sécurité de son service de messagerie pour se plier aux efforts du gouvernement britannique pour scanner les conversations privées. Le cadre de Meta a ajouté qu'il serait irresponsable, voire stupide, de saper la sécurité de WhatsApp sur le plan mondial pour satisfaire les exigences d'un État qui représente à peine 2 % du nombre d'utilisateurs total de l'application. Ses propos interviennent alors qu'un projet de loi britannique prévoit une amende de 25 millions de dollars contre tout refus de rechercher le CSAM dans les messages privés.

Will Cathcart est un cadre de Meta depuis plus de 12 ans et dirige WhatsApp depuis 2019. Il a déclaré à la BBC la semaine dernière que WhatsApp ne contournerait pas son chiffrement de bout en bout (EE2E) juste pour les "fouineurs britanniques". « Si nous devions réduire la sécurité pour le monde entier, pour répondre aux exigences d'un pays, ce serait très stupide pour nous d'accepter, rendant notre produit moins désirable pour 98 % de nos utilisateurs en raison des exigences de 2 %. Ce qui est proposé, c'est que nous lisions les messages de tout le monde, soit directement, soit indirectement par le biais d'un logiciel », a déclaré Cathcart.

« Je ne pense pas que les gens le souhaitent », a-t-il ajouté. En effet, les plans du gouvernement britannique pour détecter les images d'abus sexuels d'enfants (CSAM) incluent la possibilité de scanner les messages privés. Le gouvernement estime que les entreprises technologiques doivent s'attaquer au matériel pédopornographique en ligne. Ses propositions font partie du projet de loi sur la sécurité en ligne (Online Safety Bill), qui a été reporté à l'automne. « Elles ne devraient pas ignorer le risque évident que le EE2E les rende aveugles à ce contenu et entrave les efforts pour attraper les auteurs », a déclaré un porte-parole du gouvernement.



Le chiffrement de bout en bout offre le niveau de sécurité le plus solide, car - par conception - seul le destinataire visé détient la clé de déchiffrement du message, ce qui est essentiel pour une communication privée. Cette technologie sous-tend les échanges en ligne sur des applications telles que WhatsApp, Signal et Telegram. Mais le gouvernement britannique est convaincu qu'il est possible de détecter le CSAM tout en protégeant la vie privée. Il propose aux entreprises d'ajouter un dispositif de balayage automatisé piloté par l'IA dans le pipeline - idéalement dans l'application cliente - afin de détecter et de signaler les contenus illégaux.

« Nous continuons à travailler avec le secteur de la technologie pour soutenir le développement de technologies innovantes qui protègent la sécurité publique sans compromettre la vie privée », a ajouté le porte-parole. Cependant, les experts se sont interrogés sur la possibilité d'y parvenir et la plupart d'entre eux concluent que le balayage côté client est la seule option tangible. Toutefois, cela détruit les fondements du chiffrement du bout en bout, car les messages ne seraient plus privés. Avec ce que propose le gouvernement britannique, l'avantage est qu'au moins les messages sont chiffrés comme d'habitude lorsqu'ils sont transmis.

Le logiciel de votre téléphone, par exemple, étudie le contenu, et continue normalement si les données sont jugées exemptes de CSAM. L'inconvénient, c'est que tout faux positif signifie que les communications privées des gens sont signalées et potentiellement analysées par les forces de l'ordre ou un agent du gouvernement. Un autre inconvénient est que la définition de ce qui est filtré peut progressivement changer au fil du temps, et avant que vous ne le sachiez : les conversations de tout le monde sont automatiquement filtrées pour les choses que les politiciens ont décidé d'interdire. Un risque que les entreprises refusent de courir.

En outre, un autre inconvénient est que les modèles d'IA côté client qui ne produisent pas beaucoup de faux positifs sont susceptibles d'être facilement mis en échec, et sont principalement bons pour attraper des exemples connus et non modifiés de CSAM. Les services de messagerie comme WhatsApp et d'autres sont au centre d'un débat qui dure depuis des années sur le chiffrement et la sécurité publique. La question est de savoir si les forces de l'ordre doivent être autorisées à fouiller dans les communications chiffrées de milliards d'individus pour traquer les terroristes, les trafiquants de drogue, le CSAM et le crime organisé.

Ils sont généralement appelés "les quatre cavaliers de l'infocalypse". En mai, l'Union européenne a également proposé une législation qui confère aux fournisseurs une grande part de responsabilité dans la recherche et la divulgation de ces contenus. Les projets du Royaume-Uni et de l'Union européenne font écho aux efforts déployés par Apple l'année dernière pour analyser les images sur les iPhone afin de détecter les contenus abusifs avant de les télécharger sur iCloud. Mais Apple a annulé son projet après que des groupes de défense de la vie privée ont affirmé que le géant technologique avait créé une porte dérobée de sécurité dans son logiciel.

Selon les défenseurs de la vie privée en ligne, ces projets reviennent à installer un logiciel espion sur le téléphone de chaque individu, permettant ainsi aux gouvernements de mettre en place une surveillance de masse. Ella Jakubowska, conseillère politique au groupe de campagne European Digital Rights, a déclaré : « le balayage côté client revient presque à mettre un logiciel espion sur le téléphone de chaque personne. Il crée également une porte dérobée permettant aux acteurs malveillants d'accéder à vos messages. Le balayage côté client est une forme de surveillance de masse. C'est une profonde ingérence dans la vie privée des gens ».

Le professeur Alan Woodward, de l'université du Surrey, à Londres, estime que le scan pourrait être utilisé à mauvais escient. « Bien sûr, si vous demandez : "pensez-vous que les enfants doivent être protégés ?", tout le monde répondra "oui". Toutefois, si vous dites ensuite à quelqu'un : "bon, je vais mettre quelque chose sur votre téléphone qui va scanner chacune de vos images et la comparer à la base de données", alors soudainement vous commencez à réaliser les implications », explique-t-il. Lors de l'interview, Cathcart a déclaré que WhatsApp avait déjà détecté des centaines de milliers d'images d'abus sexuels d'enfants.

« Il existe des techniques très efficaces qui n'ont pas été adoptées par l'industrie et qui ne nécessitent pas que nous sacrifiions la sécurité de tout le monde. Nous signalons plus que presque tous les autres services internet dans le monde », a-t-il déclaré. Mais cette affirmation a suscité la colère des associations caritatives pour les enfants. « La réalité est qu'en l'état actuel des choses, sous le couvert du chiffrement, ils n'identifient qu'une fraction des niveaux d'abus que les produits frères, Facebook et Instagram, sont capables de détecter », a déclaré Andy Burrows, responsable de la politique de sécurité des enfants en ligne de la NSPCC.

La NSPCC (société nationale pour la prévention de la cruauté envers les enfants) est une organisation caritative britannique de protection de l'enfance. Selon Burrows, la messagerie chiffrée est la "ligne de front" des abus sexuels sur les enfants. « Deux tiers des abus sur les enfants qui sont actuellement identifiés et supprimés sont vus et supprimés dans la messagerie privée. Il est de plus en plus clair que la sécurité des enfants et la vie privée des adultes ne sont pas forcément opposées. Nous voulons une discussion sur ce à quoi peut ressembler un règlement équilibré », a déclaré Burrows.

Par ailleurs, il est important de rappeler que face au refus des applications de messagerie chiffrées de bout en bout d'introduire des filtres d'IA pour scanner les conversations privées, le gouvernement britannique a apporté le mois dernier un amendement au projet de loi sur la sécurité en ligne pour "punir sévèrement les entreprises qui ne vont pas obtempérer". Celles qui n'obéiront pas pourraient être frappées par une amende de 25 millions de dollars. L'amendement a été vivement critiqué, mais pourrait encourager Apple à mettre en œuvre sa solution controversée de détection du CSAM.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la position de WhatsApp vis-à-vis du projet de loi britannique ?
Que pensez-vous de l'introduction de ces filtres dans les applications de messagerie chiffrées de bout en bout ?
Que pensez-vous de l'argument selon lequel le déploiement de ces filtres est équivalent à la mise en place d'une surveillance de masse ?

Voir aussi

Les entreprises technologiques risquent de lourdes amendes si elles ne recherchent pas le CSAM dans les conversations chiffrées, un projet de loi britannique prévoit 25 millions de dollars d'amende

L'UE déclare la guerre au chiffrement de bout en bout et exige l'accès aux messages privés sur n'importe quelle plateforme, au nom de la protection des enfants

CSAM : le service de messagerie Tutanota expose « les mensonges de la Commission européenne » pour justifier la surveillance de masse, « la surveillance ne sauvera pas les enfants »

Le Parlement allemand demande à Tim Cook de reconsidérer ses projets de CSAM, estimant que le système de balayage d'Apple sape la communication confidentielle

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 05/08/2022 à 17:03
ils peuvent dire ce qu'il veulent. whatsapp c'est meta, donc pas plus a faire confiance qu'avant.
1  0 
Avatar de OrthodoxWindows
Membre éprouvé https://www.developpez.com
Le 07/08/2022 à 13:33
Que pensez-vous de la position de WhatsApp vis-à-vis du projet de loi britannique ?
Une filiale de Facebook qui défend la vie privée, c'est le comble. Cela prouve la dérive gravissime du gouvernement britannique.

Que pensez-vous de l'introduction de ces filtres dans les applications de messagerie chiffrées de bout en bout ?
[TROLL]Je pense que ce n'est pas suffisant. Pour vraiment lutter contre la pédocriminalité, il faut installer des micros partout, pour pouvoir enregistrer toutes les conversations privées de la vie réelle. Ou au moins, installer des caméras dans les vêtements pour enfants.[/TROLL]

Que pensez-vous de l'argument selon lequel le déploiement de ces filtres est équivalent à la mise en place d'une surveillance de masse ?
Je suis totalement d'accord avec cet argument.

La NSPCC (société nationale pour la prévention de la cruauté envers les enfants) est une organisation caritative britannique de protection de l'enfance. Selon Burrows, la messagerie chiffrée est la "ligne de front" des abus sexuels sur les enfants. « Deux tiers des abus sur les enfants qui sont actuellement identifiés et supprimés sont vus et supprimés dans la messagerie privée. Il est de plus en plus clair que la sécurité des enfants et la vie privée des adultes ne sont pas forcément opposées. Nous voulons une discussion sur ce à quoi peut ressembler un règlement équilibré », a déclaré Burrows.
Quelle surprise. Comme si les abus dans la vie non numérique se déroulaient dans l’espace public .

D'autre part, je me suis renseigné sur la NSPCC :

The NSPCC documented allegations of Satanic ritual abuse in 1990, with the publication of survey findings that, of 66 child protection teams in England, Wales and Northern Ireland, 14 teams had received reports of ritual abuse from children and seven of them were working directly with children who had been ritually abused, sometimes in groups of twenty.[13] An investigation into SRA allegations by the British government produced over two hundred reports, of which only three were substantiated and proved to be examples of pseudosatanic abuse, in which sexual abuse was the actual motivation and the rituals were incidental.[14][15]

The NSPCC also provided a publication known as Satanic Indicators to social services around the country that has been blamed for some social workers panicking and making false accusations of sexually abusing children.[16] The most prominent of these cases was in Rochdale in 1990 when up to twenty[17] children were taken from their homes and parents after social services believed them to be involved in satanic or occult ritual abuse. The allegations were later found to be false. The case was the subject of a BBC documentary which featured recordings of the interviews made by NSPCC social workers, revealing that flawed techniques and leading questions were used to gain evidence of abuse from the children. The documentary claimed that the social services were wrongly convinced, by organisations such as the NSPCC, that abuse was occurring and so rife that they made allegations before any evidence was considered.[18][19]

In 1999, an advert released by the NSPCC "warning" of the risk of children being murdered by strangers was criticised as a fear-mongering fundraising tactic, as such occurrences are exceedingly uncommon.[20][21]
La NSPCC semble donc être une association conspirationniste (il ne manque plus que les "élites" dans les histoires délirantes de rites sataniques), responsable de nombreux placements abusifs.

La NSPCC porte bien ses initiaux, qui pourrait être : NationalSocialistePartiCommunisteChinois .
1  0 
Avatar de ludovicdeluna
Membre à l'essai https://www.developpez.com
Le 08/08/2022 à 10:19
Je rigole doucement. Le 1er projet de Meta - quand il a acheté WhatsApp - était l'affaiblissement des communications cryptées pour des raisons de ciblage publicitaire. Il n'a pas trouvé le bon équilibre. Mais là, c'est le gouvernement qui le demande pour une (mauvaise) raison, et le discours change ? Tout d'un coups, WhatsApp se fait le défenseur des intérêts de ses clients ? Je n'y croit pas.

Lorsque Meta aura terminé ses essais sur l'analyse des messages WhatsApp, cette dernière se mettra au diapason car elle aura le potentiel de le faire. Nous nous dirigeons simplement vers une labellisation des applications de sécurité avec de nouvelles réglementations. Le pourquoi importe peut, et il est actuellement particulièrement mal choisi. C'est un peu trop facile aujourd'hui d'avoir en porte étendard de grandes valeurs pour justifier d'écraser tous les gardes fous visant à ne pas répéter les erreurs du passé.

Je fait un hors sujet ici : Si le niveau culturel, d'intégrité et intellectuel était élevé parmi les acteurs politiques, ce type d'action serait retoquée et pointée du doigt, comme cela a été le cas il y a plus de 30 ans. Mais ce n'est plus le cas depuis pas mal d'années. Nous avons des gestionnaires, et non plus des visionnaires. C'est un tournant pour nos sociétés. Nous aurons les conséquences qui vont avec.
1  0