IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos,
Alors que les experts dénoncent un recul dans les progrès en matière de vie privée

Le , par Bill Fassinou

401PARTAGES

6  0 
Apple a annoncé la semaine dernière "Expanded Protections for Children", une série de nouvelles fonctionnalités prévues pour être livrées avec l'iOS 15 afin d'accroître les mesures de protection des enfants. Les nouvelles fonctionnalités comprennent des protections pour les images sensibles dans l'application Messages, le balayage d'iCloud Photos pour le contenu de matériel d'abus sexuel d'enfants (CSAM - child sexual abuse material), et de nouvelles connaissances pour Siri et Search. Mais alors que l'industrie s'insurge contre cette initiative, Apple donne des détails techniques sur sa technologie et affirme qu'il y a 1 chance sur 1 milliard de faux positifs.

Apple rassure qu'il n'affecte pas la vie privée des utilisateurs

Quelques heures après l'annonce d'Apple, les critiques sont venues de partout. Apple est accusé de construire une "infrastructure de surveillance de masse". Malgré les assurances d'Apple, les experts en sécurité et les défenseurs de la vie privée ont critiqué le plan. Les critiques sont venues de nombreuses personnes et organisations, notamment de sources sources notables telles qu'Edward Snowden et l'Electronic Frontier Foundation, et portent principalement sur la technologie de scannage des photos iCloud pour les comparer à une base de données de matériel pédopornographique (CSAM) et sur les implications potentielles d'une telle fonctionnalité.



Dans un mémo interne distribué aux équipes qui ont travaillé sur ce projet et obtenu par 9to5Mac, Apple reconnaît les "malentendus" autour des fonctionnalités, mais redouble d'efforts pour affirmer que ces fonctionnalités font partie d'une "mission importante" pour assurer la sécurité des enfants. Le document, qui a également été dévoilé le même jour que les nouvelles fonctionnalités, a été rédigé par Sébastien Marineau-Mes, un VP logiciel chez Apple. Marineau-Mes affirme qu'Apple continuera à "expliquer et à détailler les fonctionnalités" incluses dans cette suite de protections étendues pour les enfants. Voici le mémo dans son intégralité :

« Aujourd'hui marque le dévoilement public officiel des protections élargies pour les enfants, et je voulais prendre un moment pour remercier chacun d'entre vous pour votre travail acharné au cours des dernières années. Nous n'aurions pas atteint cette étape importante sans votre dévouement inlassable et votre résilience. Assurer la sécurité des enfants est une mission tellement importante. À la manière d'Apple, la poursuite de cet objectif a nécessité un engagement transversal profond, englobant l'ingénierie, l'administration générale, l'informatique, les services juridiques, le marketing produit et les relations publiques.

Ce que nous avons annoncé aujourd'hui est le fruit de cette collaboration, un produit qui fournit des outils pour protéger les enfants, tout en respectant l'engagement profond d'Apple envers la vie privée des utilisateurs. Nous avons vu beaucoup de réactions positives aujourd'hui. Nous savons que certaines personnes ont des malentendus et que plus d'une s'inquiète des implications, mais nous continuerons à expliquer et à détailler les fonctionnalités pour que les gens comprennent ce que nous avons construit.

Et alors qu'il reste beaucoup de travail à accomplir pour mettre en œuvre les fonctionnalités dans les prochains mois, je voulais partager cette note que nous avons reçue aujourd'hui du NCMEC. Je l'ai trouvé incroyablement motivant, et j'espère que vous le serez aussi. Je suis fier de travailler chez Apple avec une équipe aussi formidable. Merci à tous !
».

Le mémo comprend aussi un message du National Center for Missing and Exploited Children, signé par Marita Rodriguez, directrice exécutive des partenariats stratégiques. Apple travaille en étroite collaboration avec le NCMEC sur les nouvelles fonctionnalités de numérisation d'iCloud. Voici le texte intégral de la note du NCMEC envoyée à l'équipe d'Apple travaillant sur ces fonctionnalités :

« Équipe Apple, je voulais partager un mot d'encouragement pour dire que tout le monde à NCMEC est TELLEMENT FIER de chacun d'entre vous et des décisions incroyables que vous avez prises au nom de la priorité accordée à la protection des enfants. Il a été revigorant pour toute notre équipe de voir (et de jouer un petit rôle dans) ce que vous avez dévoilé aujourd'hui. Je sais que la journée a été longue et que beaucoup d'entre vous n'ont probablement pas dormi depuis 24 heures. Nous savons que les jours à venir seront remplis des voix criardes de la minorité. Nos voix seront plus fortes.

Notre engagement à soutenir les enfants qui ont vécu les abus et les victimisations les plus inimaginables sera plus fort. Pendant ces longues journées et ces nuits sans sommeil, j'espère que vous trouverez du réconfort dans le fait que, grâce à vous, des milliers d'enfants victimes d'exploitation sexuelle seront sauvés et auront une chance de guérir et de vivre l'enfance qu'ils méritent. Merci d'avoir trouvé la voie à suivre pour protéger les enfants tout en préservant leur vie privée !
».

La technologie d'Apple pour l'analyse des images

Le résumé technique d'Apple sur la détection de CSAM comprend quelques promesses de confidentialité dans l'introduction. « Apple n'apprend rien sur les images qui ne correspondent pas à la base de données de CSAM connus. Apple ne peut pas accéder aux métadonnées ou aux dérivés visuels des images de CSAM correspondantes jusqu'à ce qu'un seuil de correspondances soit dépassé pour un compte iCloud Photos », est-il indiqué. La technologie de hachage d'Apple est appelée NeuralHash, et elle analyse une image et la convertit en un numéro unique spécifique à cette image.



Selon Apple, seule une autre image qui semble presque identique peut produire le même nombre. La société explique, par exemple, que des images qui diffèrent en taille ou en qualité de transcodage auront toujours la même valeur NeuralHash. En outre, avant qu'un iPhone ou un autre appareil Apple ne télécharge une image sur iCloud, l'appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance. Il chiffre également le NeuralHash de l'image et un dérivé visuel. Ce justificatif est téléchargé sur iCloud Photos avec l'image.

Selon le document d'Apple, en utilisant le "partage de secret à seuil", le système garantit que le contenu des bons de sécurité ne peut pas être interprété par Apple à moins que le compte iCloud Photos ne franchisse un seuil de contenu de CSAM connus. Apple estime que ce n'est que lorsque le seuil est dépassé que la technologie cryptographique permet à Apple d'interpréter le contenu des bons de sécurité associés aux images CSAM correspondantes. Tout en notant la probabilité d'un faux positif sur un milliard, Apple a déclaré qu'il examine manuellement tous les rapports faits au NCMEC pour garantir l'exactitude des rapports.

En outre, contrairement à ce que certains pensent, Apple ne peut pas vérifier les images lorsque les utilisateurs ont désactivé iCloud Photos. En d'autres termes, les contrôles de CSAM ne seront effectués que sur les appareils sur lesquels cette fonction est activée. Les images de tout appareil dont cette fonction est désactivée ne seront pas vérifiées. Autre chose qu'il faut noter : Apple ne peut pas non plus fouiller dans les sauvegardes iCloud et vérifier les images qui y sont stockées. Cela signifie que la seule fois où Apple effectuera des contrôles sur les photos, c'est pendant leur téléchargement sur iCloud Photos.

Lors d'une conférence de presse vendredi, Apple a déclaré qu'elle prévoyait d'étendre ce service en fonction des lois de chaque pays où elle opère, en commençant par les États-Unis. Apple a déclaré que les nuances de son système, telles que les "bons de sécurité" transmis de l'iPhone aux serveurs d'Apple sans données utiles, le protégeront des pressions gouvernementales visant à identifier des contenus autres que des images d'abus d'enfants. En effet, ces dernières années, les autorités de réglementation, les forces de l'ordre et les politiciens exigent de plus en plus des entreprises IT qu'elles fassent davantage pour supprimer les contenus illicites.



Ils ont brandi le fléau des contenus pédopornographiques pour décrier le chiffrement fort, de la même manière qu'ils avaient auparavant invoqué la nécessité de lutter contre le terrorisme. WhatsApp, le plus grand service de messagerie entièrement chiffré au monde, est également sous la pression des gouvernements qui veulent voir ce que les gens disent, et il craint que cela n'augmente maintenant. Quelques lois en résultant, notamment en Grande-Bretagne, pourraient être utilisées pour forcer les entreprises technologiques à agir contre leurs utilisateurs en secret. La stratégie d'Apple pourrait détourner l'attention des gouvernements en montrant son initiative ou en se conformant aux directives prévues en Europe.

D'autres pensent toutefois que cela reste dangereux. "L'entreprise a peut-être détourné l'attention des régulateurs américains sur ce sujet, mais elle va inciter les régulateurs internationaux à faire la même chose avec les contenus terroristes et extrémistes", a déclaré Riana Pfefferkorn, chercheuse au Stanford Internet Observatory. Les détenteurs de droits d'auteur politiquement influents à Hollywood et ailleurs pourraient même faire valoir que leurs droits numériques devraient être appliqués de cette manière, a-t-elle ajouté. Le chef de WhatsApp, Will Cathcart, a écrit vendredi un flot de critiques contre Apple en ce qui concerne ses nouvelles fonctionnalités.

« Nous avons des ordinateurs personnels depuis des décennies, et il n'y a jamais eu un mandat pour scanner le contenu privé de tous les ordinateurs de bureau, ordinateurs portables ou téléphones à l'échelle mondiale à la recherche de contenu illégal; Ce n'est pas ainsi que fonctionne la technologie construite dans les pays libres », a-t-il écrit.

Sécurité de la communication dans Messages

En plus de scanner les appareils à la recherche d'images correspondant à la base de données de CSAM, Apple a déclaré qu'il mettrait à jour l'application Messages pour ajouter de nouveaux outils pour avertir les enfants et leurs parents lorsqu'ils reçoivent ou envoient des photos sexuellement explicites. « L'application Messages utilise l'apprentissage automatique sur l'appareil pour analyser les pièces jointes des images et déterminer si une photo est sexuellement explicite. La fonction est conçue de manière à ce qu'Apple n'ait pas accès aux messages », a déclaré Apple.



« Lorsqu'une image dans Messages est signalée, la photo sera brouillée et l'enfant sera averti, on lui présentera des ressources utiles et on le rassurera en lui disant qu'il n'y a aucun problème s'il ne veut pas voir cette photo. Le système permettra aux parents de recevoir un message si les enfants regardent une photo marquée, et des protections similaires sont disponibles si un enfant tente d'envoyer des photos sexuellement explicites. L'enfant sera averti avant que la photo ne soit envoyée, et les parents pourront recevoir un message si l'enfant choisit de l'envoyer », a ajouté l'entreprise.

Apple a aussi déclaré qu'elle mettrait à jour Siri et Search pour fournir aux parents et aux enfants des informations élargies et de l'aide s'ils rencontrent des situations dangereuses. Selon la société, les applications Siri et Search interviendront lorsque les utilisateurs effectueront des recherches pour des requêtes liées aux CSAM pour expliquer aux utilisateurs que l'intérêt pour ce sujet est nuisible et problématique, et fourniront des ressources de partenaires pour obtenir de l'aide sur cette question. Le Center for Democracy & Technology (CDT) a qualifié le scannage des photos dans Messages de "porte dérobée".

« Le mécanisme qui permettra à Apple de scanner les images dans Messages n'est pas une alternative à une porte dérobée - c'est une porte dérobée. L'analyse côté client d'un côté de la communication brise la sécurité de la transmission, et le fait d'informer un tiers (le parent) du contenu de la communication porte atteinte à sa vie privée », a déclaré le CDT dans un billet de blogue. Des organisations du monde entier ont mis en garde contre l'analyse côté client, car elle pourrait être utilisée par les gouvernements et les entreprises pour contrôler le contenu des communications privées.

Les appareils stockeront une base de données de CSAM

Apple a expliqué que les dispositifs des utilisateurs stockeront une "base de données aveugle" qui permettra à l'appareil de déterminer si une photo correspond à une image de la base de données de CSAM. Tout d'abord, Apple reçoit les hashs correspondant aux CSAM connus de la part des organisations de protection de l'enfance susmentionnées. Ensuite, ces hashs subissent une série de transformations qui comprennent une étape finale de neutralisation, réalisée par cryptographie à courbe elliptique (ECC). L'aveuglement est effectué à l'aide d'un secret d'aveuglement côté serveur, connu uniquement d'Apple.

Après quoi, les hashs de CSAM masqués sont placés dans une table de hachage, où la position dans la table de hachage est purement fonction du NeuralHash de l'imageb de CSAM. Cette base de données aveugle est stockée en toute sécurité sur les appareils des utilisateurs. Selon Apple, les propriétés de l'ECC garantissent qu'aucun appareil ne peut déduire quoi que ce soit sur les hachages d'images de CSAM sous-jacents à partir de la base de données masquée. Un iPhone ou un autre appareil analysera les photos de l'utilisateur, calculera un NeuralHash et consultera "l'entrée dans la table de hachage masquée".

L'appareil utilise également le hachage masqué que le système a consulté pour obtenir une clé de chiffrement dérivée et utilise cette clé de chiffrement pour chiffrer les données utiles associées. Combiné à d'autres étapes, cela garantit que seules les images correspondant à la base de données CSAM seront déchiffrées.

Source : Expanded Protections for Children

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des annonces d'Apple concernant les protections étendues pour la sécurité des enfants ?

Voir aussi

Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone

Le lanceur d'alerte Edward Snowden et l'EFF critiquent le projet d'Apple de scanner les messages et les images iCloud. Des milliers de personnes demandent à l'entreprise de suspendre ses plans

Le système de livraison par drones d'Amazon peut-il être autre chose que pure hype ? Le projet montre des signes d'effondrement, dont des licenciements en masse : vers une débâcle inéluctable ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de electroremy
Membre éprouvé https://www.developpez.com
Le 14/08/2021 à 0:36
Tout ceci est extrêmement inquiétant...
Et encore : Apple a l'honnêté d'annoncer l'existence et le fonctionnement de son système
Car la vraie question est quels sont les mouchards que nous avons sur nos smartphones, nos ordinateurs dont nous ignorons l'existence ???

Les OS et logiciels actuels sont trop gros, trop nombreux et mis à jours trop souvent pour que des informaticiens dignes de confiance puissent tout passer au crible.

Solution : fonctionner en "local" avec un second terminal dédié uniquement à Internet ?
Avec, pour les échanges sensible, un cryptage en amont et en aval avec un outil open source ?
Ce n'est pas très pratique, il faut jongler avec une clef USB ou un outil d'échange maison entre les deux machines...
Le problème supplémentaire étant qu'il devient de plus en plus difficile de fonctionner "en local" c'est à dire sans connexion réseau
Pour un smartphone c'est impossible par principe
Pour un PC ça devient de plus en plus difficile (serveurs de licence par exemple)

Ce qui m'énerve le plus c'est :
- le prétexte "lutte contre la pédophilie" qui est la baguette magique pour faire accepter n'importe quoi
- Internet qui est le grand bouc émissaire de tous les malheurs du monde

Car concernant les viols en général, et les viols sur mineurs en particulier, dans la grande majorité des cas l'agresseur connait la victime (même famille, même cercle amical, même quartier).

Pour une agression sexuelle d'un enfant par un parent (ou un oncle, un voisin, un enseignant, le curé...), le rôle d'Internet est donc... totalement nul !
Et ces cas de figure constituent la majorité de ces agressions.

Ensuite il y a les enlèvements d'enfants par les sinistres criminels en série.
Ils opèrent dans la région où ils habitent, ça se passe "dans la vraie vie", le rôle d'Internet est... nul !

Oui il arrive qu'Internet ai un rôle (les fameux réseaux) mais les agressions se passent toujours "dans la vraie vie" en laissant pas mal de traces pour l'enquête - un enlèvement ne passe pas inaperçu, une enquête de voisinage, des barrages routiers, des analyses ADN sont souvent la solution.
Internet permet de partager et voir les images des crimes commis par d'autre, mais c'est un problème "secondaire", le problème principal c'est l'agression originale dont l'auteur doit être arrêté.

Le pire c'est que ce flicage d'Internet :
- ne va servir à rien, car les criminels vont s'adapter
- va pénaliser les personnes vulnérables (sources des journalistes, lanceurs d'alerte, minorités opprimés)

Car un criminel qui veut commettre un crime va s'organiser dès le départ en faisant attention avec Internet et les smartphones - sauf s'il est idiot... et il y en a des "champions", voir les rubriques "ivre virgule..." de la presse régionale

En revanche, un lanceur d'alerte, au départ, ne se rend pas compte qu'il est en danger, car tout simplement, on devient lanceur d'alerte progressivement : on découvre un problème, on essaye d'en parler, on se rend compte que ça gêne, on se rend compte que c'est beaucoup plus grave que ce qu'on imaginait au départ, on reçoit des menaces, et là seulement on se rend compte qu'il faut prendre des précautions mais c'est trop tard, on est déjà repéré

Que conclure ?
- soit les GAFAM et nos élus sont tous complétements naïfs et incompétents en matière de technologie et de criminalité
- soit les GAFAM et nos élus nous prennent ouvertement pour des imbéciles, leur véritable objectif c'est de pouvoir surveiller tout le monde, pour se débarrasser des lanceurs d'alerte, pour se débarrasser des opposants politiques, pour rester au pouvoir et/ou gagner de l'argent, la lutte contre la pédophilie n'étant qu'un prétexte...

Mais au fait, si on se préoccupait vraiment du sort des enfants de notre planète :
- on aurait fait le ménage dans les institutions (écoles, églises, ...) au lieu de protéger les agresseurs en les mutants ailleurs et en étouffant l'affaire
- on s'occuperai mieux des orphelins placés en institution, et on ne les jetterais pas dehors à 18 ans
- on interdirait le travail des enfants ; en Chine ou dans les pays du tiers-monde beaucoup d'enfants sont exploités en usine, dans les mines ou dans les décharges, mais là ça ne dérange personne du moment que ça fait tourner l'économie et qu'on peut fabriquer des smartphones... Apple protecteur de l'enfance, c'est du foutage de gueule quand on voit où et comment sont fabriqués leurs smartphone, leurs composants et les matières premières...
7  0 
Avatar de
https://www.developpez.com
Le 06/09/2021 à 7:22
La seule donnée privée, c'est celle qui n'est pas collectée.

Quand Apple prétend protéger la vie privée de ses utilisateurs au prétexte que les (nombreuses) informations collectées ne sont pas transmises à des tiers, c'est juste du bidon.
6  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 22/08/2022 à 10:54
j'espere que cet incident ouvrira les yeux aux gens.

google a de nombreux service gratuits qui sont tres bien fait et pour une bonne raisons.
une fois que vous ne pouvez plus vous en passer, il ya une sorte de chantage qui s'installe.

mais au dela de ca, il peut tout vous couper comme ca lui prends. c'est couvert dans les dispositions generales que
vous n'avez pas le choix de signer regulierement pour continuer a utiliser les services en question. (le fameux chantage dont je parlais)

Et comme pour les jeux et apps qui sont supprimés avec un messages abscons sans possibiltié de faire appel par le dev, ni contact de quoi que ce soit,
vous perdez d'un coup l'acces a tous les services google dont vous etes dependant d'une maniere ou d'une autre, donc tout vos mails, votre telephone android, et toute les autres services, comme google ads (que vous ayez des sous ou pas dedssus bien evidemment).

si vous etendez ca aux autres GAFAM, ca peut limite vous couper de la plupart des grand services mainstream d'internet.

Pour eviter ca, il ne faut pas mettre tout ces oeufs dans le meme panier, soit, commencer, a ce passer d'eux quand c'est possible.

Et c'est pas evident, mais necessaire. ce qui lui est arrivé peut vous arriver pour un motif encore plus light..
6  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 24/08/2022 à 16:42
Citation Envoyé par Patrick Ruiz Voir le message

Interdire le scannage automatique des communications privées ou le maintenir : de quel bord êtes-vous ?
Que rien ne peut justifier le scan de communications privées qui par définition relèvent de la vie privée.
Sur le fond c'est un scandale que Google les scanne et sur ce cas particulier c'est l'équivalent d'un mauvais fonctionnement que de les bloquer.

Citation Envoyé par Patrick Ruiz Voir le message

Quelles solutions techniques préconisez-vous dans le cas d’un maintien du scannage automatique des communications privées pour garantir un équilibre entre vie privée et sécurité ?
Aucune, on ne va pas voir ce qui relève du privé, point. La question ne peut se poser que pour les communications publiques ou là il y a par contre beaucoup à faire contre les manipulations, les harcèlements et bien d'autres choses
6  1 
Avatar de OldGhost
Membre à l'essai https://www.developpez.com
Le 25/08/2022 à 12:28
La situation interpelle d’autant plus que l’UE travaille ce que les tous les fournisseurs de services de courrier électronique, de chat et de messagerie fouillent dans les communications privées à la recherche de messages suspects de manière entièrement automatisée et à les transmettre à la police dans le cadre de la lutte contre la pédopornographie. La présentation d’un projet de loi y relatif s’est en principe faite au cours du mois de mai de l’année en cours.
En résumé, Bruxelles veut officialiser la capacité des fournisseurs américains à faire de l'espionnage industriel pour le compte des US et au détriment des pays européens, sous couvert de lutte contre la pédocriminalité.

Les réseaux organisés de pornographie infantile n'utilisent pas le courrier électronique ou les services de messagerie, mais les forums du darknet
Pas de chance ! Encore une mesure inutile par rapport à l'objectif annoncé, à croire que tout est fait pour aller vers une société de cyber-contrôle et d'espionnage de masse.
5  0 
Avatar de LeBreton56
Membre régulier https://www.developpez.com
Le 25/08/2022 à 16:32
je me demande comment des européens peuvent voter ce genre de surveillance et en même temps défendre la RGPD et la protection des identités
Il est inadmissible que des sociétés privées aient le pouvoir(et devoir apparemment) de fouiller dans notre vie privée alors qu' en générale la police ou la gendarmerie a besoins d'un mandat pour le faire.

je pense que nos politique sont tombés sur la tête et ne comprennent rien à l'informatique et au réseaux. a moins que des soit disant expert leur aient vendue la lune.

j'en pleure sur la patrie de la liberté égalité fraternité.
5  0 
Avatar de Zefling
Expert confirmé https://www.developpez.com
Le 10/08/2021 à 14:28
Citation Envoyé par foetus Voir le message
Pourtant cela va faire presque 5 ans que Google avec GMail scanne les courriels pour la pédopornographie avec des prises.
Il faut vraiment pas être une lumière pour utiliser Gmail sans savoir que tout y est scanné.
Niveau vie privée, pour moi Gmail c'est le néant.
4  0 
Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 24/08/2021 à 11:51
Google via Gmail scanne votre boîte à lettre soit disant pour mieux vous cibler publicitairement parlant, Apple vis iCloud scanne la votre soit disant pour y trouver des fichiers compromettant...

En résumé fuyez les services US, vous y êtes super-hyper fichés ;-(

Les Eats Unis se moquent ouvertement du respect de la vie privée, il serait temps pour la vieille Europe de remettre l'église au centre du village et d'entreprendre des actions en justice à l'encontre de ce genre de pratiques, qui sont Dieu merci illégales chez nous.
4  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 24/08/2022 à 18:06
Quelles solutions techniques préconisez-vous dans le cas d’un maintien du scannage automatique des communications privées pour garantir un équilibre entre vie privée et sécurité ?
une solution : https://fr.wikipedia.org/wiki/Proton_Mail, mais limité ne version gratuite
autre solution ; Utilisation de client de messagerie prenant en charge OpenPGP, mais galère, il faut créer un jeu de clé publique/cl privée et le destinataire doit l'utiliser.

Quelle que soit la situation, ayez une sauvegarde offline de vos mails , et dans la mesure du possible, utilisez une adresse sur votre propre nom de domaine, vous pourrez ainsi changer d'hébergeur de mail à tout moment
4  0 
Avatar de tyrtamos
Expert éminent https://www.developpez.com
Le 25/08/2022 à 5:26
Bonjour. Il y a plusieurs choses choquantes dans cette information. C'est bien pour la société que Google (et Facebook, etc...) dispose d'une surveillance pour éviter les messages illégaux et dangereux, mais encore faut-il ne pas le faire n'importe comment. Dans le problème cité:
- comment une conversation et une photo communiquées dans le cadre d'une consultation médicale ont-elles pu être scannées? Il n'y a plus de secret médical?
- la police ayant vérifié et constaté qu'il n'y a rien de répréhensible, comment Google ose-t-il refuser de restaurer le compte annulé?

Un problème du même genre mais heureusement moins grave, vient de m'arriver avec Facebook. J'ai été interpelé méchamment par Facebook pour un message innocent concernant... le code de la route, comme quoi il "contrevenait aux règles de Facebook"! J'avais seulement émis des doutes sur le fait que certaines règles du code de la route allemand soit compatible avec la mentalité des français. J'ai bien sûr refusé le verdict, mais Facebook a maintenu sa position. J'ai encore protesté en m'expliquant , et Facebook ne me supprime pas en disant que "une erreur est toujours possible". Ils ont donc pris acte de ma 2ème protestation mais il ne l'ont pas lue puisqu'ils ne répondent pas sur le fond. Cette dernière décision était donc elle aussi automatique.

Il y a manifestement un algorithme qui repère les "mots interdits" sans tenir aucun compte du sens des phrases ni du contexte, et génère des sanctions automatiques.

Ce qui me choque, c'est que dans un cas aussi simple et aussi facile à défendre que le mien, je n'ai eu manifestement aucune personne physique intelligente pour répondre à mes protestations. Cela augure mal des suites: nous qui critiquions facilement le caractère aveugle de notre administration française, nous allons vers une époque où nous serons condamnés par un ordinateur pour de fausses raisons sans aucune possibilité de se défendre. Je fini par être content d'être vieux: je ne verrai pas la suite, mais nos enfants, eux, la verront et la subiront. Triste époque...
5  1