IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le lanceur d'alerte Edward Snowden et l'EFF critiquent le projet d'Apple de scanner les messages et les images iCloud,
Des milliers de personnes demandent à l'entreprise de suspendre ses plans

Le , par Bill Fassinou

400PARTAGES

9  0 
La communauté est en pleine effervescence depuis le 5 août dernier où Apple a annoncé son intention de déployer des fonctionnalités sur les iPhone qui lui permettraient d'analyser la galerie iCloud des utilisateurs en la comparant à une base de données de matériel pédopornographique (CSAM) afin de trouver des correspondances et de rechercher des contenus explicites dans les messages d'enfants. L'EFF, Edward Snowden, des experts en sécurité et confidentialité, des cryptographes, des chercheurs, des professeurs, des juristes et des consommateurs dénoncent ces agissements et demandent à Apple de suspendre immédiatement ses plans.

Edward Snowden et l'EFF s'insurgent contre la décision d'Apple

Le 5 août 2021, Apple a annoncé de nouvelles mesures destinées à s'appliquer à la quasi-totalité de ses appareils sous le nom de "Protection étendue des enfants". Selon la firme de Cupertino, les nouvelles fonctionnalités seront déployées dans le cadre d'iOS 15, dont la sortie est prévue le mois de septembre. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aussi aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a-t-elle déclaré, ajoutant que la technologie porte le nom de neuralMatch.



La technologie proposée par l'entreprise fonctionne en surveillant en permanence les photos enregistrées ou partagées sur l'iPhone, l'iPad ou le Mac de l'utilisateur. Un système détecte si un certain nombre de photos répréhensibles sont détectées dans le stockage iCloud et alerte les autorités. Un autre avertit les parents d'un enfant si iMessage est utilisé pour envoyer ou recevoir des photos qu'un algorithme d'apprentissage automatique considère comme contenant de la nudité. L'annonce d'Apple a rapidement déclenché un tollé de critiques négatives dans l'industrie dénonçant le dangereux précédent que la société tente de créer.

Dans une série de tweets vendredi, le défenseur de la vie privée et lanceur d'alerte Edward Snowden s'est inquiété du fait qu'Apple déploie une forme de "surveillance de masse dans le monde entier" et crée un précédent qui pourrait permettre à l'entreprise de rechercher tout autre contenu arbitraire à l'avenir. Snowden a également noté qu'Apple a historiquement été un leader de l'industrie en matière de confidentialité numérique, et a même refusé de déverrouiller un iPhone appartenant à Syed Farook, l'un des tireurs des attaques de décembre 2015 à San Bernardino, en Californie, malgré l'ordre du FBI et d'un juge fédéral de le faire.

Apple s'est opposé à cette ordonnance, soulignant qu'il créerait un "dangereux précédent". Selon Snowden et d'autres experts et organisations, si l'entreprise déploie cette technologie le mois prochain, elle signera ainsi la défaite de l'industrie contre les gouvernements sur la question du chiffrement de bout en bout. Ces derniers pourraient ensuite faire pression ou exiger des autres entreprises qu'elles déploient également une telle technologie dans leurs produits. L'EFF (Electronic Frontier Foundation), un groupe international à but non lucratif de défense des droits numériques, a condamné la décision d'Apple.

Dans un billet de blogue sur son site Web, l'EFF a déclaré qu'il était extrêmement "déçu qu'un champion du chiffrement de bout en bout" entreprenne une volte-face choquante pour les utilisateurs qui ont compté sur le leadership de l'entreprise en matière de confidentialité et de sécurité. « L'exploitation des enfants est un problème grave, et Apple n'est pas la première entreprise technologique à modifier sa position en matière de protection de la vie privée pour tenter de le combattre. Mais ce choix aura un prix élevé pour la vie privée globale des utilisateurs », a déclaré l'EFF, ajoutant qu'une porte dérobée ne pourrait en aucun cas être sécurisée.

« Apple peut expliquer en détail comment son implémentation technique continuera à préserver la vie privée et la sécurité de la porte dérobée qu'elle propose, mais au bout du compte, même une porte dérobée bien documentée, soigneusement pensée et de portée limitée reste une porte dérobée. Il est impossible de construire un système d'analyse côté client qui ne puisse être utilisé que pour les images sexuellement explicites envoyées ou reçues par des enfants. Ainsi, même un effort bien intentionné pour construire un tel système brisera les promesses clés du chiffrement de la messagerie elle-même et ouvrira la porte à des abus plus larges ».

« Pour élargir l'étroite porte dérobée qu'Apple est en train de construire, il suffirait d'étendre les paramètres d'apprentissage automatique afin de rechercher d'autres types de contenu, ou de modifier les drapeaux de configuration pour analyser non seulement les comptes des enfants, mais aussi ceux de n'importe qui. Ce n'est pas une pente glissante ; c'est un système entièrement construit qui n'attend qu'une pression extérieure pour effectuer le moindre changement », a expliqué en détail l'EFF.

Dans une lettre ouverte à l'attention du fabricant de l'iPhone, l'EFF, des experts en sécurité et confidentialité, des cryptographes, des chercheurs, des professeurs, des juristes et plus de 5 000 personnes et organisations ont appelé l'entreprise à faire marche arrière afin de préserver les acquis en matière de confidentialité et de chiffrement. Selon eux, bien que l'exploitation des enfants soit un problème grave et que les efforts déployés pour le combattre soient presque incontestablement bien intentionnés, la proposition d'Apple introduit une porte dérobée qui menace de saper les protections fondamentales de la vie privée pour tous les utilisateurs de produits Apple.

Une pétition demande à Apple de renoncer à cette porte dérobée

Les experts estiment en effet que comme ces deux vérifications sont effectuées sur l'appareil de l'utilisateur, elles peuvent contourner tout chiffrement de bout en bout ayant pour but de protéger la vie privée de l'utilisateur. L'EFF a également souligné que divers gouvernements dans le monde ont déjà adopté des lois qui exigent la surveillance et la censure du contenu sur diverses plateformes, y compris les applications de messagerie, et que la décision d'Apple de scanner les messages et les photos iCloud pourrait être légalement exigée pour englober des matériaux supplémentaires.



« Ne vous y trompez pas : il s'agit d'une diminution de la vie privée pour tous les utilisateurs de iCloud Photos, et non d'une amélioration », a averti l'EFF. Outre l'EFF, le Center for Democracy and Technology (CDT), une organisation à but non lucratif basée à Washington dont la mission est de renforcer les droits et libertés individuels, a déclaré qu'il était "profondément préoccupé par le fait que les changements apportés par le fabricant de l'iPhone créent en fait de nouveaux risques pour les enfants et tous les utilisateurs, et marquent un écart important par rapport aux protocoles de confidentialité et de sécurité établis de longue date".

« Apple fait le choix de remplacer son système de messagerie chiffré de bout en bout, conforme aux normes de l'industrie, par une infrastructure de surveillance et de censure, qui sera vulnérable aux abus et à la dérive, non seulement aux États-Unis, mais dans le monde entier », a averti Greg Nojeim du CDT. « Apple devrait abandonner ces changements et restaurer la confiance de ses utilisateurs dans la sécurité et l'intégrité de leurs données sur les appareils et services Apple », a-t-il ajouté. D'autres experts pensent plutôt qu'Apple conduit l'industrie technologique vers un avenir dystopique.

« Nous nous dirigions petit à petit vers un avenir où de moins en moins d'informations devaient être contrôlées et examinées par quelqu'un d'autre que nous-mêmes. Pour la première fois depuis les années 1990, nous récupérions notre vie privée. Aujourd'hui, nous sommes sur une voie différente. La pression va venir du Royaume-Uni, des États-Unis, de l'Inde, de la Chine. Je suis terrifié à l'idée de ce à quoi cela va ressembler. Pourquoi Apple voudrait-elle dire au monde : "Hé, nous avons cet outil ?" », a déclaré Matthew D. Green, un spécialiste de la recherche sur la sécurité et la vie privée et professeur à l'université Johns Hopkins.

Par ailleurs, l'EFF insiste sur le fait qu'il a déjà vu cette dérive en action : « L'une des technologies conçues à l'origine pour scanner et hacher les images d'abus sexuels d'enfants a été réaffectée à la création d'une base de données de contenus "terroristes" à laquelle les entreprises peuvent contribuer et accéder dans le but d'interdire ces contenus. Cette base de données, gérée par le Global Internet Forum to Counter Terrorism (GIFCT), ne fait l'objet d'aucune surveillance externe, malgré les appels de la société civile ». Des défauts de conception fondamentaux dans l'approche proposée par Apple ont également été soulignés par des experts.

Voici leur explication : « Apple peut trivialement utiliser différents ensembles de données d'empreintes médiatiques pour chaque utilisateur. Pour un utilisateur, il pourrait s'agir d'abus d'enfants, pour un autre, d'une catégorie beaucoup plus large, permettant ainsi un suivi sélectif du contenu pour des utilisateurs ciblés. La technologie qu'Apple propose pour ses mesures de protection des enfants dépend d'une infrastructure extensible qui ne peut pas être surveillée ou limitée techniquement ». Les experts ont averti à plusieurs reprises que le problème n'est pas seulement la protection de la vie privée, mais d'autres facteurs entrent également en jeu.

Les experts redoutent le manque de responsabilité, les obstacles techniques à l'expansion et le manque d'analyse ou même la reconnaissance du potentiel d'erreurs et de faux positifs. Kendra Albert, avocate à la Clinique du droit du cyberespace de la faculté de droit de Harvard, estime que "ces fonctions de protection de l'enfance vont conduire les enfants homosexuels à être chassés de chez eux, à être battus ou pire encore". « Je sais juste que ces algorithmes d'apprentissage automatique vont signaler les photos de transition. Bonne chance pour envoyer à vos amis une photo de vous si vous avez des tétons de présentation féminine », a-t-elle déclaré.

À l'heure actuelle, plus de 5 544 personnes et organisations (Gigahost, GNU, l'EFF, knowledgeatwork UG, Latency: Zero, LLC, MacDailyNews, etc.) ont déjà signé la pétition. Les signataires ont adressé un certain nombre de requêtes à Apple, dont l'arrêt immédiat de la mise en œuvre de sa technologie de surveillance. « Nous, les soussignés, demandons que :

  • le déploiement par Apple de sa proposition de technologie de surveillance du contenu soit arrêté immédiatement ;
  • Apple publie une déclaration réaffirmant son engagement envers le chiffrement de bout en bout et la vie privée des utilisateurs ;
  • la démarche actuelle d'Apple menace de saper des décennies de travail effectué par des technologues, des universitaires et des défenseurs de la politique en faveur de mesures strictes de préservation de la vie privée qui deviendraient la norme pour la majorité des appareils électroniques grand public et des cas d'utilisation. Nous demandons à Apple de reconsidérer le déploiement de sa technologie, de peur qu'elle ne défasse ce travail important ».


Sources : appleprivacyletter.com, Electronic Frontier Foundation, Center for Democracy and Technology

Et vous ?

Quel est votre avis sur le sujet ?
Pensez-vous qu'Apple va renoncer à ses plants à la suite à ces réactions ?
Même si Apple y renonce publiquement, pensez-vous qu'il pourrait mettre en place neuralMatch discrètement ?

Voir aussi

Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone

Snowden avertit que les États utilisent le coronavirus pour construire « l'architecture de l'oppression » et prédit que les mesures prises pour lutter contre le COVID-19 vont persister longtemps

Apple transmet des données personnelles à la Chine et supprime les applications jugées « offensantes » par le gouvernement

Pourquoi la société Apple refuse-t-elle d'aider le FBI à débloquer l'iPhone en sa possession ? L'entreprise évoque quelques raisons dans une requête d'annulation

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de electroremy
Membre éprouvé https://www.developpez.com
Le 14/08/2021 à 0:36
Tout ceci est extrêmement inquiétant...
Et encore : Apple a l'honnêté d'annoncer l'existence et le fonctionnement de son système
Car la vraie question est quels sont les mouchards que nous avons sur nos smartphones, nos ordinateurs dont nous ignorons l'existence ???

Les OS et logiciels actuels sont trop gros, trop nombreux et mis à jours trop souvent pour que des informaticiens dignes de confiance puissent tout passer au crible.

Solution : fonctionner en "local" avec un second terminal dédié uniquement à Internet ?
Avec, pour les échanges sensible, un cryptage en amont et en aval avec un outil open source ?
Ce n'est pas très pratique, il faut jongler avec une clef USB ou un outil d'échange maison entre les deux machines...
Le problème supplémentaire étant qu'il devient de plus en plus difficile de fonctionner "en local" c'est à dire sans connexion réseau
Pour un smartphone c'est impossible par principe
Pour un PC ça devient de plus en plus difficile (serveurs de licence par exemple)

Ce qui m'énerve le plus c'est :
- le prétexte "lutte contre la pédophilie" qui est la baguette magique pour faire accepter n'importe quoi
- Internet qui est le grand bouc émissaire de tous les malheurs du monde

Car concernant les viols en général, et les viols sur mineurs en particulier, dans la grande majorité des cas l'agresseur connait la victime (même famille, même cercle amical, même quartier).

Pour une agression sexuelle d'un enfant par un parent (ou un oncle, un voisin, un enseignant, le curé...), le rôle d'Internet est donc... totalement nul !
Et ces cas de figure constituent la majorité de ces agressions.

Ensuite il y a les enlèvements d'enfants par les sinistres criminels en série.
Ils opèrent dans la région où ils habitent, ça se passe "dans la vraie vie", le rôle d'Internet est... nul !

Oui il arrive qu'Internet ai un rôle (les fameux réseaux) mais les agressions se passent toujours "dans la vraie vie" en laissant pas mal de traces pour l'enquête - un enlèvement ne passe pas inaperçu, une enquête de voisinage, des barrages routiers, des analyses ADN sont souvent la solution.
Internet permet de partager et voir les images des crimes commis par d'autre, mais c'est un problème "secondaire", le problème principal c'est l'agression originale dont l'auteur doit être arrêté.

Le pire c'est que ce flicage d'Internet :
- ne va servir à rien, car les criminels vont s'adapter
- va pénaliser les personnes vulnérables (sources des journalistes, lanceurs d'alerte, minorités opprimés)

Car un criminel qui veut commettre un crime va s'organiser dès le départ en faisant attention avec Internet et les smartphones - sauf s'il est idiot... et il y en a des "champions", voir les rubriques "ivre virgule..." de la presse régionale

En revanche, un lanceur d'alerte, au départ, ne se rend pas compte qu'il est en danger, car tout simplement, on devient lanceur d'alerte progressivement : on découvre un problème, on essaye d'en parler, on se rend compte que ça gêne, on se rend compte que c'est beaucoup plus grave que ce qu'on imaginait au départ, on reçoit des menaces, et là seulement on se rend compte qu'il faut prendre des précautions mais c'est trop tard, on est déjà repéré

Que conclure ?
- soit les GAFAM et nos élus sont tous complétements naïfs et incompétents en matière de technologie et de criminalité
- soit les GAFAM et nos élus nous prennent ouvertement pour des imbéciles, leur véritable objectif c'est de pouvoir surveiller tout le monde, pour se débarrasser des lanceurs d'alerte, pour se débarrasser des opposants politiques, pour rester au pouvoir et/ou gagner de l'argent, la lutte contre la pédophilie n'étant qu'un prétexte...

Mais au fait, si on se préoccupait vraiment du sort des enfants de notre planète :
- on aurait fait le ménage dans les institutions (écoles, églises, ...) au lieu de protéger les agresseurs en les mutants ailleurs et en étouffant l'affaire
- on s'occuperai mieux des orphelins placés en institution, et on ne les jetterais pas dehors à 18 ans
- on interdirait le travail des enfants ; en Chine ou dans les pays du tiers-monde beaucoup d'enfants sont exploités en usine, dans les mines ou dans les décharges, mais là ça ne dérange personne du moment que ça fait tourner l'économie et qu'on peut fabriquer des smartphones... Apple protecteur de l'enfance, c'est du foutage de gueule quand on voit où et comment sont fabriqués leurs smartphone, leurs composants et les matières premières...
7  0 
Avatar de
https://www.developpez.com
Le 06/09/2021 à 7:22
La seule donnée privée, c'est celle qui n'est pas collectée.

Quand Apple prétend protéger la vie privée de ses utilisateurs au prétexte que les (nombreuses) informations collectées ne sont pas transmises à des tiers, c'est juste du bidon.
6  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 22/08/2022 à 10:54
j'espere que cet incident ouvrira les yeux aux gens.

google a de nombreux service gratuits qui sont tres bien fait et pour une bonne raisons.
une fois que vous ne pouvez plus vous en passer, il ya une sorte de chantage qui s'installe.

mais au dela de ca, il peut tout vous couper comme ca lui prends. c'est couvert dans les dispositions generales que
vous n'avez pas le choix de signer regulierement pour continuer a utiliser les services en question. (le fameux chantage dont je parlais)

Et comme pour les jeux et apps qui sont supprimés avec un messages abscons sans possibiltié de faire appel par le dev, ni contact de quoi que ce soit,
vous perdez d'un coup l'acces a tous les services google dont vous etes dependant d'une maniere ou d'une autre, donc tout vos mails, votre telephone android, et toute les autres services, comme google ads (que vous ayez des sous ou pas dedssus bien evidemment).

si vous etendez ca aux autres GAFAM, ca peut limite vous couper de la plupart des grand services mainstream d'internet.

Pour eviter ca, il ne faut pas mettre tout ces oeufs dans le meme panier, soit, commencer, a ce passer d'eux quand c'est possible.

Et c'est pas evident, mais necessaire. ce qui lui est arrivé peut vous arriver pour un motif encore plus light..
6  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 24/08/2022 à 16:42
Citation Envoyé par Patrick Ruiz Voir le message

Interdire le scannage automatique des communications privées ou le maintenir : de quel bord êtes-vous ?
Que rien ne peut justifier le scan de communications privées qui par définition relèvent de la vie privée.
Sur le fond c'est un scandale que Google les scanne et sur ce cas particulier c'est l'équivalent d'un mauvais fonctionnement que de les bloquer.

Citation Envoyé par Patrick Ruiz Voir le message

Quelles solutions techniques préconisez-vous dans le cas d’un maintien du scannage automatique des communications privées pour garantir un équilibre entre vie privée et sécurité ?
Aucune, on ne va pas voir ce qui relève du privé, point. La question ne peut se poser que pour les communications publiques ou là il y a par contre beaucoup à faire contre les manipulations, les harcèlements et bien d'autres choses
6  1 
Avatar de OldGhost
Membre à l'essai https://www.developpez.com
Le 25/08/2022 à 12:28
La situation interpelle d’autant plus que l’UE travaille ce que les tous les fournisseurs de services de courrier électronique, de chat et de messagerie fouillent dans les communications privées à la recherche de messages suspects de manière entièrement automatisée et à les transmettre à la police dans le cadre de la lutte contre la pédopornographie. La présentation d’un projet de loi y relatif s’est en principe faite au cours du mois de mai de l’année en cours.
En résumé, Bruxelles veut officialiser la capacité des fournisseurs américains à faire de l'espionnage industriel pour le compte des US et au détriment des pays européens, sous couvert de lutte contre la pédocriminalité.

Les réseaux organisés de pornographie infantile n'utilisent pas le courrier électronique ou les services de messagerie, mais les forums du darknet
Pas de chance ! Encore une mesure inutile par rapport à l'objectif annoncé, à croire que tout est fait pour aller vers une société de cyber-contrôle et d'espionnage de masse.
5  0 
Avatar de LeBreton56
Membre régulier https://www.developpez.com
Le 25/08/2022 à 16:32
je me demande comment des européens peuvent voter ce genre de surveillance et en même temps défendre la RGPD et la protection des identités
Il est inadmissible que des sociétés privées aient le pouvoir(et devoir apparemment) de fouiller dans notre vie privée alors qu' en générale la police ou la gendarmerie a besoins d'un mandat pour le faire.

je pense que nos politique sont tombés sur la tête et ne comprennent rien à l'informatique et au réseaux. a moins que des soit disant expert leur aient vendue la lune.

j'en pleure sur la patrie de la liberté égalité fraternité.
5  0 
Avatar de Zefling
Expert confirmé https://www.developpez.com
Le 10/08/2021 à 14:28
Citation Envoyé par foetus Voir le message
Pourtant cela va faire presque 5 ans que Google avec GMail scanne les courriels pour la pédopornographie avec des prises.
Il faut vraiment pas être une lumière pour utiliser Gmail sans savoir que tout y est scanné.
Niveau vie privée, pour moi Gmail c'est le néant.
4  0 
Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 24/08/2021 à 11:51
Google via Gmail scanne votre boîte à lettre soit disant pour mieux vous cibler publicitairement parlant, Apple vis iCloud scanne la votre soit disant pour y trouver des fichiers compromettant...

En résumé fuyez les services US, vous y êtes super-hyper fichés ;-(

Les Eats Unis se moquent ouvertement du respect de la vie privée, il serait temps pour la vieille Europe de remettre l'église au centre du village et d'entreprendre des actions en justice à l'encontre de ce genre de pratiques, qui sont Dieu merci illégales chez nous.
4  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 24/08/2022 à 18:06
Quelles solutions techniques préconisez-vous dans le cas d’un maintien du scannage automatique des communications privées pour garantir un équilibre entre vie privée et sécurité ?
une solution : https://fr.wikipedia.org/wiki/Proton_Mail, mais limité ne version gratuite
autre solution ; Utilisation de client de messagerie prenant en charge OpenPGP, mais galère, il faut créer un jeu de clé publique/cl privée et le destinataire doit l'utiliser.

Quelle que soit la situation, ayez une sauvegarde offline de vos mails , et dans la mesure du possible, utilisez une adresse sur votre propre nom de domaine, vous pourrez ainsi changer d'hébergeur de mail à tout moment
4  0 
Avatar de tyrtamos
Expert éminent https://www.developpez.com
Le 25/08/2022 à 5:26
Bonjour. Il y a plusieurs choses choquantes dans cette information. C'est bien pour la société que Google (et Facebook, etc...) dispose d'une surveillance pour éviter les messages illégaux et dangereux, mais encore faut-il ne pas le faire n'importe comment. Dans le problème cité:
- comment une conversation et une photo communiquées dans le cadre d'une consultation médicale ont-elles pu être scannées? Il n'y a plus de secret médical?
- la police ayant vérifié et constaté qu'il n'y a rien de répréhensible, comment Google ose-t-il refuser de restaurer le compte annulé?

Un problème du même genre mais heureusement moins grave, vient de m'arriver avec Facebook. J'ai été interpelé méchamment par Facebook pour un message innocent concernant... le code de la route, comme quoi il "contrevenait aux règles de Facebook"! J'avais seulement émis des doutes sur le fait que certaines règles du code de la route allemand soit compatible avec la mentalité des français. J'ai bien sûr refusé le verdict, mais Facebook a maintenu sa position. J'ai encore protesté en m'expliquant , et Facebook ne me supprime pas en disant que "une erreur est toujours possible". Ils ont donc pris acte de ma 2ème protestation mais il ne l'ont pas lue puisqu'ils ne répondent pas sur le fond. Cette dernière décision était donc elle aussi automatique.

Il y a manifestement un algorithme qui repère les "mots interdits" sans tenir aucun compte du sens des phrases ni du contexte, et génère des sanctions automatiques.

Ce qui me choque, c'est que dans un cas aussi simple et aussi facile à défendre que le mien, je n'ai eu manifestement aucune personne physique intelligente pour répondre à mes protestations. Cela augure mal des suites: nous qui critiquions facilement le caractère aveugle de notre administration française, nous allons vers une époque où nous serons condamnés par un ordinateur pour de fausses raisons sans aucune possibilité de se défendre. Je fini par être content d'être vieux: je ne verrai pas la suite, mais nos enfants, eux, la verront et la subiront. Triste époque...
5  1