IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Apple invite les chercheurs à vérifier ses fonctionnalités de sécurité pour les enfants
Mais poursuit en justice une startup qui fait exactement cela

Le , par Stéphane le calme

321PARTAGES

4  0 
Au début du mois, Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste.

Apple a précisé que la technologie de balayage fait partie d'une nouvelle série de systèmes de protection des enfants qui « évolueront et se développeront au fil du temps ». Les fonctionnalités seront déployées dans le cadre d'iOS 15, dont la sortie est prévue le mois prochain. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société.

Le système, appelé neuralMatch, alertera de manière proactive une équipe d'examinateurs humains s'il pense que des images illégales sont détectées. Selon un article de Financial Times, qui a rapporté la nouvelle pour la première fois, les examinateurs humains contacteront ensuite les forces de l'ordre si le matériel peut être vérifié. Le système neuralMatch, qui a été formé à l'aide de 200 000 images du National Center for Missing & Exploited Children, sera d'abord déployé aux États-Unis, puis au reste du monde. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.

Selon les explications de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un « bon de sécurité » indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.

Une initiative qui a créé la division, même au sein des employés Apple. Matthew Green, professeur à l'université John Hopkins et cryptographe, a indiqué sur Twitter : « Ce genre d'outil peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens... Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire ».

En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.

Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.


Apple poursuit une entreprise qui permet d'inspecter son code

Dans une récente interview accordée au Wall Street Journal (WSJ), Apple a reconnu avoir mal géré la communication autour du programme. Craig Federighi, responsable des logiciels chez Apple, a déclaré qu'en prenant du recul, la société s'est rendu compte que l'introduction de deux fonctionnalités en même temps était « une recette pour ce genre de confusion ». « Nous aurions aimé que l'annonce soit un peu plus claire pour tout le monde », a déclaré Federighi. L'ingénieur a apporté plus de détails sur le choix d'Apple et a également annoncé que le projet était toujours en cours de développement et que des changements étaient à prévoir.

Face à la résistance du public, Apple a insisté sur le fait que sa technologie peut être vérifiée. « Les chercheurs en sécurité sont constamment en mesure d'introspecter ce qui se passe dans le logiciel [téléphonique] d'Apple », a déclaré Craig Federighi, vice-président d'Apple, dans une interview au Wall Street Journal. « Donc, si des changements étaient apportés pour étendre la portée d'une manière que nous nous étions engagés à ne pas faire, il y a une vérifiabilité, ils peuvent détecter ce qui se passe ».

Pourtant, Apple poursuit une entreprise qui propose des logiciels pour permettre aux chercheurs en sécurité de faire exactement cela.

En 2019, Apple a déposé une plainte contre Corellium, qui permet aux chercheurs en sécurité de tester facilement et à moindre coût les appareils mobiles en émulant leur logiciel plutôt que de les obliger à accéder aux appareils physiques. Le logiciel, qui émule également les appareils Android, peut être utilisé pour résoudre ces problèmes.

Dans la plainte, Apple a fait valoir que Corellium avait violé ses droits d'auteur, permis la vente de failles logicielles utilisées pour le piratage et qui ne devraient pas exister. La startup a répliqué en disant que son utilisation du code d'Apple était un cas classique protégé de fair usage. Le juge s'est largement rangé du côté de Corellium jusqu'à présent. Une partie de cette affaire vieille de deux ans a été réglée la semaine dernière, quelques jours après que l'actualité de la technologie CSAM de l'entreprise soit devenue publique.

L'annonce de Corellium

Lundi, Corellium a annoncé une subvention de 15 000 $ pour un programme qu'il promeut spécifiquement comme un moyen d'examiner les iPhones au microscope et de tenir Apple responsable :

« Aujourd'hui, en l'honneur du quatrième anniversaire de Corellium, nous annonçons l'Initiative de sécurité ouverte de Corellium. Cette initiative soutiendra la recherche publique indépendante sur la sécurité et la confidentialité des applications et appareils mobiles grâce à une série de prix et à l'accès à la plateforme Corellium. »

« Plus que tout autre domaine de l'informatique, la sécurité dépend de l'existence d'une communauté de chercheurs importante, diversifiée et non officielle. Alors que les avancées dans des domaines tels que la conception de matériel informatique émergent souvent de laboratoires privés bien financés, la majorité des progrès en matière de cybersécurité au cours des dernières décennies sont venus de la "communauté de la recherche en sécurité", une communauté qui comprend non seulement des universitaires et des professionnels accrédités, mais aussi des hackers ou des amateurs. »

« Mener des recherches par des tiers sur les appareils mobiles reste difficile, inefficace et coûteux. En particulier dans l'écosystème iOS, les tests nécessitent généralement un appareil physique jailbreaké. Les jailbreaks reposent sur des exploits complexes, et ils ne sont souvent pas fiables ou disponibles pour les derniers modèles d'appareils et versions de système d'exploitation. »

« Chez Corellium, nous reconnaissons le rôle essentiel que jouent les chercheurs indépendants dans la promotion de la sécurité et de la confidentialité des appareils mobiles. C'est pourquoi nous recherchons constamment des moyens de rendre les recherches de tiers sur les appareils mobiles plus faciles et plus accessibles, et c'est pourquoi nous lançons la Corellium Open Security Initiative. »

« En tant que premier pilote de ce programme, nous lancerons un appel à propositions sur un sujet spécifique. Au fil du temps, nous évaluerons l'ajout de plus de sujets et plus de possibilités de récompenses. Si vous êtes intéressé à parrainer ou à collaborer avec nous sur cette initiative, veuillez nous contacter. »

« La communauté des chercheurs en sécurité joue un rôle central non seulement dans l'identification et la défense contre les menaces de sécurité, mais aussi dans la responsabilisation des éditeurs de logiciels quant aux déclarations de sécurité et de confidentialité qu'ils font à propos de leurs produits. »

Plus loin, Corellium félicite Apple et encourage les autres entreprises technologiques à faire de même :

« Pas plus tard que la semaine dernière, Apple a annoncé qu'il commencerait à numériser les photos téléchargées dans le service iCloud d'Apple pour le matériel d'abus sexuel d'enfants (CSAM). Laissant de côté les débats sur les implications civiles et philosophiques de cette nouvelle fonctionnalité, Apple a fait plusieurs déclarations de confidentialité et de sécurité à propos de ce nouveau système. Ces revendications couvrent des sujets aussi divers que la technologie de hachage d'image, la conception cryptographique moderne, l'analyse de code et la mécanique interne et la conception de la sécurité d'iOS lui-même. Des erreurs dans n'importe quel composant de cette conception globale pourraient être utilisées pour subvertir le système dans son ensemble et, par conséquent, violer les attentes en matière de confidentialité et de sécurité des utilisateurs d'iPhone. »

« Depuis cette annonce initiale, Apple a encouragé la communauté indépendante de la recherche en sécurité à valider et vérifier ses allégations de sécurité. Comme l'a déclaré Craig Federighi, vice-président directeur de l'ingénierie logicielle d'Apple dans une interview au Wall Street Journal, "les chercheurs en sécurité sont constamment en mesure d'introspecter ce qui se passe dans le logiciel [téléphonique] d'Apple, donc si des changements étaient apportés qui devaient étendre la portée de cela dans d'une certaine manière - d'une manière que nous nous étions engagés à ne pas faire - il y a une vérifiabilité, ils peuvent repérer ce qui se passe". »

« Nous applaudissons l'engagement d'Apple à se tenir responsable vis-à-vis des chercheurs tiers. Nous pensons que notre plateforme est particulièrement capable de soutenir les chercheurs dans cet effort. Nos appareils virtuels "jailbreakés" n'utilisent aucun exploit et s'appuient plutôt sur notre technologie d'hyperviseur unique. Cela nous permet de fournir des appareils virtuels enracinés pour une analyse de sécurité dynamique presque dès la sortie d'une nouvelle version d'iOS. De plus, notre plateforme fournit des outils et des capacités qui ne sont pas facilement disponibles avec les appareils physiques. »

« Nous espérons que d'autres fournisseurs de logiciels mobiles suivront l'exemple d'Apple en promouvant la vérification indépendante des allégations de sécurité et de confidentialité. Pour encourager cette recherche importante, pour ce premier pilote de notre initiative de sécurité, nous accepterons des propositions de projets de recherche conçus pour valider toute revendication de sécurité et de confidentialité pour tout fournisseur de logiciel mobile, que ce soit dans le système d'exploitation ou des applications tierces. »

Le lendemain, c'est à dire mardi, Apple a déposé un recours pour poursuivre le procès.

Dans une interview avec MIT Technology Review, le directeur de l'exploitation de Corellium, Matt Tait, a déclaré que les commentaires de Federighi ne correspondent pas à la réalité : « C'est trop facile à dire pour Apple », a-t-il dit. «*iOS est conçu de manière à ce qu'il soit en fait très difficile pour les utilisateurs d'inspecter les services système*».

Il n'est pas le seul à contester la position défendue par Apple.

« Apple exagère la capacité d'un chercheur à examiner le système dans son ensemble », déclare David Thiel, directeur de la technologie à l'observatoire Internet de Stanford. Thiel, l'auteur d'un livre intitulé iOS Application Security, a tweeté que l'entreprise dépensait beaucoup pour empêcher la même chose qu'elle prétend être possible : « Apple a dépensé des sommes considérables spécifiquement pour empêcher cela et rendre de telles recherches difficiles. Ils sont allés jusqu'à poursuivre une entreprise qui a rendu les choses trop faciles. Ce pivot est totalement fallacieux. Si Apple veut s'appuyer sur la communauté de sécurité iOS comme vérification indépendante, il doit cesser de traiter cette communauté comme des ennemis et nous laisser déverrouiller et examiner correctement les appareils. »


Des bâtons dans les roues ?

Si vous voulez voir exactement comment fonctionne la nouvelle technologie complexe d'Apple, vous ne pouvez pas simplement regarder à l'intérieur du système d'exploitation de l'iPhone que vous venez d'acheter au magasin. L'approche de «*jardin clos*» de l'entreprise en matière de sécurité a permis de résoudre certains problèmes fondamentaux, mais cela signifie également que le téléphone est conçu pour empêcher les visiteurs d'entrer.

Les téléphones Android, quant à eux, sont fondamentalement différents. Alors que les iPhones sont connus pour être verrouillés, tout ce que vous avez à faire pour déverrouiller un Android est de brancher un périphérique USB, d'installer des outils de développement et d'obtenir l'accès root de haut niveau.

L'approche d'Apple signifie que les chercheurs sont laissés enfermés dans une bataille sans fin avec l'entreprise pour essayer d'obtenir le niveau de compréhension dont ils ont besoin.

Cependant, il existe plusieurs manières possibles pour Apple et les chercheurs en sécurité de vérifier qu'aucun gouvernement n'utilise à des fins de surveillance les nouvelles fonctionnalités de sécurité des enfants de l'entreprise : Apple pourrait remettre le code pour examen, même si ce n'est pas quelque chose qu'il a dit qu'il ferait. Les chercheurs peuvent également essayer de désosser la fonctionnalité de manière « statique », c'est-à-dire sans exécuter les programmes réels dans un environnement réel.

De manière réaliste, cependant, aucune de ces méthodes ne vous permet de regarder le code exécuté en direct sur un iPhone à jour pour voir comment il fonctionne réellement. Au lieu de cela, il faut avoir confiance non seulement dans le fait qu'Apple est ouvert et honnête, mais aussi dans le fait qu'il a écrit le code sans aucune erreur ou oubli significatif.

Une autre possibilité serait d'accorder l'accès au système aux membres du Security Research Device Program d'Apple afin de vérifier les déclarations de l'entreprise. Mais ce groupe, soutient Thiel, est composé de chercheurs extérieurs à Apple, est lié par tant de règles sur ce qu'ils peuvent dire ou faire que cela ne résout pas nécessairement le problème de la confiance.

Cela ne laisse vraiment que deux options. Premièrement, les hacker peuvent jailbreaker d'anciens iPhones à l'aide d'une vulnérabilité zero-day. C'est difficile et coûteux, et cela peut être bloqué par un correctif de sécurité. D'ailleurs Thiel rappelle qu'Apple a dépensé beaucoup d'argent pour essayer d'empêcher les gens de pouvoir jailbreaker des téléphones : « Ils ont spécifiquement embauché des personnes de la communauté de jailbreak pour rendre le jailbreak plus difficile. »

Ou un chercheur peut utiliser un iPhone virtuel qui peut désactiver les fonctions de sécurité d'Apple. En pratique, cela signifie faire appel à Corellium.

Il y a également des limites à ce que tout chercheur en sécurité pourra observer, mais si Apple scanne des choses au-delà des photos partagées sur iCloud, un chercheur pourrait être en mesure de le repérer.

Cependant, si quelque chose d'autre que du matériel d'abus d'enfants entre dans les bases de données, cela serait invisible pour les chercheurs. Pour répondre à cette question, Apple dit qu'il faudra que deux organisations distinctes de protection de l'enfance dans des juridictions distinctes aient la même image d'abus dans leurs propres bases de données. Mais l'entreprise a donné peu de détails sur la façon dont cela fonctionnerait, qui gérerait les bases de données, quelles juridictions seraient impliquées et quelles seraient les sources ultimes de la base de données.

Un véritable problème à résoudre

Thiel souligne que le problème qu'Apple essaie de résoudre est réel.

« Ce n'est pas une préoccupation théorique », dit-il à propos du matériel pédopornographique. « Ce n’est pas quelque chose que les gens invoquent simplement comme excuse pour mettre en place une surveillance. Il s'agit d'un problème réel qui est répandu et doit être abordé. La solution n'est pas de se débarrasser de ce genre de mécanismes .»

Mais, dit Tait de Corellium, Apple essaie d'être à la fois fermé et transparent.

« Apple essaie d'avoir son gâteau et de le manger aussi », explique Tait, un ancien spécialiste de la sécurité de l'information pour le service de renseignement britannique GCHQ. »

« Avec leur main gauche, ils rendent difficile le jailbreak et poursuivent des entreprises comme Corellium pour les empêcher d'exister. Avec leur main droite, ils disent : "Oh, nous avons construit ce système vraiment compliqué et il s'avère que certaines personnes ne croient pas qu'Apple l'a fait honnêtement, mais ce n'est pas grave parce que n'importe quel chercheur en sécurité peut aller de l'avant et le constater". »

Sources : Correlium, entretien avec Federighi, David Thiel, Washington Post

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 06/09/2021 à 7:22
La seule donnée privée, c'est celle qui n'est pas collectée.

Quand Apple prétend protéger la vie privée de ses utilisateurs au prétexte que les (nombreuses) informations collectées ne sont pas transmises à des tiers, c'est juste du bidon.
6  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 22/08/2022 à 10:54
j'espere que cet incident ouvrira les yeux aux gens.

google a de nombreux service gratuits qui sont tres bien fait et pour une bonne raisons.
une fois que vous ne pouvez plus vous en passer, il ya une sorte de chantage qui s'installe.

mais au dela de ca, il peut tout vous couper comme ca lui prends. c'est couvert dans les dispositions generales que
vous n'avez pas le choix de signer regulierement pour continuer a utiliser les services en question. (le fameux chantage dont je parlais)

Et comme pour les jeux et apps qui sont supprimés avec un messages abscons sans possibiltié de faire appel par le dev, ni contact de quoi que ce soit,
vous perdez d'un coup l'acces a tous les services google dont vous etes dependant d'une maniere ou d'une autre, donc tout vos mails, votre telephone android, et toute les autres services, comme google ads (que vous ayez des sous ou pas dedssus bien evidemment).

si vous etendez ca aux autres GAFAM, ca peut limite vous couper de la plupart des grand services mainstream d'internet.

Pour eviter ca, il ne faut pas mettre tout ces oeufs dans le meme panier, soit, commencer, a ce passer d'eux quand c'est possible.

Et c'est pas evident, mais necessaire. ce qui lui est arrivé peut vous arriver pour un motif encore plus light..
6  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 24/08/2022 à 16:42
Citation Envoyé par Patrick Ruiz Voir le message

Interdire le scannage automatique des communications privées ou le maintenir : de quel bord êtes-vous ?
Que rien ne peut justifier le scan de communications privées qui par définition relèvent de la vie privée.
Sur le fond c'est un scandale que Google les scanne et sur ce cas particulier c'est l'équivalent d'un mauvais fonctionnement que de les bloquer.

Citation Envoyé par Patrick Ruiz Voir le message

Quelles solutions techniques préconisez-vous dans le cas d’un maintien du scannage automatique des communications privées pour garantir un équilibre entre vie privée et sécurité ?
Aucune, on ne va pas voir ce qui relève du privé, point. La question ne peut se poser que pour les communications publiques ou là il y a par contre beaucoup à faire contre les manipulations, les harcèlements et bien d'autres choses
6  1 
Avatar de OldGhost
Membre à l'essai https://www.developpez.com
Le 25/08/2022 à 12:28
La situation interpelle d’autant plus que l’UE travaille ce que les tous les fournisseurs de services de courrier électronique, de chat et de messagerie fouillent dans les communications privées à la recherche de messages suspects de manière entièrement automatisée et à les transmettre à la police dans le cadre de la lutte contre la pédopornographie. La présentation d’un projet de loi y relatif s’est en principe faite au cours du mois de mai de l’année en cours.
En résumé, Bruxelles veut officialiser la capacité des fournisseurs américains à faire de l'espionnage industriel pour le compte des US et au détriment des pays européens, sous couvert de lutte contre la pédocriminalité.

Les réseaux organisés de pornographie infantile n'utilisent pas le courrier électronique ou les services de messagerie, mais les forums du darknet
Pas de chance ! Encore une mesure inutile par rapport à l'objectif annoncé, à croire que tout est fait pour aller vers une société de cyber-contrôle et d'espionnage de masse.
5  0 
Avatar de LeBreton56
Membre régulier https://www.developpez.com
Le 25/08/2022 à 16:32
je me demande comment des européens peuvent voter ce genre de surveillance et en même temps défendre la RGPD et la protection des identités
Il est inadmissible que des sociétés privées aient le pouvoir(et devoir apparemment) de fouiller dans notre vie privée alors qu' en générale la police ou la gendarmerie a besoins d'un mandat pour le faire.

je pense que nos politique sont tombés sur la tête et ne comprennent rien à l'informatique et au réseaux. a moins que des soit disant expert leur aient vendue la lune.

j'en pleure sur la patrie de la liberté égalité fraternité.
5  0 
Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 24/08/2021 à 11:51
Google via Gmail scanne votre boîte à lettre soit disant pour mieux vous cibler publicitairement parlant, Apple vis iCloud scanne la votre soit disant pour y trouver des fichiers compromettant...

En résumé fuyez les services US, vous y êtes super-hyper fichés ;-(

Les Eats Unis se moquent ouvertement du respect de la vie privée, il serait temps pour la vieille Europe de remettre l'église au centre du village et d'entreprendre des actions en justice à l'encontre de ce genre de pratiques, qui sont Dieu merci illégales chez nous.
4  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 24/08/2022 à 18:06
Quelles solutions techniques préconisez-vous dans le cas d’un maintien du scannage automatique des communications privées pour garantir un équilibre entre vie privée et sécurité ?
une solution : https://fr.wikipedia.org/wiki/Proton_Mail, mais limité ne version gratuite
autre solution ; Utilisation de client de messagerie prenant en charge OpenPGP, mais galère, il faut créer un jeu de clé publique/cl privée et le destinataire doit l'utiliser.

Quelle que soit la situation, ayez une sauvegarde offline de vos mails , et dans la mesure du possible, utilisez une adresse sur votre propre nom de domaine, vous pourrez ainsi changer d'hébergeur de mail à tout moment
4  0 
Avatar de tyrtamos
Expert éminent https://www.developpez.com
Le 25/08/2022 à 5:26
Bonjour. Il y a plusieurs choses choquantes dans cette information. C'est bien pour la société que Google (et Facebook, etc...) dispose d'une surveillance pour éviter les messages illégaux et dangereux, mais encore faut-il ne pas le faire n'importe comment. Dans le problème cité:
- comment une conversation et une photo communiquées dans le cadre d'une consultation médicale ont-elles pu être scannées? Il n'y a plus de secret médical?
- la police ayant vérifié et constaté qu'il n'y a rien de répréhensible, comment Google ose-t-il refuser de restaurer le compte annulé?

Un problème du même genre mais heureusement moins grave, vient de m'arriver avec Facebook. J'ai été interpelé méchamment par Facebook pour un message innocent concernant... le code de la route, comme quoi il "contrevenait aux règles de Facebook"! J'avais seulement émis des doutes sur le fait que certaines règles du code de la route allemand soit compatible avec la mentalité des français. J'ai bien sûr refusé le verdict, mais Facebook a maintenu sa position. J'ai encore protesté en m'expliquant , et Facebook ne me supprime pas en disant que "une erreur est toujours possible". Ils ont donc pris acte de ma 2ème protestation mais il ne l'ont pas lue puisqu'ils ne répondent pas sur le fond. Cette dernière décision était donc elle aussi automatique.

Il y a manifestement un algorithme qui repère les "mots interdits" sans tenir aucun compte du sens des phrases ni du contexte, et génère des sanctions automatiques.

Ce qui me choque, c'est que dans un cas aussi simple et aussi facile à défendre que le mien, je n'ai eu manifestement aucune personne physique intelligente pour répondre à mes protestations. Cela augure mal des suites: nous qui critiquions facilement le caractère aveugle de notre administration française, nous allons vers une époque où nous serons condamnés par un ordinateur pour de fausses raisons sans aucune possibilité de se défendre. Je fini par être content d'être vieux: je ne verrai pas la suite, mais nos enfants, eux, la verront et la subiront. Triste époque...
5  1 
Avatar de totozor
Membre expert https://www.developpez.com
Le 25/08/2022 à 8:34
Citation Envoyé par tyrtamos Voir le message
C'est bien pour la société que Google (et Facebook, etc...) dispose d'une surveillance pour éviter les messages illégaux et dangereux
Alors juste, non.
Il n'y a rien de bien là dedans.
Citation Envoyé par tyrtamos Voir le message
- la police ayant vérifié et constaté qu'il n'y a rien de répréhensible, comment Google ose-t-il refuser de restaurer le compte annulé?
J'ai une réponse simple et cynique : quand tu créés un compte, google t'informes que tout ce qui y est associé (mail, documents, etc) lui appartient et qu'y accéder et un service qu'il te rend.
Donc Google n'a même pas à restaurer le compte parce que ce n'est celui du père mais celui de google.
La seule chose à restaurer est l'accès à celui ci.

Oui, c'est choquant mais beaucoup ont signé pour ça plus ou moins consciemment.
Je suis dans le CA d'une association qui a un compte Gmail, et un google drive qui contient toutes nos données. J'ai suggéré que nous adoptions une alternative ou au minimum que nous ayons un back up. Leur réponse est simple : "tkt, ce genre de situation n'arrivera jamais."
Ils ont même été réticents quand je leur ai proposé de m'occuper de faire ce back up. Je ne comprends pas ce qui bloque autant les gens, je soupçonne qu'ils ont peur de se rendre compte que tout ceci c'est se rendre compte qu'ils ont mis une grande partie de leur sécurité (et potentiellement de leur entreprise) dans un colosse aux pieds d'argile.
5  1 
Avatar de totozor
Membre expert https://www.developpez.com
Le 22/08/2022 à 7:58
Citation Envoyé par Olivier Famien Voir le message
Quels commentaires faites-vous de cette affaire ?
Cette affaire ne me surprend pas vraiment, les GAFAM veulent éviter tout problème avec les autorités en dépensant le minimum donc soit il n'y a vraiment personne derrière l'analyse du recours soit ceux qui le font ont tout intérêt à rejeter le maximum de recours pour rester sous le radar des responsables en ayant un taux d'acceptation trop élevé. Donc enfant nu = refus, alors ne parlons même pas d'un pénis.
Ce qui me surprend le plus est que ce genre de détection prenne 2 jours. Que seul l'expéditeur à l'air d'être reporté alors que celui qui réceptionne devrait - a priori - être autant suspect. (Ce qui aurait pu leur montrer que c'est un échange entre un médecin et son patient - donc sous couverture de la confidentialité médicale, non?)
Citation Envoyé par Olivier Famien Voir le message
Selon vous, comment doit-on s’y prendre pour éviter d’éventuelles dérives comme ce fut le cas avec Mark et Cassio ?
Ma solution est simple : interdire ce genre d'analyse.
Elles sont nocives et peu efficace de base (1000eme rappel : la majorité de la pédophilie concerne des cas familiaux ou des amis proches).
Elles ont un risque de dérives vers des contrôles encore plus discutables.
3  0