
Envoyé par
Stéphane le calme
Du côté des algorithmes de chiffrements modernes, une analyse a révélé qu'ils assument que ces sources d'informations sont parfaitement uniformes et qu'une combinaison de données binaires de 1 et 0 est parfaitement aléatoire et imprévisible.
En réalité, ce n'est pas totalement vrai ; une partie des fichiers peut être devinée et les octets ainsi trouvés pourront créer un passage au déchiffrement brutal.
Euh... Si je traduis en langage usuel, ça veut dire, grosso modo, que les mauvais générateurs de nombres aléatoires sont une faille de sécurité ?
Parce que, si c'est ça, alors ce n'est pas tellement une nouveauté, et il a toujours été clairement indiqué que le PRNG est un point particulièrement faible du dispositif.
EDIT 2: Finalement, après avoir survolé l'article, c'est visiblement simplement que, si tous les messages n'ont pas la même probabilité, on peut tenter de deviner des bouts d'information petit à petit. En gros, ça se résume, si j'ai bien compris, à étendre une analyse fréquentielle à des chiffrements qui sont plus riches que le simple chiffre de césar. Après, je parle un peu sans savoir, mais il me semble que ça reste assez invraisemblable à appliquer, et qu'il n'y a pas à craindre, pour le moment, quoi que ce soit pour les méthodes de chiffrement actuelles.
EDIT 4: Cette supposition de l'extension de l'analyse fréquentielle est supportée par l'article anglais :

Envoyé par
MIT
One implication is that an attacker who simply relied on the frequencies with which letters occur in English words could probably guess a user-selected password much more quickly than was previously thought.

Envoyé par
Stéphane le calme
« C'est toujours difficile, mais exponentiellement plus aisé que nous le pensions. »
Étant donné que la plupart des agorithmes de chiffrement (soyons vagues et ne donnons pas de nom, j'admets volontiers ne pas avoir le temps de lire les articles complets) se cryptanalysent en temps exponentiel, cette affirmation a trois sens possibles. Soit ils les cryptanalysent en temps polynomial, ce que j'aurais du mal à croire : la méthode de chiffrement serait cassée. Soit ils les cryptanalysent en temps exponentiel, avec une constante inférieure, et peuvent alors dire « exponentiellement plus aisé », car ils ont soustrait une exponentielle. Soit ils les cryptanalysent en temps exponentiel avec une constante sous l'exponentielle plus petite, ce qui me semble être le mieux qu'ils puissent faire sans déclencher un tollé monstre, et on a toujours de l'exponentielle, ce qui fait qu'avec la taille des clés, le gain est certes énorme mais probablement absolument pas suffisant pour déchiffrer en temps raisonnable.
EDIT 1: Finalement j'ai lu l'abstract, et c'est bien la troisième option qui semble être réalisée.
EDIT 3: La lecture de l'article anglais valide que c'est bien la troisième option, en disant explicitement que c'est toujours « exponentially hard ».

Envoyé par
Stéphane le calme

A la lumière de ces recherches, pensez-vous que les systèmes de chiffrement soient fondamentalement moins sécurisés ?
Je ne le pense pas. Principalement parce que le PEBKAC est la première source de faille cryptographique : il sera très souvent plus simple de molester l'utilisateur pour récupérer sa clé secrète que de casser le chiffrement.
EDIT 5: D'ailleurs, l'article anglais m'approuve :

Envoyé par
MIT
Bloch doubts that the failure of the uniformity assumption means that cryptographic systems in wide use today are fundamentally insecure. “My guess is that it will show that some of them are slightly less secure than we had hoped, but usually in the process, we’ll also figure out a way of patching them,”
Et il ne faut pas oublier que « slightly less secure » reste probablement plusieurs centaines de fois notre durée de vie -- voire plusieurs fois la durée de vie de l'espèce humaine. (statistiques de forum, mais c'est l'ordre de grandeur qui compte, et je crois sous-estimer)
1 |
0 |