Google vient de publier en open source le code d’un nouvel algorithme de compression.
Baptisé Zopfli, le nouveau programme de compression de Google offre un taux de compression jamais atteint, en réduisant la taille des fichiers de l’ordre de 3 à 8 % par rapport à ce que permet d'obtenir la compression maximale de zlib, la référence actuelle pour la compression des fichiers sur le Web.
Zopfli a été mis au point par Lode Vandevenne, ingénieur chez Google, pendant les 20 % de temps libre que Google accorde à chaque employé pour travailler sur des projets secondaires.
Le programme est écrit en C pour la portabilité et repose en grande partie sur l’algorithme de compression deflate. Ce qui suppose qu’il est compatible avec zlib et gzip.
La faiblesse de Zopfli réside au niveau du temps nécessaire pour compresser, qui serait de 81 fois supérieur à celui nécessaire pour effectuer une compression avec gzip. Il est donc recommandé de l’utiliser surtout pour la compression des contenus statiques. Le temps de décompression, par contre, reste similaire ou meilleur que celui des autres programmes.
Lode Vandevenne espère que ce nouvel algorithme open source rendra internet un peu plus rapide. Une taille de compression plus petite permet une meilleure utilisation de l'espace, une transmission des données plus rapide et des temps de chargement des pages Web plus rapides.
Télécharger le code source de Zopfli
Télécharger le PDF décrivant l'algorithme
Source : Blogs Google
Et vous ?
Que pensez-vous de ce nouvel algorithme de compression ? Allez-vous l'adopter ?
Google publie en open source Zopfli
Un algorithme de compression pour le Web plus performant
Google publie en open source Zopfli
Un algorithme de compression pour le Web plus performant
Le , par Hinault Romaric
Une erreur dans cette actualité ? Signalez-nous-la !