Google vient de développer et publier en open source un nouvel algorithme de compression optimisé pour le Web. Il y a deux ans de cela, la firme de Mountain View avait annoncé un premier algorithme open source baptisé Zopfli. Offrant une taille de compression plus petite, Zopfli a permis une meilleure utilisation de l'espace, une transmission plus rapide des données et des temps de chargement des pages Web plus courts.
Cet algorithme a reçu une réaction positive dans l'industrie et a été depuis lors « intégré dans de nombreuses solutions de compression, allant des optimiseurs PNG au prétraitement des contenus Web », explique Google. Toutefois, Zopfli présente une faiblesse qui réside au niveau du temps nécessaire pour compresser, qui serait de 81 fois supérieur à celui nécessaire pour effectuer une compression avec gzip. Même si son temps de décompression reste similaire ou meilleur que celui des autres programmes, pour la compression, il a été recommandé de l’utiliser dans le cas spécifique de contenus statiques.
« Basé sur son utilisation [de Zopfli] et d’autres besoins en matière de compression moderne, telle que la compression de polices Web », la firme de Mountain View a annoncé aujourd'hui qu’elle a développé et rendu open source un nouvel algorithme de compression de données sans perte baptisé Brotli.
Brotli est un format de données entièrement nouveau, qui permet d’obtenir des taux de compression de 20 à 26 % plus élevés que ceux de Zopfli. Notons qu’à son arrivée, Zopfli offrait un taux de compression jamais atteint, en réduisant la taille des fichiers de l’ordre de 3 à 8 % par rapport à ce que permettait d’obtenir la compression maximale de zlib, la référence actuelle pour la compression des fichiers sur le Web.
Dans une étude intitulée « Comparaison des algorithmes de compression Brotli, Deflate, Zopfli, LZMA, LZHAM et Bzip2 », Google met en évidence les performances de son nouvel algorithme. Les différents algorithmes de compression ont été comparés suivant trois critères, à savoir le taux de compression, la vitesse de compression, ainsi que la vitesse de décompression. Les comparaisons ont été effectuées sur le corpus de Canterbury - un benchmark pour permettre aux chercheurs d’évaluer les méthodes de compression sans perte – mais également sur un corpus ad hoc de contenu Web et sur enwik8.
L’étude montre que le nouvel algorithme Brotli est à peu près aussi rapide que l’algorithme Deflate de la bibliothèque de compression de données zlib. Jusqu’à présent, il se posait le problème d’un remplaçant de Deflate en termes de vitesse de compression. Zopfli, LZMA, LZHAM et de bzip2 utilisent beaucoup plus de temps CPU pour une compression ou une décompression et ne pouvaient donc pas toujours se positionner comme des remplaçants directs de Deflate, ce qui n’est pas le cas pour Brotli. Dans le même temps, le nouvel algorithme apporte un taux de compression plus élevé.
En espérant que Brotli soit rapidement pris en charge par les principaux navigateurs, Google met en évidence les avantages qui pourraient en découler pour les utilisateurs mobiles en particulier. En plus d’un Internet plus rapide, ces derniers pourront voir une baisse des frais supportés pour le transfert de données et une utilisation réduite de la batterie. Brotli est distribué sous la licence Apache, Version 2.0.
Sources : Google, GitHub
Et vous ?
Que pensez-vous de ce nouvel algorithme de compression pour Internet ?
Forum Général Conception Web
Google développe un nouvel algorithme de compression web open source
Aussi rapide que Deflate et bien plus performant
Google développe un nouvel algorithme de compression web open source
Aussi rapide que Deflate et bien plus performant
Le , par Michael Guilloux
Une erreur dans cette actualité ? Signalez-nous-la !