COMPRESSION GZIP / ZIP : UTILISATION DE ZLIB

cs_Thaeron Messages postés 202 Date d'inscription vendredi 6 juillet 2001 Statut Membre Dernière intervention 31 octobre 2007 - 19 janv. 2004 à 07:34
rompelstilchen Messages postés 14 Date d'inscription lundi 10 juillet 2006 Statut Membre Dernière intervention 27 juillet 2007 - 27 juil. 2007 à 18:01
Cette discussion concerne un article du site. Pour la consulter dans son contexte d'origine, cliquez sur le lien ci-dessous.

https://codes-sources.commentcamarche.net/source/19614-compression-gzip-zip-utilisation-de-zlib

rompelstilchen Messages postés 14 Date d'inscription lundi 10 juillet 2006 Statut Membre Dernière intervention 27 juillet 2007
27 juil. 2007 à 18:01
assertion failed a la fin sous XP avec VC6
ligne 38
Oeil_de_taupe Messages postés 150 Date d'inscription samedi 31 janvier 2004 Statut Membre Dernière intervention 16 février 2009
21 juil. 2006 à 23:10
J'extrapole mais j'ai trouvé ça sur Wikipedia: "Gzip est basé sur l'algorithme deflate, qui est une combinaison des algorithmes LZ77 et Huffman.".

LZ77 ==> Compression avec dictionnaire
Huffman ==> Codage de Huffman

Pour la compression dictionnaire, il faut des chaînes assez longues afin de retrouver des redondances (des bouts qui se ressemblent).
Pour le codage de Huffman il faut aussi intégrer le faite que il faut enregistrer "l'arbre binaire" dans les données pour CHAQUE bout de bloque.

En résumé tu peux séparer un gros fichier puis le compresser par la suite mais il est mieux d'utiliser des bloque suffisamment gros. Je ne sais pas quel taille il faudrait choisir pour avoir une bonne compression (comme si le fichier total était compressé en une fois). Tu pourrais faires des tests et nous le dire :P
cs_emilia123 Messages postés 122 Date d'inscription mercredi 19 décembre 2001 Statut Membre Dernière intervention 5 janvier 2009
20 janv. 2004 à 12:02
petite question: est ce que Gzip est aussi performant sur des grandes chaines (du types fichiers complets ex 1Mo) que sur des chaines plus petites (ex 1024 octets ou 2048 octets)?
exemple de situation: je lit un fichier .BMP de 1,5Mo par petits block(20ko) que je compresse et que j'envoi par socket par exemple ou par email(pour contourner la limitation de taille d'envoi). est ce que la taille des infos envoyées sera environ la meme que si je compresse le fichier complet et que je le découpe apres? (somme des tailles compressée de chaque block ?=? taille du fichier compressé)
voila une grave question existancielle que je me suis posé ce matin en sortant du lit sur le pied gauche au lieu du pied droit .
merci d'avance.
cs_DARKSIDIOUS Messages postés 15814 Date d'inscription jeudi 8 août 2002 Statut Membre Dernière intervention 4 mars 2013 130
19 janv. 2004 à 14:27
A ce que j'ai testé sur des images, des fichiers textes, et des bases de données Access, en effet, la compression Gzip s'avère un peu meilleure de quelques centaine de Ko selon la taille des données à compresser.

DarK Sidious
cs_Thaeron Messages postés 202 Date d'inscription vendredi 6 juillet 2001 Statut Membre Dernière intervention 31 octobre 2007
19 janv. 2004 à 07:34
salut, le Gzip est plus performant que la compression zip de winzip
Rejoignez-nous