rompelstilchen
Messages postés14Date d'inscriptionlundi 10 juillet 2006StatutMembreDernière intervention27 juillet 2007 27 juil. 2007 à 18:01
assertion failed a la fin sous XP avec VC6
ligne 38
Oeil_de_taupe
Messages postés150Date d'inscriptionsamedi 31 janvier 2004StatutMembreDernière intervention16 février 2009 21 juil. 2006 à 23:10
J'extrapole mais j'ai trouvé ça sur Wikipedia: "Gzip est basé sur l'algorithme deflate, qui est une combinaison des algorithmes LZ77 et Huffman.".
LZ77 ==> Compression avec dictionnaire
Huffman ==> Codage de Huffman
Pour la compression dictionnaire, il faut des chaînes assez longues afin de retrouver des redondances (des bouts qui se ressemblent).
Pour le codage de Huffman il faut aussi intégrer le faite que il faut enregistrer "l'arbre binaire" dans les données pour CHAQUE bout de bloque.
En résumé tu peux séparer un gros fichier puis le compresser par la suite mais il est mieux d'utiliser des bloque suffisamment gros. Je ne sais pas quel taille il faudrait choisir pour avoir une bonne compression (comme si le fichier total était compressé en une fois). Tu pourrais faires des tests et nous le dire :P
cs_emilia123
Messages postés122Date d'inscriptionmercredi 19 décembre 2001StatutMembreDernière intervention 5 janvier 2009 20 janv. 2004 à 12:02
petite question: est ce que Gzip est aussi performant sur des grandes chaines (du types fichiers complets ex 1Mo) que sur des chaines plus petites (ex 1024 octets ou 2048 octets)?
exemple de situation: je lit un fichier .BMP de 1,5Mo par petits block(20ko) que je compresse et que j'envoi par socket par exemple ou par email(pour contourner la limitation de taille d'envoi). est ce que la taille des infos envoyées sera environ la meme que si je compresse le fichier complet et que je le découpe apres? (somme des tailles compressée de chaque block ?=? taille du fichier compressé)
voila une grave question existancielle que je me suis posé ce matin en sortant du lit sur le pied gauche au lieu du pied droit .
merci d'avance.
cs_DARKSIDIOUS
Messages postés15814Date d'inscriptionjeudi 8 août 2002StatutMembreDernière intervention 4 mars 2013130 19 janv. 2004 à 14:27
A ce que j'ai testé sur des images, des fichiers textes, et des bases de données Access, en effet, la compression Gzip s'avère un peu meilleure de quelques centaine de Ko selon la taille des données à compresser.
DarK Sidious
cs_Thaeron
Messages postés202Date d'inscriptionvendredi 6 juillet 2001StatutMembreDernière intervention31 octobre 2007 19 janv. 2004 à 07:34
salut, le Gzip est plus performant que la compression zip de winzip
27 juil. 2007 à 18:01
ligne 38
21 juil. 2006 à 23:10
LZ77 ==> Compression avec dictionnaire
Huffman ==> Codage de Huffman
Pour la compression dictionnaire, il faut des chaînes assez longues afin de retrouver des redondances (des bouts qui se ressemblent).
Pour le codage de Huffman il faut aussi intégrer le faite que il faut enregistrer "l'arbre binaire" dans les données pour CHAQUE bout de bloque.
En résumé tu peux séparer un gros fichier puis le compresser par la suite mais il est mieux d'utiliser des bloque suffisamment gros. Je ne sais pas quel taille il faudrait choisir pour avoir une bonne compression (comme si le fichier total était compressé en une fois). Tu pourrais faires des tests et nous le dire :P
20 janv. 2004 à 12:02
exemple de situation: je lit un fichier .BMP de 1,5Mo par petits block(20ko) que je compresse et que j'envoi par socket par exemple ou par email(pour contourner la limitation de taille d'envoi). est ce que la taille des infos envoyées sera environ la meme que si je compresse le fichier complet et que je le découpe apres? (somme des tailles compressée de chaque block ?=? taille du fichier compressé)
voila une grave question existancielle que je me suis posé ce matin en sortant du lit sur le pied gauche au lieu du pied droit .
merci d'avance.
19 janv. 2004 à 14:27
DarK Sidious
19 janv. 2004 à 07:34