cs_kjus
Messages postés269Date d'inscriptionmercredi 24 avril 2002StatutMembreDernière intervention 9 juin 2003
-
7 août 2002 à 14:58
cs_Azar
Messages postés9Date d'inscriptionlundi 20 mai 2002StatutMembreDernière intervention27 septembre 2003
-
26 janv. 2003 à 00:20
Cette discussion concerne un article du site. Pour la consulter dans son contexte d'origine, cliquez sur le lien ci-dessous.
cs_Azar
Messages postés9Date d'inscriptionlundi 20 mai 2002StatutMembreDernière intervention27 septembre 2003 26 janv. 2003 à 00:20
Pour optimiser ton prog tu peux :
* remplacer les laVar++ par des ++laVar
* transformer max, min en macros
* limiter les controles lors de la compression, quite à faire une seconde passe de contrôle après une première de compression
* restreindre les entrés/sorties en stockant tout en mémoire (heu là faut voir)
* transformer ton dico en AVL, ou déja eb ABR
bruno3006
Messages postés4Date d'inscriptionlundi 5 août 2002StatutMembreDernière intervention 7 août 2002 7 août 2002 à 16:28
Je n'ai pas encore fait de routine de décompression, mais ca ne saurai tarder..
Je serai fixé sur son (bon?) fonctionnement...
Ok pour les utilitaires de profilage, je ne savais pas que cela existait, merci du
conseil, ca pourra m'ètre utile car j'ai l'impression que certaines routines
bouffent plus de temps que prévu...
Si jamais tu sais ou je peux trouver ces progs...
Le problème de temps vient en (grosse) partie du fait que le dictionnaire est
parcouru en entier afin de trouver la + grande redondance.
Pour améliorer un peu, il faudrai arréter la recherche dès qu'une
suite de données en double trouvée soit suffisament grande, pour que sa
compression soit considérée comme 'rentable'.
...un peu d'ASM ca ferai du bien aussi....
cs_kjus
Messages postés269Date d'inscriptionmercredi 24 avril 2002StatutMembreDernière intervention 9 juin 2003 7 août 2002 à 14:58
t'a essayé de décompresser ce que tu compresses avec ton prog ?
pour optimiser tu as des utilitaires de profilage sous linux (te permettant de voir quelles fonctions prennent le plus de temps, etc..)
26 janv. 2003 à 00:20
* remplacer les laVar++ par des ++laVar
* transformer max, min en macros
* limiter les controles lors de la compression, quite à faire une seconde passe de contrôle après une première de compression
* restreindre les entrés/sorties en stockant tout en mémoire (heu là faut voir)
* transformer ton dico en AVL, ou déja eb ABR
7 août 2002 à 16:28
Je serai fixé sur son (bon?) fonctionnement...
Ok pour les utilitaires de profilage, je ne savais pas que cela existait, merci du
conseil, ca pourra m'ètre utile car j'ai l'impression que certaines routines
bouffent plus de temps que prévu...
Si jamais tu sais ou je peux trouver ces progs...
Le problème de temps vient en (grosse) partie du fait que le dictionnaire est
parcouru en entier afin de trouver la + grande redondance.
Pour améliorer un peu, il faudrai arréter la recherche dès qu'une
suite de données en double trouvée soit suffisament grande, pour que sa
compression soit considérée comme 'rentable'.
...un peu d'ASM ca ferai du bien aussi....
7 août 2002 à 14:58
pour optimiser tu as des utilitaires de profilage sous linux (te permettant de voir quelles fonctions prennent le plus de temps, etc..)