DeAtHCrAsH
Messages postés2670Date d'inscriptionvendredi 25 janvier 2002StatutMembreDernière intervention 6 février 2013
-
22 févr. 2006 à 12:06
cs_JCDjcd
Messages postés1138Date d'inscriptionmardi 10 juin 2003StatutMembreDernière intervention25 janvier 2009
-
6 août 2006 à 19:48
Cette discussion concerne un article du site. Pour la consulter dans son contexte d'origine, cliquez sur le lien ci-dessous.
cs_JCDjcd
Messages postés1138Date d'inscriptionmardi 10 juin 2003StatutMembreDernière intervention25 janvier 20094 6 août 2006 à 19:48
c'est un peu osé de vouloir 2 mégas octets en pile, chez moi ca fait un stack overflow
TheWhiteShadow
Messages postés135Date d'inscriptionmercredi 15 janvier 2003StatutMembreDernière intervention 7 avril 2006 7 avril 2006 à 13:09
bah écoute le code marche impec compilé avec gcc (enfin j'ai testé sous linux) et c'est du C standard a priori. donc l'erreur doit venir de la compilation de cygwin (mauvais paramètres?), sinon installe gcc.
deimoslp
Messages postés12Date d'inscriptiondimanche 22 juin 2003StatutMembreDernière intervention12 juillet 2007 6 avril 2006 à 01:04
Après avoir compilé les sources sous cygwin, je lance une compression avec un fichier test (un tableau excel ):
./ghuf test.xls
Segmentation fault (core dumped)
Je réessaie encore et encore avec d'autres fichiers, mais toujours pareil ...
Cygwin incompatible ou programme buggé ?
J'ai pas encore regardé la source mais j'attends d'avoir un programme fonctionnel avant de m'y mettre...
CADRATURE
Messages postés25Date d'inscriptionmercredi 26 novembre 2003StatutMembreDernière intervention13 juin 2009 28 févr. 2006 à 09:47
CADRATURE
Messages postés25Date d'inscriptionmercredi 26 novembre 2003StatutMembreDernière intervention13 juin 2009 28 févr. 2006 à 08:44
Pour vecchio56 - l 'entropie ...
L'entropie, mesure le désordre d'un système.
Le système peut être un texte, un volume de gaz, un compartiment de train, l'information de la presse dans une société ...
Quand un journal sort sont édition dans les librairies, la quantité d'information disponible pour un individu augmente. La quantité de désordre augmente! Et en exagérant un peu: si trop de journaux parlent trop de la même chose, il devient très difficile de se faire une opinion. Le désordre est alors tellement grand, qu'il devient du "bruit". On utilisera alors les lois de la probabilité pour décrire des événements (comportement d'un volume de gaz, dans un compartiment de train etc...). L'usage des probabilités est un aveu d'impuissance à décrire par des équations un phénomène donné. Cet "aveu d'impuissance" est lui très bien quantifié par un intervalle de confiance.
Ces commentaires ne sont pas scientifiques. Mais c'est une "vision" de l'entropie.
Si je continue dans la même veine. Sur le plan de l'information accumulée, càd des souvenirs, l'entropie dans un cerveau d'un enfant est plus faible que l'entropie dans un cerveau d'une personne âgée. La personne de 60 ans a plus de souvenirs qu'un enfant de 6 ans. Pour un enfant de 6 ans, attendre 3 semaines avant d'aller en vacances c'est une éternité. Pour la personne de 60 ans ces 3 semaines passeront assez vite. Il me semble que le temps s'accélère quand l'entropie augmente avec le temps.
Ceci n'est pas scientifique et je n'ai pas les moyens d'en faire une démonstration mathématique. Mais tout ceci se rapporte bien à l'entropie.
vecchio56
Messages postés6535Date d'inscriptionlundi 16 décembre 2002StatutMembreDernière intervention22 août 201014 27 févr. 2006 à 23:39
L'entropie moi j'ai jamais compris ce que c'était. Je sais juste que dS>0 :)
victorcoasne
Messages postés1101Date d'inscriptionjeudi 24 avril 2003StatutMembreDernière intervention23 juillet 20237 25 févr. 2006 à 15:29
C'est normal que ça ne soit pas les mêmes définitions car ce ne sont jamais des traductions sur Wiki mais des personnes comme toi et moi qui complètent les définitions avec leurs propre mots et rare sont les gens qui prennent les textes anglais et les traduisent pour dire "j'ai fait un article sur Wiki".
Il n'y a pas de quoi se vanter de faire un article dessus (perso j'en ai déjà fait un) car on parge son savoir rien de plus !
DeAtHCrAsH
Messages postés2670Date d'inscriptionvendredi 25 janvier 2002StatutMembreDernière intervention 6 février 2013 22 févr. 2006 à 15:07
Clair,
Par contre il y a un truc bizarre. Selon la langue choisies, les exemples et définition sont différentes.
Essaye avec huffman tu verras. Ca a totalement rien a voir. La version francaise est mieux expliqué a mon gout que la version anglaise.
MuPuF
Messages postés536Date d'inscriptionmercredi 27 avril 2005StatutMembreDernière intervention22 août 2008 22 févr. 2006 à 13:56
DeAtHCrAsH : Tu va en decouvrir alors des choses dessus ;-) c'est exelent dans tout les domaines !
DeAtHCrAsH
Messages postés2670Date d'inscriptionvendredi 25 janvier 2002StatutMembreDernière intervention 6 février 2013 22 févr. 2006 à 12:06
Je ne connaissais pas Wikipédia, ni Cormen ^_^
Merci pour les infos, ca peux servir pour des idées d'algo, puis c'est plutot bien fait.
6 août 2006 à 19:48
7 avril 2006 à 13:09
6 avril 2006 à 01:04
./ghuf test.xls
Segmentation fault (core dumped)
Je réessaie encore et encore avec d'autres fichiers, mais toujours pareil ...
Cygwin incompatible ou programme buggé ?
J'ai pas encore regardé la source mais j'attends d'avoir un programme fonctionnel avant de m'y mettre...
28 févr. 2006 à 09:47
voir Formule de Gunning à l'adresse suivante
http://www.cybertribes.com/lisibilite.html
28 févr. 2006 à 08:44
L'entropie, mesure le désordre d'un système.
Le système peut être un texte, un volume de gaz, un compartiment de train, l'information de la presse dans une société ...
Quand un journal sort sont édition dans les librairies, la quantité d'information disponible pour un individu augmente. La quantité de désordre augmente! Et en exagérant un peu: si trop de journaux parlent trop de la même chose, il devient très difficile de se faire une opinion. Le désordre est alors tellement grand, qu'il devient du "bruit". On utilisera alors les lois de la probabilité pour décrire des événements (comportement d'un volume de gaz, dans un compartiment de train etc...). L'usage des probabilités est un aveu d'impuissance à décrire par des équations un phénomène donné. Cet "aveu d'impuissance" est lui très bien quantifié par un intervalle de confiance.
Ces commentaires ne sont pas scientifiques. Mais c'est une "vision" de l'entropie.
Si je continue dans la même veine. Sur le plan de l'information accumulée, càd des souvenirs, l'entropie dans un cerveau d'un enfant est plus faible que l'entropie dans un cerveau d'une personne âgée. La personne de 60 ans a plus de souvenirs qu'un enfant de 6 ans. Pour un enfant de 6 ans, attendre 3 semaines avant d'aller en vacances c'est une éternité. Pour la personne de 60 ans ces 3 semaines passeront assez vite. Il me semble que le temps s'accélère quand l'entropie augmente avec le temps.
Ceci n'est pas scientifique et je n'ai pas les moyens d'en faire une démonstration mathématique. Mais tout ceci se rapporte bien à l'entropie.
27 févr. 2006 à 23:39
25 févr. 2006 à 15:29
Il n'y a pas de quoi se vanter de faire un article dessus (perso j'en ai déjà fait un) car on parge son savoir rien de plus !
22 févr. 2006 à 15:07
Par contre il y a un truc bizarre. Selon la langue choisies, les exemples et définition sont différentes.
Essaye avec huffman tu verras. Ca a totalement rien a voir. La version francaise est mieux expliqué a mon gout que la version anglaise.
22 févr. 2006 à 13:56
22 févr. 2006 à 12:06
Merci pour les infos, ca peux servir pour des idées d'algo, puis c'est plutot bien fait.