ciberrique
Messages postés589Date d'inscriptionlundi 25 août 2003StatutMembreDernière intervention18 juillet 20101 21 févr. 2005 à 10:59
Oui, je pourais faire MD5 ou autre mais pas de tolérance, et pour ce qui est de la rapidité, je pourrais aussi utiliser les api pour récupéré et comparer les fichiers, je verrais.
Merci, pour vos commentaires.
cbnet
Messages postés176Date d'inscriptionvendredi 29 octobre 2004StatutMembreDernière intervention 7 mars 2005 21 févr. 2005 à 07:04
En utilisant une méthode de hashage comme le MD5, tu peux comparer 2 fichiers de grandes tailles en quelques secondes seulement... cependant avec cette méthode la tolérance est de 0.
Après pour ton code, ce n'est qu'une supposition mais je pense que la comparaison pourait être plus rapide si tu utilisais un string d'une taille limité (32 ou 64 caractères par ex ?) plutôt qu'un type byte. Voilà, c'est pour tenter d'améliorer tout ça. Mais sinon c'est bien. Bonne continuation.
Saros
Messages postés921Date d'inscriptionvendredi 20 décembre 2002StatutMembreDernière intervention23 septembre 2010 19 févr. 2005 à 14:07
C'est une recherche linéaire, donc logiquement ça fait 59 / 20,9 si on néglige l'initialisation, du moins sur le pc de l'auteur...
MadM@tt
Messages postés2167Date d'inscriptionmardi 11 novembre 2003StatutMembreDernière intervention16 juillet 20091 19 févr. 2005 à 02:07
Pour info, ça prend environ combien de temps un fichier d'un Mo (ou plutot 2 ;) ?
C'est juste histoire d'avoir un ordre de grandeur
21 févr. 2005 à 10:59
Merci, pour vos commentaires.
21 févr. 2005 à 07:04
Après pour ton code, ce n'est qu'une supposition mais je pense que la comparaison pourait être plus rapide si tu utilisais un string d'une taille limité (32 ou 64 caractères par ex ?) plutôt qu'un type byte. Voilà, c'est pour tenter d'améliorer tout ça. Mais sinon c'est bien. Bonne continuation.
19 févr. 2005 à 14:07
19 févr. 2005 à 02:07
C'est juste histoire d'avoir un ordre de grandeur