luhtor
Messages postés2023Date d'inscriptionmardi 24 septembre 2002StatutMembreDernière intervention28 juillet 20086 7 oct. 2006 à 11:18
Pk t'as besoin d'ouvrir autant de fichier ? Ca m'étonnerait que windows accepte d'ouvrir autant de fichier.
SI tu veux absolument faire un truc comme ca, tu créés non pas 65536
fichiers, mais 65535 buffers. Et une fois terminé, tu ouvres les
fichiers un par un et tu les remplis avec le contenu du buffer
correspondant.
Mais c'est complètement dingue ton truc. Pk pas tout mettre dans le meme fichier ?
_sebf
Messages postés42Date d'inscriptionjeudi 1 avril 2004StatutMembreDernière intervention 7 octobre 2006 7 oct. 2006 à 12:17
J'ai trouvé la commande suivante _setmaxstdio qui permet d'ouvri jusqu'à 2048 fichiers. mais pas plus ;( Je l'ai essayé et ca fonctionne presque, il me limite à 2045 (3 de moins, je ne comprend pas pourquoi ?)
Pour quoi pas un fichier, parceque je veux écrire 100 giga de donnée et dans un fichier, les recherchez seront ....
L'idée des buffers est pas mal, mais ca va monter en mémoire beaucoup de data.
mezaya
Messages postés202Date d'inscriptiondimanche 18 mai 2003StatutMembreDernière intervention 6 mars 2010 7 oct. 2006 à 12:54
les 3 de moins viens de cout,cerr et clog qui sont gérer comme des fichiers. de toute façon il te faudra écrire les fichiers les uns après les autres. Tu n'y arrivera pas a écrire 100 Gigas simultanément.
luhtor
Messages postés2023Date d'inscriptionmardi 24 septembre 2002StatutMembreDernière intervention28 juillet 20086 7 oct. 2006 à 16:48
100go de données dans un fichier. Suffit d'avoir un index au début du
fichier. Mais c'est certain que faut pas avoir besoin de faire des
modifications. Mais de toute facon, c'est hors de question d'ouvrir
60000 fichiers simultanément.
Vous n’avez pas trouvé la réponse que vous recherchez ?