Comment récupérer toutes les URLs sur internet??

cs_supergrey Messages postés 475 Date d'inscription vendredi 27 juin 2003 Statut Membre Dernière intervention 20 septembre 2010 - 11 sept. 2004 à 09:58
coucou747 Messages postés 12303 Date d'inscription mardi 10 février 2004 Statut Membre Dernière intervention 30 juillet 2012 - 11 sept. 2004 à 10:18
Bonjour, je me sert d'internet download manager pour mes téléchargement, qui est capable de télécharger absolument tous les éléments des pages web (images, sons, vidéo...)
Le probleme c'est que lorsqu'il met le téléchargement d'un élément il empeche du meme coup son affichage sur la page web ce qui empèche, suivant les cas, la suite de laffichage de la page.

Donc j'aimerai faire un programme qui lit toutes les urls mais sans empecher laffichage des éléments ou pointes ces derniere.
De cette facon je pourrai télécharger, une fois la page "décortiquée", les élément qui m'interresse.

Merci!

1 réponse

coucou747 Messages postés 12303 Date d'inscription mardi 10 février 2004 Statut Membre Dernière intervention 30 juillet 2012 44
11 sept. 2004 à 10:18
commence par faire un client web qui ira copier les sources de la page dans une chaine de caractère (pointeur) ensuite tu fais une fonction recherhcer, qui cherhcera une chaine passée en argument, cette chaine sera fdonc src=" ou http: ou href=" t'as le choix...
0
Rejoignez-nous