guepard53
Messages postés35Date d'inscriptionsamedi 16 août 2003StatutMembreDernière intervention23 février 2009
-
12 mai 2004 à 12:43
guepard53
Messages postés35Date d'inscriptionsamedi 16 août 2003StatutMembreDernière intervention23 février 2009
-
29 sept. 2005 à 14:22
Salut à tous ! :)
Je voudrais récupérer la source d'une page dont je donne l'URL en C sous Linux donc.
Avec la librairie 'urlmon.h' sous windows, j'y arrive avec les commandes 'internetOpen, InternetOpenUrl, ...'.
Existe-t'il des commandes similaires sous linux ?
J'ai lu que je pouvais aussi passer par des sockets aussi mais je ne sais pas les utiliser...
MetalDwarf
Messages postés241Date d'inscriptionmardi 29 octobre 2002StatutMembreDernière intervention23 janvier 2006 12 mai 2004 à 18:09
Pour recuperer simplement la source d une page web, il y a 36000 solutions sous Linux... Tu peux utiliser un programme externe en ligne de commande par exemple mais le plus simple et le plus rapide est sans doute libcurl
guepard53
Messages postés35Date d'inscriptionsamedi 16 août 2003StatutMembreDernière intervention23 février 2009 12 mai 2004 à 19:21
Oui, c'est ce qu'on m'a dit ailleurs aussi. J'ai essayé mais j'ai des erreurs à la compilation comme quoi il reconnaît pas curl_easy_init(), curl_easy_setopt(), ... mais il reconnait bien la librairie curl.h car il ne met pas d'erreur pour la déclaration de CURL *curl et CURLcode res...
Je ne suis pas un spécialiste linux (loin de là ;-p), keske j'ai fait comme bétise ?
guepard53
Messages postés35Date d'inscriptionsamedi 16 août 2003StatutMembreDernière intervention23 février 2009 29 sept. 2005 à 12:54
C'est un page que tu dois donner :
J'ai trouvé ça comme exemple : (en gros, tu devrais pouvoir faire wxString page; page.Append(res, strlen(res)); WxMemo1->AppendText(page); A tester... )