atchoumen
Messages postés117Date d'inscriptionmercredi 24 novembre 2004StatutMembreDernière intervention17 avril 2008
-
28 juin 2006 à 19:18
coockiesch
Messages postés2268Date d'inscriptionmercredi 27 novembre 2002StatutMembreDernière intervention13 septembre 2013
-
28 juin 2006 à 20:49
Bonjour,
VOila une ptite kestion qui m'interresse pour un projet perso. Est il possible en entrant une URL de récuperer des informations de la page (du genre tout ce qui est dans les balise id="description") et apres de les intégrer dans une base de donnée ?
En faite je voudrais faire me faire une vidéothèque et plutot que de remplir tout mes champs j'ai trouvé un site qui reference tout les films existant, ce qui me permettrait de recupérer les info sur le site (gain de temps!!!!)
coockiesch
Messages postés2268Date d'inscriptionmercredi 27 novembre 2002StatutMembreDernière intervention13 septembre 20134 28 juin 2006 à 20:21
Salut!
Tu peux lire les pages HTML ( fopen ) et parser le tout ( strpos, substr, preg_match_all ), ...
Bien entendu, tu fais ça avec l'accord du webmaster du site qui a entré laborieusement toutes ces données dans sa bdd! :)
@++
R@f
www.allpotes.ch: Photos, humour, vidéos, gags, ...
"On dit que seulement 10 personnes au monde comprenaient Einstein. Personne ne me comprends. Suis-je un génie???"
coockiesch
Messages postés2268Date d'inscriptionmercredi 27 novembre 2002StatutMembreDernière intervention13 septembre 20134 28 juin 2006 à 20:49
Oki! :)
Donc:
fopen et fgets
Ensuite, une combinaison des fonctions que j'ai mentionnées...
Essaye de faire qqch et reviens si tu bloques! :)
@++
R@f
www.allpotes.ch: Photos, humour, vidéos, gags, ...
"On dit que seulement 10 personnes au monde comprenaient Einstein. Personne ne me comprends. Suis-je un génie???"