cs_VVV
Messages postés40Date d'inscriptionmercredi 1 janvier 2003StatutMembreDernière intervention15 juin 2009 11 nov. 2008 à 21:04
Oui, bien sûr, alors il faut supprimer ce fichier (faire une copie) et le remplacer par le répertoire et ajouter le contenu du fichier robots.txt dans le fichier index.php juste après la commande ecrirelog(...
Exemple :
// Envoi au robot un fichier robots.txt ne servant à rien
echo 'User-Agent: *'."\n";
echo 'Disallow: /repertoire_a_ne_pas_auditer/'."\n";
echo 'Disallow: /galeriephotos/'."\n";
bishoponline
Messages postés8Date d'inscriptionmercredi 25 avril 2007StatutMembreDernière intervention11 novembre 2008 11 nov. 2008 à 20:15
Impossible de renommer un dossier en "robots.txt"
j'ai déjà un fichier "robots.txt" a la racine
cs_VVV
Messages postés40Date d'inscriptionmercredi 1 janvier 2003StatutMembreDernière intervention15 juin 2009 11 nov. 2008 à 20:07
Oui, simplement le placer absolument à la racine de ton site web (nulle part ailleurs).
En fait, il suffit de procéder comme ceci :
1. créer un nouveau dossier
2. le renommer en "robots.txt"
3. d'y placer les fichiers de la source !
And... that's all folks ;-)
bishoponline
Messages postés8Date d'inscriptionmercredi 25 avril 2007StatutMembreDernière intervention11 novembre 2008 11 nov. 2008 à 19:59
merci vvv
et donc on place ca dans un dossier et c'est tout ?
cs_VVV
Messages postés40Date d'inscriptionmercredi 1 janvier 2003StatutMembreDernière intervention15 juin 2009 11 nov. 2008 à 19:50
Tout est dans le titre en fait : logguer les robots qui défilent sur ton site.
En d'autre termes, obtenir un détail des robots qui passent pour auditer le site web, comme Google bot, Yahoo, mais aussi d'autres bien moins connus !
Ceci dit, tous les robots ne recherchent pas ce fameux fichier robots.txt sur le site qu'ils auditent. Donc, il est aussi utile d'auditer certaines pages clés (index bien sûr) avec un autre système.
Je trouve cette source utile et l'astuce très bien pensée... mais je me répète ;-)
bishoponline
Messages postés8Date d'inscriptionmercredi 25 avril 2007StatutMembreDernière intervention11 novembre 2008 11 nov. 2008 à 19:41
j'ai pas compris , ça sert a quoi exactement ?
PlayerMania
Messages postés95Date d'inscriptionjeudi 22 avril 2004StatutMembreDernière intervention28 avril 2009 29 déc. 2007 à 05:24
Et bah... fallait y penser à celle la...
Super idée etiennexxx9 !
CISUM Records
Messages postés7Date d'inscriptionsamedi 25 novembre 2000StatutMembreDernière intervention 8 décembre 2007 8 déc. 2007 à 20:46
Très maline cette astuce Bravo 10/10
masternico
Messages postés487Date d'inscriptiondimanche 5 octobre 2003StatutMembreDernière intervention 1 septembre 2011 4 déc. 2007 à 18:10
Et pourquoi ne pas faire un simple "include('robot.txt')"?
niceman23
Messages postés36Date d'inscriptionvendredi 6 janvier 2006StatutMembreDernière intervention27 février 2009 3 déc. 2007 à 06:21
le readile ne fonctionne pas , puis la technique de poulpix_fr non plus . Bien c'est pas trop clair non plus .
Pierre
etiennexxx9
Messages postés27Date d'inscriptionmardi 9 mars 2004StatutMembreDernière intervention 3 décembre 2007 3 déc. 2007 à 06:13
En fait, il te suffit de changer les lignes suivantes dans index.php:
echo 'User-Agent: *'."\n";
echo 'Disallow: ';
Par:
readfile('robots.txt');
Puis de mettre ton fichier robots.txt actuel dans le dossier nommé robots.txt
Si le readfile ne fonctionne pas, essaie avec la technique de poulpix_fr.
Etienne
niceman23
Messages postés36Date d'inscriptionvendredi 6 janvier 2006StatutMembreDernière intervention27 février 2009 3 déc. 2007 à 05:13
Quand tu as un fichier robots.txt déja quesqui se passe je peux pas mettre le dossier robots.txt , pis éffacé le fichier robots.txt j'ai besoin de se fichier qui peux m'aidé svp ??? merci
cs_VVV
Messages postés40Date d'inscriptionmercredi 1 janvier 2003StatutMembreDernière intervention15 juin 2009 24 juil. 2007 à 12:02
Léger, astucieux et utile... j'adore : 10/10 !
djtobias
Messages postés25Date d'inscriptionsamedi 14 avril 2007StatutMembreDernière intervention16 janvier 2008 22 juil. 2007 à 14:52
Tros cool ;)
Sa marche impec ;)
Optitech
Messages postés134Date d'inscriptionsamedi 19 octobre 2002StatutMembreDernière intervention 3 janvier 2009 17 juil. 2007 à 16:51
CodeSource sert à ca s'aider :)
cs_JLN
Messages postés371Date d'inscriptionsamedi 1 juin 2002StatutMembreDernière intervention17 juin 2013 17 juil. 2007 à 16:45
Un grand merci à Etiennexxx9 et Optitech qui m'ont aidé mieux que je ne l'aurai espéré...
@+ JLN
Optitech
Messages postés134Date d'inscriptionsamedi 19 octobre 2002StatutMembreDernière intervention 3 janvier 2009 17 juil. 2007 à 14:00
Les symboles ^ et $ servent pour l'expression régulière :) Et le [L] signifie : ouvrire le fichier tonfichier.
phpl en ne laissant "rien" dans l'url :)
cs_JLN
Messages postés371Date d'inscriptionsamedi 1 juin 2002StatutMembreDernière intervention17 juin 2013 17 juil. 2007 à 12:41
Merci Etiennexxx9 tu as éclairé ma lanterne et a y regarder le code de plus près ca me parrait beaucoup plus explicite... Juste une chose, les symbol ^ et [L] sont-ils obligatoire ? si oui que veulent-ils dire ? est-ce juste de la sintaxe ?
Merci beaucoup
@+ JLN
etiennexxx9
Messages postés27Date d'inscriptionmardi 9 mars 2004StatutMembreDernière intervention 3 décembre 2007 17 juil. 2007 à 05:14
@poulpix_fr => Une bonne idée si tu veux séparer le fichier robots.txt du script
@Chrigou => :O
@DarkM60 => J'y avais pensé au début, mais je ne suis pas très habitué à l'url rewriting.
"un robot un peu plus avancé peut la détecter" => Les robots les plus connus ne le font pas...
@JLN => L'url rewriting permet lors d'une requête au serveur de modifier le fichier qui sera envoyé au client.
@tous => Merci :)
Etienne
cs_JLN
Messages postés371Date d'inscriptionsamedi 1 juin 2002StatutMembreDernière intervention17 juin 2013 16 juil. 2007 à 16:38
Je trouve l'idée vraiment géniale, ca c'est une vrai astuce... Je met 10 sans hésiter !
DarkM60 je ne suis pas un as du php et je ne comprend pas grand chose aux .httaccess pourrais-tu développer s'il te plait ? Merci
@+ JLN
DarkM60
Messages postés37Date d'inscriptiondimanche 15 mai 2005StatutMembreDernière intervention21 septembre 2009 15 juil. 2007 à 16:26
Je trouve la solution de créer un répertoire un peu "système D", avec une règle d'url rewriting ça marcherait tout aussi bien, et en placant ton fichier php ou tu veux sur ton site...
Il suffirait juste de créer un .htaccess à la racine, contenant ceci :
Options +FollowSymlinks
RewriteEngine on
RewriteRule ^robots.txt$ /tonfichier.php [L]
Et c'est bon, et encore plus invisible, car ta méthode, un robot un peu plus avancé peut la détecter, or de l'url rewriting, c'est côté serveur.
cs_Chrigou
Messages postés30Date d'inscriptionlundi 10 février 2003StatutMembreDernière intervention27 juin 2008 11 juil. 2007 à 08:46
11 nov. 2008 à 21:04
Exemple :
// Envoi au robot un fichier robots.txt ne servant à rien
echo 'User-Agent: *'."\n";
echo 'Disallow: /repertoire_a_ne_pas_auditer/'."\n";
echo 'Disallow: /galeriephotos/'."\n";
11 nov. 2008 à 20:15
j'ai déjà un fichier "robots.txt" a la racine
11 nov. 2008 à 20:07
En fait, il suffit de procéder comme ceci :
1. créer un nouveau dossier
2. le renommer en "robots.txt"
3. d'y placer les fichiers de la source !
And... that's all folks ;-)
11 nov. 2008 à 19:59
et donc on place ca dans un dossier et c'est tout ?
11 nov. 2008 à 19:50
En d'autre termes, obtenir un détail des robots qui passent pour auditer le site web, comme Google bot, Yahoo, mais aussi d'autres bien moins connus !
Ceci dit, tous les robots ne recherchent pas ce fameux fichier robots.txt sur le site qu'ils auditent. Donc, il est aussi utile d'auditer certaines pages clés (index bien sûr) avec un autre système.
Je trouve cette source utile et l'astuce très bien pensée... mais je me répète ;-)
11 nov. 2008 à 19:41
29 déc. 2007 à 05:24
Super idée etiennexxx9 !
8 déc. 2007 à 20:46
4 déc. 2007 à 18:10
3 déc. 2007 à 06:21
Pierre
3 déc. 2007 à 06:13
echo 'User-Agent: *'."\n";
echo 'Disallow: ';
Par:
readfile('robots.txt');
Puis de mettre ton fichier robots.txt actuel dans le dossier nommé robots.txt
Si le readfile ne fonctionne pas, essaie avec la technique de poulpix_fr.
Etienne
3 déc. 2007 à 05:13
24 juil. 2007 à 12:02
22 juil. 2007 à 14:52
Sa marche impec ;)
17 juil. 2007 à 16:51
17 juil. 2007 à 16:45
@+ JLN
17 juil. 2007 à 14:00
phpl en ne laissant "rien" dans l'url :)
Pour en savoir plus sur les Rewrite URL : http://www.google.fr/
17 juil. 2007 à 12:41
Merci beaucoup
@+ JLN
17 juil. 2007 à 05:14
@Chrigou => :O
@DarkM60 => J'y avais pensé au début, mais je ne suis pas très habitué à l'url rewriting.
"un robot un peu plus avancé peut la détecter" => Les robots les plus connus ne le font pas...
@JLN => L'url rewriting permet lors d'une requête au serveur de modifier le fichier qui sera envoyé au client.
@tous => Merci :)
Etienne
16 juil. 2007 à 16:38
DarkM60 je ne suis pas un as du php et je ne comprend pas grand chose aux .httaccess pourrais-tu développer s'il te plait ? Merci
@+ JLN
15 juil. 2007 à 16:26
Il suffirait juste de créer un .htaccess à la racine, contenant ceci :
Options +FollowSymlinks
RewriteEngine on
RewriteRule ^robots.txt$ /tonfichier.php [L]
Et c'est bon, et encore plus invisible, car ta méthode, un robot un peu plus avancé peut la détecter, or de l'url rewriting, c'est côté serveur.
11 juil. 2007 à 08:46
http://www.aspfr.com/code.aspx?ID=43414
Bravo Etienne !
10 juil. 2007 à 20:39
je donne 10/10
10 juil. 2007 à 15:18
10/10 pour l'astuce et la propreté du script.
9 juil. 2007 à 13:12
Je les adapter a mon site avec deux petit modif pour moi :
$log = $i.' | '.$d.' | '.$h.' | '.$u."\r\n";
Jais rajouter \r car sinon sa ne retourner pas a la ligne cher moi.
Pui j'ais inclus mon fichier robots.txt en le renomment en bot.txt :
$file = fopen("bot.txt","r");
while(!feof($file))
{
$buffer = fgets($file, 4096);
echo $buffer."
";
}
fclose($file);
voila sa marche nikel pour le moment mci
9 juil. 2007 à 09:30
Bravo!
10/10.
8 juil. 2007 à 11:20
Il me reste juste une chose à dire :
BRAVO :)
7 juil. 2007 à 08:29
7 juil. 2007 à 08:14