LOG DES ROBOTS QUI PASSENT SUR LE SITE

_sHoCk_ Messages postés 6 Date d'inscription dimanche 19 novembre 2006 Statut Membre Dernière intervention 7 juillet 2007 - 7 juil. 2007 à 08:14
cs_VVV Messages postés 40 Date d'inscription mercredi 1 janvier 2003 Statut Membre Dernière intervention 15 juin 2009 - 11 nov. 2008 à 21:04
Cette discussion concerne un article du site. Pour la consulter dans son contexte d'origine, cliquez sur le lien ci-dessous.

https://codes-sources.commentcamarche.net/source/43368-log-des-robots-qui-passent-sur-le-site

cs_VVV Messages postés 40 Date d'inscription mercredi 1 janvier 2003 Statut Membre Dernière intervention 15 juin 2009
11 nov. 2008 à 21:04
Oui, bien sûr, alors il faut supprimer ce fichier (faire une copie) et le remplacer par le répertoire et ajouter le contenu du fichier robots.txt dans le fichier index.php juste après la commande ecrirelog(...

Exemple :
// Envoi au robot un fichier robots.txt ne servant à rien
echo 'User-Agent: *'."\n";
echo 'Disallow: /repertoire_a_ne_pas_auditer/'."\n";
echo 'Disallow: /galeriephotos/'."\n";
bishoponline Messages postés 8 Date d'inscription mercredi 25 avril 2007 Statut Membre Dernière intervention 11 novembre 2008
11 nov. 2008 à 20:15
Impossible de renommer un dossier en "robots.txt"

j'ai déjà un fichier "robots.txt" a la racine
cs_VVV Messages postés 40 Date d'inscription mercredi 1 janvier 2003 Statut Membre Dernière intervention 15 juin 2009
11 nov. 2008 à 20:07
Oui, simplement le placer absolument à la racine de ton site web (nulle part ailleurs).
En fait, il suffit de procéder comme ceci :
1. créer un nouveau dossier
2. le renommer en "robots.txt"
3. d'y placer les fichiers de la source !

And... that's all folks ;-)
bishoponline Messages postés 8 Date d'inscription mercredi 25 avril 2007 Statut Membre Dernière intervention 11 novembre 2008
11 nov. 2008 à 19:59
merci vvv

et donc on place ca dans un dossier et c'est tout ?
cs_VVV Messages postés 40 Date d'inscription mercredi 1 janvier 2003 Statut Membre Dernière intervention 15 juin 2009
11 nov. 2008 à 19:50
Tout est dans le titre en fait : logguer les robots qui défilent sur ton site.
En d'autre termes, obtenir un détail des robots qui passent pour auditer le site web, comme Google bot, Yahoo, mais aussi d'autres bien moins connus !
Ceci dit, tous les robots ne recherchent pas ce fameux fichier robots.txt sur le site qu'ils auditent. Donc, il est aussi utile d'auditer certaines pages clés (index bien sûr) avec un autre système.
Je trouve cette source utile et l'astuce très bien pensée... mais je me répète ;-)
bishoponline Messages postés 8 Date d'inscription mercredi 25 avril 2007 Statut Membre Dernière intervention 11 novembre 2008
11 nov. 2008 à 19:41
j'ai pas compris , ça sert a quoi exactement ?
PlayerMania Messages postés 95 Date d'inscription jeudi 22 avril 2004 Statut Membre Dernière intervention 28 avril 2009
29 déc. 2007 à 05:24
Et bah... fallait y penser à celle la...
Super idée etiennexxx9 !
CISUM Records Messages postés 7 Date d'inscription samedi 25 novembre 2000 Statut Membre Dernière intervention 8 décembre 2007
8 déc. 2007 à 20:46
Très maline cette astuce Bravo 10/10
masternico Messages postés 487 Date d'inscription dimanche 5 octobre 2003 Statut Membre Dernière intervention 1 septembre 2011
4 déc. 2007 à 18:10
Et pourquoi ne pas faire un simple "include('robot.txt')"?
niceman23 Messages postés 36 Date d'inscription vendredi 6 janvier 2006 Statut Membre Dernière intervention 27 février 2009
3 déc. 2007 à 06:21
le readile ne fonctionne pas , puis la technique de poulpix_fr non plus . Bien c'est pas trop clair non plus .

Pierre
etiennexxx9 Messages postés 27 Date d'inscription mardi 9 mars 2004 Statut Membre Dernière intervention 3 décembre 2007
3 déc. 2007 à 06:13
En fait, il te suffit de changer les lignes suivantes dans index.php:
echo 'User-Agent: *'."\n";
echo 'Disallow: ';

Par:
readfile('robots.txt');

Puis de mettre ton fichier robots.txt actuel dans le dossier nommé robots.txt

Si le readfile ne fonctionne pas, essaie avec la technique de poulpix_fr.

Etienne
niceman23 Messages postés 36 Date d'inscription vendredi 6 janvier 2006 Statut Membre Dernière intervention 27 février 2009
3 déc. 2007 à 05:13
Quand tu as un fichier robots.txt déja quesqui se passe je peux pas mettre le dossier robots.txt , pis éffacé le fichier robots.txt j'ai besoin de se fichier qui peux m'aidé svp ??? merci
cs_VVV Messages postés 40 Date d'inscription mercredi 1 janvier 2003 Statut Membre Dernière intervention 15 juin 2009
24 juil. 2007 à 12:02
Léger, astucieux et utile... j'adore : 10/10 !
djtobias Messages postés 25 Date d'inscription samedi 14 avril 2007 Statut Membre Dernière intervention 16 janvier 2008
22 juil. 2007 à 14:52
Tros cool ;)
Sa marche impec ;)
Optitech Messages postés 134 Date d'inscription samedi 19 octobre 2002 Statut Membre Dernière intervention 3 janvier 2009
17 juil. 2007 à 16:51
CodeSource sert à ca s'aider :)
cs_JLN Messages postés 371 Date d'inscription samedi 1 juin 2002 Statut Membre Dernière intervention 17 juin 2013
17 juil. 2007 à 16:45
Un grand merci à Etiennexxx9 et Optitech qui m'ont aidé mieux que je ne l'aurai espéré...

@+ JLN
Optitech Messages postés 134 Date d'inscription samedi 19 octobre 2002 Statut Membre Dernière intervention 3 janvier 2009
17 juil. 2007 à 14:00
Les symboles ^ et $ servent pour l'expression régulière :) Et le [L] signifie : ouvrire le fichier tonfichier.
phpl en ne laissant "rien" dans l'url :)

Pour en savoir plus sur les Rewrite URL : http://www.google.fr/
cs_JLN Messages postés 371 Date d'inscription samedi 1 juin 2002 Statut Membre Dernière intervention 17 juin 2013
17 juil. 2007 à 12:41
Merci Etiennexxx9 tu as éclairé ma lanterne et a y regarder le code de plus près ca me parrait beaucoup plus explicite... Juste une chose, les symbol ^ et [L] sont-ils obligatoire ? si oui que veulent-ils dire ? est-ce juste de la sintaxe ?

Merci beaucoup

@+ JLN
etiennexxx9 Messages postés 27 Date d'inscription mardi 9 mars 2004 Statut Membre Dernière intervention 3 décembre 2007
17 juil. 2007 à 05:14
@poulpix_fr => Une bonne idée si tu veux séparer le fichier robots.txt du script

@Chrigou => :O

@DarkM60 => J'y avais pensé au début, mais je ne suis pas très habitué à l'url rewriting.
"un robot un peu plus avancé peut la détecter" => Les robots les plus connus ne le font pas...

@JLN => L'url rewriting permet lors d'une requête au serveur de modifier le fichier qui sera envoyé au client.

@tous => Merci :)

Etienne
cs_JLN Messages postés 371 Date d'inscription samedi 1 juin 2002 Statut Membre Dernière intervention 17 juin 2013
16 juil. 2007 à 16:38
Je trouve l'idée vraiment géniale, ca c'est une vrai astuce... Je met 10 sans hésiter !

DarkM60 je ne suis pas un as du php et je ne comprend pas grand chose aux .httaccess pourrais-tu développer s'il te plait ? Merci

@+ JLN
DarkM60 Messages postés 37 Date d'inscription dimanche 15 mai 2005 Statut Membre Dernière intervention 21 septembre 2009
15 juil. 2007 à 16:26
Je trouve la solution de créer un répertoire un peu "système D", avec une règle d'url rewriting ça marcherait tout aussi bien, et en placant ton fichier php ou tu veux sur ton site...

Il suffirait juste de créer un .htaccess à la racine, contenant ceci :

Options +FollowSymlinks
RewriteEngine on
RewriteRule ^robots.txt$ /tonfichier.php [L]

Et c'est bon, et encore plus invisible, car ta méthode, un robot un peu plus avancé peut la détecter, or de l'url rewriting, c'est côté serveur.
cs_Chrigou Messages postés 30 Date d'inscription lundi 10 février 2003 Statut Membre Dernière intervention 27 juin 2008
11 juil. 2007 à 08:46
Tellement bien que je l'ai converti en ASP...
http://www.aspfr.com/code.aspx?ID=43414
Bravo Etienne !
masternico Messages postés 487 Date d'inscription dimanche 5 octobre 2003 Statut Membre Dernière intervention 1 septembre 2011
10 juil. 2007 à 20:39
Ca c'est une idée qu'elle est bonne
je donne 10/10
alex1025 Messages postés 104 Date d'inscription mardi 17 février 2004 Statut Membre Dernière intervention 8 décembre 2007
10 juil. 2007 à 15:18
Bravo !
10/10 pour l'astuce et la propreté du script.
poulpix_fr Messages postés 5 Date d'inscription mercredi 17 mai 2006 Statut Membre Dernière intervention 9 juillet 2007
9 juil. 2007 à 13:12
Bonjour ton petit code est pas mal,

Je les adapter a mon site avec deux petit modif pour moi :

$log = $i.' | '.$d.' | '.$h.' | '.$u."\r\n";

Jais rajouter \r car sinon sa ne retourner pas a la ligne cher moi.

Pui j'ais inclus mon fichier robots.txt en le renomment en bot.txt :

$file = fopen("bot.txt","r");
while(!feof($file))
{
$buffer = fgets($file, 4096);
echo $buffer."
";
}
fclose($file);

voila sa marche nikel pour le moment mci
Frank9321 Messages postés 56 Date d'inscription samedi 4 février 2006 Statut Membre Dernière intervention 12 janvier 2008
9 juil. 2007 à 09:30
Vraiment pas co**e ton astuce,

Bravo!
10/10.
Optitech Messages postés 134 Date d'inscription samedi 19 octobre 2002 Statut Membre Dernière intervention 3 janvier 2009
8 juil. 2007 à 11:20
code propre et commenté ! Actuce original mais qui devrait fonctionner sur la majorité des serveurs :)

Il me reste juste une chose à dire :

BRAVO :)
thepunisher713 Messages postés 5 Date d'inscription dimanche 14 novembre 2004 Statut Membre Dernière intervention 7 juillet 2007
7 juil. 2007 à 08:29
Beau travail étienne, si seulement jmy conaissait en php!! ^_^
_sHoCk_ Messages postés 6 Date d'inscription dimanche 19 novembre 2006 Statut Membre Dernière intervention 7 juillet 2007
7 juil. 2007 à 08:14
Je ne l'ai pas encore testé, mais c'est un bon astuce. gg ^^
Rejoignez-nous