cs_bobobo
Messages postés37Date d'inscriptionjeudi 20 mars 2003StatutMembreDernière intervention17 octobre 2012 21 févr. 2008 à 08:14
Salut kiki,
Merci beaucoup pour ce script.
Franchement continues comme ça.
Et hésites pas à nous faire par de tes mises à jours.
bon courage
kiki67100
Messages postés313Date d'inscriptionsamedi 6 mai 2006StatutMembreDernière intervention10 août 20131 8 févr. 2008 à 01:14
Merci pour ton commentaire,
VVV => Oui je vais le mettre plus facile d'accès avec un fichier :)
Pour l'include mail.php ,c'est le serveur qui l'inclu et non le client donc si je le mais au milieu ou a la fin aucune importance c'est que a la fin du script que le serveur envoye la page au client
Voilàà ++
cs_VVV
Messages postés40Date d'inscriptionmercredi 1 janvier 2003StatutMembreDernière intervention15 juin 2009 1 janv. 2008 à 16:11
L'idée de bannir des "mauvais" bots est très ingénieuse.
Je te félicite pour ce concept.
N'oublie pas cependant de modifier la fin de ton script : include ("mail.php"); ne fonctionnera pas puisque le script vient de bannir l'IP du bot ;-)
Il faut simplement le placer au début...
Autre amélioration qui je pense serait intéressante : prévoir deux listes : un fichier de mise à jour des bons et des mauvais bots.
Bravo, et bon courage :-)
cs_miss fafa
Messages postés46Date d'inscriptionmercredi 4 avril 2007StatutMembreDernière intervention25 février 2009 17 juil. 2007 à 17:53
bnjour,
moi aussi je ss debutante en php ,je trouve que ce script est vraiment geniale surtout pour un debutant ,mais vraiment je te felecite mon ami kiki
je te souhaite bonne continuation avec ce language et n'hesite pas de repondre à vous commentaire
merwanne
Messages postés8Date d'inscriptionmardi 20 mars 2007StatutMembreDernière intervention11 juillet 2007 17 mai 2007 à 02:38
bonjour,
je ne suis pas tres programmeur, mais le petit prodige qui a fait ce programme est mon ami, je suis fiere de lui.
j'espere qu'il va tres vite evoluer et devenir une reference, pkoi pas lol, allez bon courage KIKI.
kiki67100
Messages postés313Date d'inscriptionsamedi 6 mai 2006StatutMembreDernière intervention10 août 20131 27 févr. 2007 à 16:58
Voila jai completement revu mon script je vous rapelle que je suis un debutant alors cette nouvelle mise a jour et bien
kiki67100
Messages postés313Date d'inscriptionsamedi 6 mai 2006StatutMembreDernière intervention10 août 20131 26 févr. 2007 à 13:24
MERCI
je suis en train de travailler sur le script merci Neolien pour le if(strstr je vais faire passer les user agent avec le if
je vais bientot le mettre a jour
bersyl91
Messages postés1Date d'inscriptionlundi 22 août 2005StatutMembreDernière intervention 5 février 2007 5 févr. 2007 à 11:02
Le principe de ton script est intéressant.
Pour t'aider, je te propose de créer carrément un honeypot dans un sous-répertoire.
Ainsi, un simple Disallow dans robots.txt te permettra de faire le tri entre les "honnêtes" robots et les aspirateurs.
Dans ton répertoire, tu mets ta page avec le href.
Ce n'est pas une protection intégrale, bien sûr, mais c'est simple et d'assez bon goût, je trouve.
(Ah oui, $REMOTE_ADDR est obsolète, il vaut mieux utiliser désormais $_SERVER[REMOTE_ADDR]...)
neolien
Messages postés63Date d'inscriptionmardi 4 mai 2004StatutMembreDernière intervention 4 février 2007 4 févr. 2007 à 10:32
En fait on peut utiliser le USER AGENT qui donnerais une condition du style :
if(strstr($_SERVER['HTTP_USER_AGENT'], "Googlebot"))... mais certains robots des grands moteurs utilisent des ip différents et un user agent anonyme, donc le top serait de pourvoir passez par les ip, à ce propos voici un lien intéressant : http://www.actulab.com/identification-des-robots.php
coucou747
Messages postés12303Date d'inscriptionmardi 10 février 2004StatutMembreDernière intervention30 juillet 201244 2 févr. 2007 à 12:17
... le bot google laisse un HTTP_REFER différent des autres navigateurs internet... faut donc faire print_r($_SERVER); pour lire les informations serveurs, et voir avec googlebot ce que ça renvoi (j'ai pas ça en tête)
kiki67100
Messages postés313Date d'inscriptionsamedi 6 mai 2006StatutMembreDernière intervention10 août 20131 1 févr. 2007 à 17:01
Merci a tous pour vous commentaire
mais je debute en php et je ne sais pas ses quoi la commande if (!googlebot)) pourier vous me l'apprendre Merci
kiki67100
Messages postés313Date d'inscriptionsamedi 6 mai 2006StatutMembreDernière intervention10 août 20131 30 janv. 2007 à 18:27
oui je cherche la commande et je vais la mise a jour merci coucou747
coucou747
Messages postés12303Date d'inscriptionmardi 10 février 2004StatutMembreDernière intervention30 juillet 201244 30 janv. 2007 à 17:05
l'idée du lien vide est plutot bonne, seulement google sera aussi banni (faut un if (!googlebot)) idem pour les yahoobots, et msnbot...
ce genre de choses...
neolien
Messages postés63Date d'inscriptionmardi 4 mai 2004StatutMembreDernière intervention 4 février 2007 29 janv. 2007 à 15:11
Hy,
Tous a fair d'accord avec slaxswf, ce script est mal pensé car il nuit au référencement donc il n'intéressera aucun webmaster digne de ce nom !
Donne nous l'adresse du site qui est en production pour tester l'aspiration car tu as l'air bien sur de ton fait !
De plus dans le fichier robots.txt (et non pas robot.txt qui ne fonctionne pas), comme tu dois enlever <meta name="robots" content="nofollow">, comment prévoir que le robot va d'aborb scanner la page nolink.php avant les autres, parceque toutes celles lues avant seront aspirées !!
je ne mets pas de note pour l'instant en espérant que tu revois ta copie !
Bon courage car un script de ce genre efficace à 100% et qui ne nuit pas au référencement, c'est très coton !
slaxswf
Messages postés32Date d'inscriptionjeudi 28 décembre 2006StatutMembreDernière intervention20 mai 2007 28 janv. 2007 à 22:42
oki !
Pour ma part, le script ne fonctionne pas chez free et sur mon datacenter. L'aspirateur regarde tous les liens il vas tomber sur nolink.php => mais tu as oublié les robots comme pour ton nofollow. Car si google passe sur nolink.php, le robot d'indexation va le bannir.
En clair, ton script doit changer de procéder ;)
kiki67100
Messages postés313Date d'inscriptionsamedi 6 mai 2006StatutMembreDernière intervention10 août 20131 28 janv. 2007 à 20:37
oui ses vraix que je me suis tromper mais mon script bloque les aspirateur moi il marche tres bien sur mon site
car l'aspirateur regarde tous les liens il vas tomber sur nolink.php
et il va le bloquer via deny from ladresse ip
slaxswf
Messages postés32Date d'inscriptionjeudi 28 décembre 2006StatutMembreDernière intervention20 mai 2007 28 janv. 2007 à 16:09
Il faut revoir ton script.
1. <meta name="robots" content="nofollow"> =>> si je met çà, mon site n'est plus référençable ;
2. fopen() => Cette fonction n'est pas activée sur tout les serveurs web ;
3. Je ne vois pas ce qui empêche l'aspiration du site web après un test de ton script
21 févr. 2008 à 08:14
Merci beaucoup pour ce script.
Franchement continues comme ça.
Et hésites pas à nous faire par de tes mises à jours.
bon courage
8 févr. 2008 à 01:14
VVV => Oui je vais le mettre plus facile d'accès avec un fichier :)
Pour l'include mail.php ,c'est le serveur qui l'inclu et non le client donc si je le mais au milieu ou a la fin aucune importance c'est que a la fin du script que le serveur envoye la page au client
Voilàà ++
1 janv. 2008 à 16:11
Je te félicite pour ce concept.
N'oublie pas cependant de modifier la fin de ton script : include ("mail.php"); ne fonctionnera pas puisque le script vient de bannir l'IP du bot ;-)
Il faut simplement le placer au début...
Autre amélioration qui je pense serait intéressante : prévoir deux listes : un fichier de mise à jour des bons et des mauvais bots.
Bravo, et bon courage :-)
17 juil. 2007 à 17:53
moi aussi je ss debutante en php ,je trouve que ce script est vraiment geniale surtout pour un debutant ,mais vraiment je te felecite mon ami kiki
je te souhaite bonne continuation avec ce language et n'hesite pas de repondre à vous commentaire
17 mai 2007 à 02:38
je ne suis pas tres programmeur, mais le petit prodige qui a fait ce programme est mon ami, je suis fiere de lui.
j'espere qu'il va tres vite evoluer et devenir une reference, pkoi pas lol, allez bon courage KIKI.
27 févr. 2007 à 16:58
26 févr. 2007 à 13:24
je suis en train de travailler sur le script merci Neolien pour le if(strstr je vais faire passer les user agent avec le if
je vais bientot le mettre a jour
5 févr. 2007 à 11:02
Pour t'aider, je te propose de créer carrément un honeypot dans un sous-répertoire.
Ainsi, un simple Disallow dans robots.txt te permettra de faire le tri entre les "honnêtes" robots et les aspirateurs.
Dans ton répertoire, tu mets ta page avec le href.
Ce n'est pas une protection intégrale, bien sûr, mais c'est simple et d'assez bon goût, je trouve.
(Ah oui, $REMOTE_ADDR est obsolète, il vaut mieux utiliser désormais $_SERVER[REMOTE_ADDR]...)
4 févr. 2007 à 10:32
if(strstr($_SERVER['HTTP_USER_AGENT'], "Googlebot"))... mais certains robots des grands moteurs utilisent des ip différents et un user agent anonyme, donc le top serait de pourvoir passez par les ip, à ce propos voici un lien intéressant : http://www.actulab.com/identification-des-robots.php
2 févr. 2007 à 12:17
1 févr. 2007 à 17:01
mais je debute en php et je ne sais pas ses quoi la commande if (!googlebot)) pourier vous me l'apprendre Merci
30 janv. 2007 à 18:27
30 janv. 2007 à 17:05
ce genre de choses...
29 janv. 2007 à 15:11
Tous a fair d'accord avec slaxswf, ce script est mal pensé car il nuit au référencement donc il n'intéressera aucun webmaster digne de ce nom !
Donne nous l'adresse du site qui est en production pour tester l'aspiration car tu as l'air bien sur de ton fait !
De plus dans le fichier robots.txt (et non pas robot.txt qui ne fonctionne pas), comme tu dois enlever <meta name="robots" content="nofollow">, comment prévoir que le robot va d'aborb scanner la page nolink.php avant les autres, parceque toutes celles lues avant seront aspirées !!
je ne mets pas de note pour l'instant en espérant que tu revois ta copie !
Bon courage car un script de ce genre efficace à 100% et qui ne nuit pas au référencement, c'est très coton !
28 janv. 2007 à 22:42
Pour ma part, le script ne fonctionne pas chez free et sur mon datacenter. L'aspirateur regarde tous les liens il vas tomber sur nolink.php => mais tu as oublié les robots comme pour ton nofollow. Car si google passe sur nolink.php, le robot d'indexation va le bannir.
En clair, ton script doit changer de procéder ;)
28 janv. 2007 à 20:37
car l'aspirateur regarde tous les liens il vas tomber sur nolink.php
et il va le bloquer via deny from ladresse ip
28 janv. 2007 à 16:09
1. <meta name="robots" content="nofollow"> =>> si je met çà, mon site n'est plus référençable ;
2. fopen() => Cette fonction n'est pas activée sur tout les serveurs web ;
3. Je ne vois pas ce qui empêche l'aspiration du site web après un test de ton script
A revoir ;)