SCRIPT ANTI ASPIRATEUR SANS BDD

slaxswf Messages postés 32 Date d'inscription jeudi 28 décembre 2006 Statut Membre Dernière intervention 20 mai 2007 - 28 janv. 2007 à 16:09
cs_bobobo Messages postés 37 Date d'inscription jeudi 20 mars 2003 Statut Membre Dernière intervention 17 octobre 2012 - 21 févr. 2008 à 08:14
Cette discussion concerne un article du site. Pour la consulter dans son contexte d'origine, cliquez sur le lien ci-dessous.

https://codes-sources.commentcamarche.net/source/41297-script-anti-aspirateur-sans-bdd

cs_bobobo Messages postés 37 Date d'inscription jeudi 20 mars 2003 Statut Membre Dernière intervention 17 octobre 2012
21 févr. 2008 à 08:14
Salut kiki,

Merci beaucoup pour ce script.
Franchement continues comme ça.
Et hésites pas à nous faire par de tes mises à jours.
bon courage
kiki67100 Messages postés 313 Date d'inscription samedi 6 mai 2006 Statut Membre Dernière intervention 10 août 2013 1
8 févr. 2008 à 01:14
Merci pour ton commentaire,

VVV => Oui je vais le mettre plus facile d'accès avec un fichier :)

Pour l'include mail.php ,c'est le serveur qui l'inclu et non le client donc si je le mais au milieu ou a la fin aucune importance c'est que a la fin du script que le serveur envoye la page au client

Voilàà ++
cs_VVV Messages postés 40 Date d'inscription mercredi 1 janvier 2003 Statut Membre Dernière intervention 15 juin 2009
1 janv. 2008 à 16:11
L'idée de bannir des "mauvais" bots est très ingénieuse.
Je te félicite pour ce concept.
N'oublie pas cependant de modifier la fin de ton script : include ("mail.php"); ne fonctionnera pas puisque le script vient de bannir l'IP du bot ;-)
Il faut simplement le placer au début...

Autre amélioration qui je pense serait intéressante : prévoir deux listes : un fichier de mise à jour des bons et des mauvais bots.

Bravo, et bon courage :-)
cs_miss fafa Messages postés 46 Date d'inscription mercredi 4 avril 2007 Statut Membre Dernière intervention 25 février 2009
17 juil. 2007 à 17:53
bnjour,
moi aussi je ss debutante en php ,je trouve que ce script est vraiment geniale surtout pour un debutant ,mais vraiment je te felecite mon ami kiki
je te souhaite bonne continuation avec ce language et n'hesite pas de repondre à vous commentaire
merwanne Messages postés 8 Date d'inscription mardi 20 mars 2007 Statut Membre Dernière intervention 11 juillet 2007
17 mai 2007 à 02:38
bonjour,
je ne suis pas tres programmeur, mais le petit prodige qui a fait ce programme est mon ami, je suis fiere de lui.

j'espere qu'il va tres vite evoluer et devenir une reference, pkoi pas lol, allez bon courage KIKI.
kiki67100 Messages postés 313 Date d'inscription samedi 6 mai 2006 Statut Membre Dernière intervention 10 août 2013 1
27 févr. 2007 à 16:58
Voila jai completement revu mon script je vous rapelle que je suis un debutant alors cette nouvelle mise a jour et bien
kiki67100 Messages postés 313 Date d'inscription samedi 6 mai 2006 Statut Membre Dernière intervention 10 août 2013 1
26 févr. 2007 à 13:24
MERCI

je suis en train de travailler sur le script merci Neolien pour le if(strstr je vais faire passer les user agent avec le if

je vais bientot le mettre a jour
bersyl91 Messages postés 1 Date d'inscription lundi 22 août 2005 Statut Membre Dernière intervention 5 février 2007
5 févr. 2007 à 11:02
Le principe de ton script est intéressant.

Pour t'aider, je te propose de créer carrément un honeypot dans un sous-répertoire.
Ainsi, un simple Disallow dans robots.txt te permettra de faire le tri entre les "honnêtes" robots et les aspirateurs.
Dans ton répertoire, tu mets ta page avec le href.

Ce n'est pas une protection intégrale, bien sûr, mais c'est simple et d'assez bon goût, je trouve.


(Ah oui, $REMOTE_ADDR est obsolète, il vaut mieux utiliser désormais $_SERVER[REMOTE_ADDR]...)
neolien Messages postés 63 Date d'inscription mardi 4 mai 2004 Statut Membre Dernière intervention 4 février 2007
4 févr. 2007 à 10:32
En fait on peut utiliser le USER AGENT qui donnerais une condition du style :
if(strstr($_SERVER['HTTP_USER_AGENT'], "Googlebot"))... mais certains robots des grands moteurs utilisent des ip différents et un user agent anonyme, donc le top serait de pourvoir passez par les ip, à ce propos voici un lien intéressant : http://www.actulab.com/identification-des-robots.php
coucou747 Messages postés 12303 Date d'inscription mardi 10 février 2004 Statut Membre Dernière intervention 30 juillet 2012 44
2 févr. 2007 à 12:17
... le bot google laisse un HTTP_REFER différent des autres navigateurs internet... faut donc faire print_r($_SERVER); pour lire les informations serveurs, et voir avec googlebot ce que ça renvoi (j'ai pas ça en tête)
kiki67100 Messages postés 313 Date d'inscription samedi 6 mai 2006 Statut Membre Dernière intervention 10 août 2013 1
1 févr. 2007 à 17:01
Merci a tous pour vous commentaire
mais je debute en php et je ne sais pas ses quoi la commande if (!googlebot)) pourier vous me l'apprendre Merci
kiki67100 Messages postés 313 Date d'inscription samedi 6 mai 2006 Statut Membre Dernière intervention 10 août 2013 1
30 janv. 2007 à 18:27
oui je cherche la commande et je vais la mise a jour merci coucou747
coucou747 Messages postés 12303 Date d'inscription mardi 10 février 2004 Statut Membre Dernière intervention 30 juillet 2012 44
30 janv. 2007 à 17:05
l'idée du lien vide est plutot bonne, seulement google sera aussi banni (faut un if (!googlebot)) idem pour les yahoobots, et msnbot...

ce genre de choses...
neolien Messages postés 63 Date d'inscription mardi 4 mai 2004 Statut Membre Dernière intervention 4 février 2007
29 janv. 2007 à 15:11
Hy,

Tous a fair d'accord avec slaxswf, ce script est mal pensé car il nuit au référencement donc il n'intéressera aucun webmaster digne de ce nom !

Donne nous l'adresse du site qui est en production pour tester l'aspiration car tu as l'air bien sur de ton fait !

De plus dans le fichier robots.txt (et non pas robot.txt qui ne fonctionne pas), comme tu dois enlever <meta name="robots" content="nofollow">, comment prévoir que le robot va d'aborb scanner la page nolink.php avant les autres, parceque toutes celles lues avant seront aspirées !!

je ne mets pas de note pour l'instant en espérant que tu revois ta copie !

Bon courage car un script de ce genre efficace à 100% et qui ne nuit pas au référencement, c'est très coton !
slaxswf Messages postés 32 Date d'inscription jeudi 28 décembre 2006 Statut Membre Dernière intervention 20 mai 2007
28 janv. 2007 à 22:42
oki !

Pour ma part, le script ne fonctionne pas chez free et sur mon datacenter. L'aspirateur regarde tous les liens il vas tomber sur nolink.php => mais tu as oublié les robots comme pour ton nofollow. Car si google passe sur nolink.php, le robot d'indexation va le bannir.

En clair, ton script doit changer de procéder ;)
kiki67100 Messages postés 313 Date d'inscription samedi 6 mai 2006 Statut Membre Dernière intervention 10 août 2013 1
28 janv. 2007 à 20:37
oui ses vraix que je me suis tromper mais mon script bloque les aspirateur moi il marche tres bien sur mon site

car l'aspirateur regarde tous les liens il vas tomber sur nolink.php
et il va le bloquer via deny from ladresse ip
slaxswf Messages postés 32 Date d'inscription jeudi 28 décembre 2006 Statut Membre Dernière intervention 20 mai 2007
28 janv. 2007 à 16:09
Il faut revoir ton script.

1. <meta name="robots" content="nofollow"> =>> si je met çà, mon site n'est plus référençable ;
2. fopen() => Cette fonction n'est pas activée sur tout les serveurs web ;
3. Je ne vois pas ce qui empêche l'aspiration du site web après un test de ton script

A revoir ;)
Rejoignez-nous