HOOVERKILLER 2 -> BLOQUER LES ASPIRATEURS DE SITES
cs_Nox
Messages postés415Date d'inscriptionmardi 3 avril 2001StatutMembreDernière intervention26 avril 2008
-
25 juin 2003 à 06:42
kiki67100
Messages postés313Date d'inscriptionsamedi 6 mai 2006StatutMembreDernière intervention10 août 2013
-
4 déc. 2007 à 12:51
Cette discussion concerne un article du site. Pour la consulter dans son contexte d'origine, cliquez sur le lien ci-dessous.
affiliatel
Messages postés11Date d'inscriptionmardi 27 janvier 2004StatutMembreDernière intervention22 novembre 2004 13 nov. 2004 à 17:06
sinon,
il suffit de chercher sous google htaccess et aspirateur pour trouver les meilleurs protections possibles
affiliatel
Messages postés11Date d'inscriptionmardi 27 janvier 2004StatutMembreDernière intervention22 novembre 2004 13 nov. 2004 à 17:04
lol :-) ptdr !!
le coup du :
"essayer d'aspirer hotmail m'a fait trop rire"
cs_Jackboy
Messages postés757Date d'inscriptionvendredi 7 septembre 2001StatutMembreDernière intervention19 juin 2008 15 déc. 2003 à 21:03
Tous est aspirer (filesdepot.com) sans aucun problème !!!
Le site en entier avec HTTrack!!!!
Donc la fonctionnalité est a vérifier, non...
frentchy
Messages postés17Date d'inscriptionvendredi 2 mai 2003StatutMembreDernière intervention 2 janvier 2004 15 déc. 2003 à 13:18
Moi je recherche une version asp.net, je recherche de partout mais rien.
spider987
Messages postés33Date d'inscriptionlundi 21 janvier 2002StatutMembreDernière intervention26 janvier 2008 2 déc. 2003 à 12:25
je pense que l'idée de SkyCrasher est bonne mais il est vrai que référencer tous les aspirateurs du monde entier est un travail monstre.
Alors pourquoi ne pas plutot référencer les différents robots et navigateurs connus dans une table, référencer les différents aspirateur connus dans une autre table et avoir a ce moment la une table pour les agent qui ne sont ni référencé dans la table des robot/navigateur et ni dans la table aspirateur.
Il suffit de vérifier si HTTP_USER_AGENT est trouver dans une des deux premières table et si pas, référencer celui ci dans la troisième table et pourquoi pas, envoyer un mail a l'admin, afin de pouvoir faire des recherches sur cette agent.
Cette idée me semble bonne mais bon faut plancher dessus.
Enfin je par pour barcelogne pendant une semaine mais quand je revien je posterais une source exposant mon idée.
Spider987
PS : En attendant j'utilise toujour la source de Nox, alors merci Nox
cs_SkyCrasher
Messages postés143Date d'inscriptionsamedi 4 janvier 2003StatutMembreDernière intervention19 mai 2015 30 nov. 2003 à 23:16
Je pense que j'ai trouvé mieux :
en faisant un <? echo "$HTTP_USER_AGENT";?>
on peut déterminer si c'est une personne , un robot ou un aspirateur !
mais après il faudrai référencer tous les aspirateurs et dire si :
if($HTTP_USER_AGENT=="ia archiver"){
echo "Les aspirateurs ne sont pas acceptés !";
}else{
include "page.php";
}
Bon c'est un travail monstre pour référencer tous les aspirateurs du monde entier mais c'est une solution plus simple !
cs_Nox
Messages postés415Date d'inscriptionmardi 3 avril 2001StatutMembreDernière intervention26 avril 2008 5 juil. 2003 à 08:34
VERSION 2.2 DISPONIBLE !!
elle corrige la faille du au "robots.txt" (les nouveaux aspirateurs contournaient le piège)
elle a une nouvelle technique de bloquage
elle bloque complètement l'Aspirateur...
Tentez d'aspirer: www.filesdepot.com
Si quelqu'un réussit SVP dites moi le!!!!!!!!!!!! ;)
cs_Nox
Messages postés415Date d'inscriptionmardi 3 avril 2001StatutMembreDernière intervention26 avril 2008 3 juil. 2003 à 20:47
matrey : ouais bonne ID, mais comme le BAN est de 5 minutes....
pi fau ben tu paye un peu pour avoir tenté d'aspirer :p
cs_Nox
Messages postés415Date d'inscriptionmardi 3 avril 2001StatutMembreDernière intervention26 avril 2008 3 juil. 2003 à 20:46
cyrilnd01 : sa les bloques pas ! : robots.txt
cyrilnd01
Messages postés15Date d'inscriptionsamedi 21 juin 2003StatutMembreDernière intervention16 septembre 2003 3 juil. 2003 à 20:45
ce qui est con c que sa bloque les moteur de recherche sa quel dommages !!!
matrey
Messages postés399Date d'inscriptionjeudi 31 janvier 2002StatutMembreDernière intervention 6 septembre 2004 3 juil. 2003 à 13:45
ben si tu enregistre les IPs bannies dans MySQL, tu peux proposer comme sur CodeS-SourceS un formulaire ou tu rentre ton IP pour la débannir manuellement...
cs_Nox
Messages postés415Date d'inscriptionmardi 3 avril 2001StatutMembreDernière intervention26 avril 2008 1 juil. 2003 à 22:18
Baf de te facon l'aspirateur de site prendra pas 6 heures a aspirer ;)
matrey jcomprend pas ton idée de form ?!?! explique sa a lair interessant :p
Jai trouvé une autre methode:
allez sur www.filesdepot.com/fif
et aspirez www.filesdepot.com/fif
La ligne de l'ID du navigateur change puisque les aspirateurs n'ont PAS d'ID de navigateur :p
matrey
Messages postés399Date d'inscriptionjeudi 31 janvier 2002StatutMembreDernière intervention 6 septembre 2004 29 juin 2003 à 23:16
j'ai pas pu déposer ma version que j'avais "promise" dans les commentaires de la v1 de hooverkiller...
Ptit conseil : un formulaire de débannissement, pour que si on se récupère l'IP de qqun on ne soit pas bloqué, et aussi une durée de bannissement un peu plus longue (en général c'est 6 heures, mais c'est discutable)...
cs_Nox
Messages postés415Date d'inscriptionmardi 3 avril 2001StatutMembreDernière intervention26 avril 2008 27 juin 2003 à 22:32
c'est ske jme suis dit... mais c'est en option, rien ne vous retient de l'enlever ;)
Bricomix
Messages postés340Date d'inscriptionvendredi 11 octobre 2002StatutMembreDernière intervention14 février 2005 26 juin 2003 à 10:03
Le truc du robots.txt c'est obsolète pour les nouveaux aspirateurs, ils n'aspireront pas la page !!!
cs_Nox
Messages postés415Date d'inscriptionmardi 3 avril 2001StatutMembreDernière intervention26 avril 2008 26 juin 2003 à 06:33
Bon une version 2.1 est sortie !
cs_Nox
Messages postés415Date d'inscriptionmardi 3 avril 2001StatutMembreDernière intervention26 avril 2008 25 juin 2003 à 06:42
Il existe une autre technique:
compter le nombre de pages demandées en 1 minute sur le serveur et bloquer l'IP.
J'ai vui l'astuce sur un script qu'on peut télécharger sur www.telecharger.com (cherchez "aspirateur").
Le pb avec sa c'est que si la personne fait "précédent" plein de fois, elle risque de tomber dans le piège.
Deuxièmement, l'aspirateur aura 1 minute pour aspirer avant qu'il ne soit bloqué..
Psycomaxter (max12) me suggérait de renvoyer le client à une adresse erronée, ex: "http://www.joke.com/existe_pas.html" ... ce qui fait que le serveur reeoutne une Erreur 404. L'aspirateur décidera donc de ne pas télécharger la page (de p-e arrêter au complet?) Cet astuce permet aussi de ne pas surcharger votre bande passante!
Le seul pb avec cette astuce, c'est que si un moteur de recherche ne prend pas en charge "robots.txt", il indexera votre page (ou pas du tout) avec une erreur 404 comme description
Bon tout sa pour dire que ça bloque, mais pas au complet... Microsoft reste meilleur que moi ;)
essayez d'aspirer www.hotmail.com !
4 déc. 2007 à 12:51
http://www.phpcs.com/codes/SCRIPT-ANTI-ASPIRATEUR-SANS-BDD_41297.aspx
PS( $LECODE str_replace('<?',<?php,$LECODE); replace <? => <?php
++
13 nov. 2004 à 17:06
il suffit de chercher sous google htaccess et aspirateur pour trouver les meilleurs protections possibles
13 nov. 2004 à 17:04
le coup du :
"essayer d'aspirer hotmail m'a fait trop rire"
15 déc. 2003 à 21:03
Le site en entier avec HTTrack!!!!
Donc la fonctionnalité est a vérifier, non...
15 déc. 2003 à 13:18
2 déc. 2003 à 12:25
Alors pourquoi ne pas plutot référencer les différents robots et navigateurs connus dans une table, référencer les différents aspirateur connus dans une autre table et avoir a ce moment la une table pour les agent qui ne sont ni référencé dans la table des robot/navigateur et ni dans la table aspirateur.
Il suffit de vérifier si HTTP_USER_AGENT est trouver dans une des deux premières table et si pas, référencer celui ci dans la troisième table et pourquoi pas, envoyer un mail a l'admin, afin de pouvoir faire des recherches sur cette agent.
Cette idée me semble bonne mais bon faut plancher dessus.
Enfin je par pour barcelogne pendant une semaine mais quand je revien je posterais une source exposant mon idée.
Spider987
PS : En attendant j'utilise toujour la source de Nox, alors merci Nox
30 nov. 2003 à 23:16
en faisant un <? echo "$HTTP_USER_AGENT";?>
on peut déterminer si c'est une personne , un robot ou un aspirateur !
mais après il faudrai référencer tous les aspirateurs et dire si :
if($HTTP_USER_AGENT=="ia archiver"){
echo "Les aspirateurs ne sont pas acceptés !";
}else{
include "page.php";
}
Bon c'est un travail monstre pour référencer tous les aspirateurs du monde entier mais c'est une solution plus simple !
5 juil. 2003 à 08:34
elle corrige la faille du au "robots.txt" (les nouveaux aspirateurs contournaient le piège)
elle a une nouvelle technique de bloquage
elle bloque complètement l'Aspirateur...
Tentez d'aspirer: www.filesdepot.com
Si quelqu'un réussit SVP dites moi le!!!!!!!!!!!! ;)
3 juil. 2003 à 20:47
pi fau ben tu paye un peu pour avoir tenté d'aspirer :p
3 juil. 2003 à 20:46
3 juil. 2003 à 20:45
3 juil. 2003 à 13:45
1 juil. 2003 à 22:18
matrey jcomprend pas ton idée de form ?!?! explique sa a lair interessant :p
Jai trouvé une autre methode:
allez sur www.filesdepot.com/fif
et aspirez www.filesdepot.com/fif
La ligne de l'ID du navigateur change puisque les aspirateurs n'ont PAS d'ID de navigateur :p
29 juin 2003 à 23:16
Ptit conseil : un formulaire de débannissement, pour que si on se récupère l'IP de qqun on ne soit pas bloqué, et aussi une durée de bannissement un peu plus longue (en général c'est 6 heures, mais c'est discutable)...
27 juin 2003 à 22:32
26 juin 2003 à 10:03
26 juin 2003 à 06:33
25 juin 2003 à 06:42
compter le nombre de pages demandées en 1 minute sur le serveur et bloquer l'IP.
J'ai vui l'astuce sur un script qu'on peut télécharger sur www.telecharger.com (cherchez "aspirateur").
Le pb avec sa c'est que si la personne fait "précédent" plein de fois, elle risque de tomber dans le piège.
Deuxièmement, l'aspirateur aura 1 minute pour aspirer avant qu'il ne soit bloqué..
Psycomaxter (max12) me suggérait de renvoyer le client à une adresse erronée, ex: "http://www.joke.com/existe_pas.html" ... ce qui fait que le serveur reeoutne une Erreur 404. L'aspirateur décidera donc de ne pas télécharger la page (de p-e arrêter au complet?) Cet astuce permet aussi de ne pas surcharger votre bande passante!
Le seul pb avec cette astuce, c'est que si un moteur de recherche ne prend pas en charge "robots.txt", il indexera votre page (ou pas du tout) avec une erreur 404 comme description
Bon tout sa pour dire que ça bloque, mais pas au complet... Microsoft reste meilleur que moi ;)
essayez d'aspirer www.hotmail.com !