HOOVERKILLER 2 -> BLOQUER LES ASPIRATEURS DE SITES

cs_Nox Messages postés 415 Date d'inscription mardi 3 avril 2001 Statut Membre Dernière intervention 26 avril 2008 - 25 juin 2003 à 06:42
kiki67100 Messages postés 313 Date d'inscription samedi 6 mai 2006 Statut Membre Dernière intervention 10 août 2013 - 4 déc. 2007 à 12:51
Cette discussion concerne un article du site. Pour la consulter dans son contexte d'origine, cliquez sur le lien ci-dessous.

https://codes-sources.commentcamarche.net/source/13363-hooverkiller-2-gt-bloquer-les-aspirateurs-de-sites

kiki67100 Messages postés 313 Date d'inscription samedi 6 mai 2006 Statut Membre Dernière intervention 10 août 2013 1
4 déc. 2007 à 12:51
affiliatel > Oui j'ai fait un source en utilisant le .htaccess

http://www.phpcs.com/codes/SCRIPT-ANTI-ASPIRATEUR-SANS-BDD_41297.aspx

PS( $LECODE str_replace('<?',<?php,$LECODE); replace <? => <?php



++
affiliatel Messages postés 11 Date d'inscription mardi 27 janvier 2004 Statut Membre Dernière intervention 22 novembre 2004
13 nov. 2004 à 17:06
sinon,
il suffit de chercher sous google htaccess et aspirateur pour trouver les meilleurs protections possibles
affiliatel Messages postés 11 Date d'inscription mardi 27 janvier 2004 Statut Membre Dernière intervention 22 novembre 2004
13 nov. 2004 à 17:04
lol :-) ptdr !!
le coup du :
"essayer d'aspirer hotmail m'a fait trop rire"
cs_Jackboy Messages postés 757 Date d'inscription vendredi 7 septembre 2001 Statut Membre Dernière intervention 19 juin 2008
15 déc. 2003 à 21:03
Tous est aspirer (filesdepot.com) sans aucun problème !!!

Le site en entier avec HTTrack!!!!

Donc la fonctionnalité est a vérifier, non...
frentchy Messages postés 17 Date d'inscription vendredi 2 mai 2003 Statut Membre Dernière intervention 2 janvier 2004
15 déc. 2003 à 13:18
Moi je recherche une version asp.net, je recherche de partout mais rien.
spider987 Messages postés 33 Date d'inscription lundi 21 janvier 2002 Statut Membre Dernière intervention 26 janvier 2008
2 déc. 2003 à 12:25
je pense que l'idée de SkyCrasher est bonne mais il est vrai que référencer tous les aspirateurs du monde entier est un travail monstre.
Alors pourquoi ne pas plutot référencer les différents robots et navigateurs connus dans une table, référencer les différents aspirateur connus dans une autre table et avoir a ce moment la une table pour les agent qui ne sont ni référencé dans la table des robot/navigateur et ni dans la table aspirateur.

Il suffit de vérifier si HTTP_USER_AGENT est trouver dans une des deux premières table et si pas, référencer celui ci dans la troisième table et pourquoi pas, envoyer un mail a l'admin, afin de pouvoir faire des recherches sur cette agent.

Cette idée me semble bonne mais bon faut plancher dessus.

Enfin je par pour barcelogne pendant une semaine mais quand je revien je posterais une source exposant mon idée.

Spider987

PS : En attendant j'utilise toujour la source de Nox, alors merci Nox
cs_SkyCrasher Messages postés 143 Date d'inscription samedi 4 janvier 2003 Statut Membre Dernière intervention 19 mai 2015
30 nov. 2003 à 23:16
Je pense que j'ai trouvé mieux :
en faisant un <? echo "$HTTP_USER_AGENT";?>
on peut déterminer si c'est une personne , un robot ou un aspirateur !
mais après il faudrai référencer tous les aspirateurs et dire si :

if($HTTP_USER_AGENT=="ia archiver"){
echo "Les aspirateurs ne sont pas acceptés !";
}else{
include "page.php";
}

Bon c'est un travail monstre pour référencer tous les aspirateurs du monde entier mais c'est une solution plus simple !
cs_Nox Messages postés 415 Date d'inscription mardi 3 avril 2001 Statut Membre Dernière intervention 26 avril 2008
5 juil. 2003 à 08:34
VERSION 2.2 DISPONIBLE !!

elle corrige la faille du au "robots.txt" (les nouveaux aspirateurs contournaient le piège)

elle a une nouvelle technique de bloquage

elle bloque complètement l'Aspirateur...


Tentez d'aspirer: www.filesdepot.com
Si quelqu'un réussit SVP dites moi le!!!!!!!!!!!! ;)
cs_Nox Messages postés 415 Date d'inscription mardi 3 avril 2001 Statut Membre Dernière intervention 26 avril 2008
3 juil. 2003 à 20:47
matrey : ouais bonne ID, mais comme le BAN est de 5 minutes....
pi fau ben tu paye un peu pour avoir tenté d'aspirer :p
cs_Nox Messages postés 415 Date d'inscription mardi 3 avril 2001 Statut Membre Dernière intervention 26 avril 2008
3 juil. 2003 à 20:46
cyrilnd01 : sa les bloques pas ! : robots.txt
cyrilnd01 Messages postés 15 Date d'inscription samedi 21 juin 2003 Statut Membre Dernière intervention 16 septembre 2003
3 juil. 2003 à 20:45
ce qui est con c que sa bloque les moteur de recherche sa quel dommages !!!
matrey Messages postés 399 Date d'inscription jeudi 31 janvier 2002 Statut Membre Dernière intervention 6 septembre 2004
3 juil. 2003 à 13:45
ben si tu enregistre les IPs bannies dans MySQL, tu peux proposer comme sur CodeS-SourceS un formulaire ou tu rentre ton IP pour la débannir manuellement...
cs_Nox Messages postés 415 Date d'inscription mardi 3 avril 2001 Statut Membre Dernière intervention 26 avril 2008
1 juil. 2003 à 22:18
Baf de te facon l'aspirateur de site prendra pas 6 heures a aspirer ;)

matrey jcomprend pas ton idée de form ?!?! explique sa a lair interessant :p

Jai trouvé une autre methode:
allez sur www.filesdepot.com/fif
et aspirez www.filesdepot.com/fif

La ligne de l'ID du navigateur change puisque les aspirateurs n'ont PAS d'ID de navigateur :p
matrey Messages postés 399 Date d'inscription jeudi 31 janvier 2002 Statut Membre Dernière intervention 6 septembre 2004
29 juin 2003 à 23:16
j'ai pas pu déposer ma version que j'avais "promise" dans les commentaires de la v1 de hooverkiller...
Ptit conseil : un formulaire de débannissement, pour que si on se récupère l'IP de qqun on ne soit pas bloqué, et aussi une durée de bannissement un peu plus longue (en général c'est 6 heures, mais c'est discutable)...
cs_Nox Messages postés 415 Date d'inscription mardi 3 avril 2001 Statut Membre Dernière intervention 26 avril 2008
27 juin 2003 à 22:32
c'est ske jme suis dit... mais c'est en option, rien ne vous retient de l'enlever ;)
Bricomix Messages postés 340 Date d'inscription vendredi 11 octobre 2002 Statut Membre Dernière intervention 14 février 2005
26 juin 2003 à 10:03
Le truc du robots.txt c'est obsolète pour les nouveaux aspirateurs, ils n'aspireront pas la page !!!
cs_Nox Messages postés 415 Date d'inscription mardi 3 avril 2001 Statut Membre Dernière intervention 26 avril 2008
26 juin 2003 à 06:33
Bon une version 2.1 est sortie !
cs_Nox Messages postés 415 Date d'inscription mardi 3 avril 2001 Statut Membre Dernière intervention 26 avril 2008
25 juin 2003 à 06:42
Il existe une autre technique:
compter le nombre de pages demandées en 1 minute sur le serveur et bloquer l'IP.

J'ai vui l'astuce sur un script qu'on peut télécharger sur www.telecharger.com (cherchez "aspirateur").

Le pb avec sa c'est que si la personne fait "précédent" plein de fois, elle risque de tomber dans le piège.
Deuxièmement, l'aspirateur aura 1 minute pour aspirer avant qu'il ne soit bloqué..

Psycomaxter (max12) me suggérait de renvoyer le client à une adresse erronée, ex: "http://www.joke.com/existe_pas.html" ... ce qui fait que le serveur reeoutne une Erreur 404. L'aspirateur décidera donc de ne pas télécharger la page (de p-e arrêter au complet?) Cet astuce permet aussi de ne pas surcharger votre bande passante!

Le seul pb avec cette astuce, c'est que si un moteur de recherche ne prend pas en charge "robots.txt", il indexera votre page (ou pas du tout) avec une erreur 404 comme description

Bon tout sa pour dire que ça bloque, mais pas au complet... Microsoft reste meilleur que moi ;)
essayez d'aspirer www.hotmail.com !
Rejoignez-nous