A SUPPRIMER

defkrie Messages postés 435 Date d'inscription vendredi 20 septembre 2002 Statut Membre Dernière intervention 20 novembre 2004 - 13 déc. 2003 à 21:34
cs_khelouiati Messages postés 14 Date d'inscription vendredi 5 septembre 2003 Statut Membre Dernière intervention 24 novembre 2006 - 29 déc. 2005 à 14:44
Cette discussion concerne un article du site. Pour la consulter dans son contexte d'origine, cliquez sur le lien ci-dessous.

https://codes-sources.commentcamarche.net/source/18678-a-supprimer

cs_khelouiati Messages postés 14 Date d'inscription vendredi 5 septembre 2003 Statut Membre Dernière intervention 24 novembre 2006
29 déc. 2005 à 14:44
J'ai pas trouvé la table mysql dans le source ?
j'ai essayer d'en crééer une suivant le source, mais le script ne donne rien.
Pouvez vous m'envoyer la structure de la table svp
merci
cs_Anthomicro Messages postés 9433 Date d'inscription mardi 9 octobre 2001 Statut Membre Dernière intervention 13 avril 2007 8
8 févr. 2005 à 20:54
Bah en même temps c'est une très vieille soruce celle-ci, vaut mieux utiliser un htaccess

a +
cs_grandvizir Messages postés 1106 Date d'inscription samedi 8 novembre 2003 Statut Membre Dernière intervention 3 septembre 2006 22
8 févr. 2005 à 20:10
Désolé, mais j'ai oublié de préciser quelque chose. A force de bloquer les aspirateurs avec du JavaScript, on pourrait finir par bloquer les moteurs. Ainsi, vouloir se protéger signifierait renoncer à être bien référencé. Autant alors utiliser ta technique que je n'ai pas testé parce que j'ai des problèmes en réseau local pour me connecter à MySql. Et puis j'en ai pas besoin de ce dernier zouave... ;)
cs_Anthomicro Messages postés 9433 Date d'inscription mardi 9 octobre 2001 Statut Membre Dernière intervention 13 avril 2007 8
8 févr. 2005 à 19:27
Heu oui, du javascript... ou "comment empêcher mon site d'être référencé..."
cs_grandvizir Messages postés 1106 Date d'inscription samedi 8 novembre 2003 Statut Membre Dernière intervention 3 septembre 2006 22
8 févr. 2005 à 19:23
coucou747 Messages postés 12303 Date d'inscription mardi 10 février 2004 Statut Membre Dernière intervention 30 juillet 2012 44
1 janv. 2005 à 02:59
non, enfin c compliqué..
j'ai été viré avant que la fête commnce, car je ne pouvais pas dormir (les parents) et que personne ne pouvait me ramener...

Enfin mon jeu d'échec PHP s'est vu débugé alros c'est pas une soirée de perdue, et j'ai tchaté avec ma meilleur amie, en clair, bonne soirée, même si ça aurait pu être mieux...
cs_Anthomicro Messages postés 9433 Date d'inscription mardi 9 octobre 2001 Statut Membre Dernière intervention 13 avril 2007 8
1 janv. 2005 à 02:05
"J'ai été viré d'une fête"

LOL qu'est-ce que t'as foutu ? le bordel (mdr) ?
coucou747 Messages postés 12303 Date d'inscription mardi 10 février 2004 Statut Membre Dernière intervention 30 juillet 2012 44
1 janv. 2005 à 01:50
Lol donc toi aussi tu passe ta soirée a coder lol
Moi c'est un jeu d'échec PHP, et un autre C++ LOL
J'ai été viré d'une fête, j'ai pas réussi à en organiser une donc je suis seul avec mon chien...
cs_Anthomicro Messages postés 9433 Date d'inscription mardi 9 octobre 2001 Statut Membre Dernière intervention 13 avril 2007 8
1 janv. 2005 à 01:37
j'ai pas MSN ;-)

passe sur le chat de mon site si tu veux, j'y serai demain, là faut que je commence à coder un quiz mdr !

a ++
coucou747 Messages postés 12303 Date d'inscription mardi 10 février 2004 Statut Membre Dernière intervention 30 juillet 2012 44
1 janv. 2005 à 01:35
lol, je n'ai jamais utilisé mysql, je regardais juste les dèrnières mises a jours...

puisque tu ne fais rien cete nuit, si tu as msn, ajoute moi stp à tes contacts : coucou747@hotmail.com
cs_Anthomicro Messages postés 9433 Date d'inscription mardi 9 octobre 2001 Statut Membre Dernière intervention 13 avril 2007 8
1 janv. 2005 à 01:22
Je sais pas tu sais ce script je l'ai remplacé depuis belle lurette par un htaccess sur mon site, d'ailleurs j'ai enlevé quelques trucs crades ce matin mdr ^^

alors ouais il est naze, il a un avantage : ne consomme pas trop de ressources ;-)

D'ailleurs plus je le regarde et plus je vois qu'il est crade (delete puis insert au lieu de replace, par exemple...)

a ++
coucou747 Messages postés 12303 Date d'inscription mardi 10 février 2004 Statut Membre Dernière intervention 30 juillet 2012 44
1 janv. 2005 à 00:40
pour les languages des aspis : ils peuvent répondre ce qu'ils veulent...

Avec ce script, tu gère comment les ips dynamiques ? les proxys ?

Tu peux avoir le nom du navigateur, mais selon moi, ta solution est bonne, en enregistrant les dates et en débloquant l'ip au bout de 2 heures...

J'ai un bot en construction, si il va sur ton site, il ira aussi sur tout les liens... Merci, grace à toi, j'ai trouvé une astuce : mettre une liste d'atente avec les URLs des prochains sites à référencer... De cette façon, il n'ira pas sur toutes les pages de ton site en même temps, mais se baladera sur toutes quand même...

"et je pique des idées."=> à bas les brevets logiciels... Je suis dans ton cas, mais depuis quelques moments, je ne pique plus les idées js mais php, car on inove plus facilement (la portabilitée n'est pas obligatoire, et en php, je fais ce que les autres font en tout autre langage serveur...) c'est aussi pour cette raison que j'aime bien le php, il as pas mal de concurents, et ça donne pas mal de possibilitées...
cs_Anthomicro Messages postés 9433 Date d'inscription mardi 9 octobre 2001 Statut Membre Dernière intervention 13 avril 2007 8
31 déc. 2004 à 12:47
non normalement si c'est un bon aspi c'est récursif avec les liens, bref il ne s'arrête pas en cas d'erreur ;-)
kankrelune Messages postés 1293 Date d'inscription mardi 9 novembre 2004 Statut Membre Dernière intervention 21 mai 2015
31 déc. 2004 à 12:40
désolé j'aurais pu préciser...

En fait l'intalation de la table se passe à merveille... enfin à priori... c'est quand je vais sur la page que ça me fait ça... je vois pô... je vais reessayer depuis le début... .. .

Sinon je me demandais... un truc con... mais si comme le dis pyranhaz on fait un lien caché vers une page piege... et que cette page contient une trentaine de liens tournant en rond (du genre href="#" ou href="?") l'aspi se fera avoir ?

C'est un peu bizar comme technique mais ça devrait marcher... .. .

Voili voilou... .. .

Bon reveillon... tous mes voeux... .. .

^_^

@ tchaOo°
cs_Anthomicro Messages postés 9433 Date d'inscription mardi 9 octobre 2001 Statut Membre Dernière intervention 13 avril 2007 8
31 déc. 2004 à 11:58
Salut ;-)

heu tu as bien la structure de la table, tout est installé correctement ?

perso je n'ai plus ce script en test (je l'ai d'ailleurs recodé un peu suite à ton message) mais bon ça devrait fonctionner, je n'ai jamais eu de problèmes chez moi ;-)

a +
kankrelune Messages postés 1293 Date d'inscription mardi 9 novembre 2004 Statut Membre Dernière intervention 21 mai 2015
31 déc. 2004 à 04:40
Erreur sql

Column count doesn't match value count at row 1

Snif... si quelqu'un a une idée... .. .

@ tchaOo°
bucherb Messages postés 412 Date d'inscription lundi 26 mai 2003 Statut Membre Dernière intervention 13 août 2007
19 déc. 2003 à 10:19
Il y aura toujours qqun pour piquer les codes de qqun d'autre.

Personnellement quand je tombe sur une page bien faite, j'analyse sa conception, et je pique des idées.. Et oui, la connaissance appartient à tous comme le dit un excellent film..

Et si tu veux pas qu'on te pique tes balises, tu peux aussi débrancher ton PC et l'enfermer dans un coffre fort vide à 200m de profondeur sous terre. Comme ça t'es sur qu'on te piquera rien...

Un site comme codes-sources, c'est pas fait à la base pour partager ses connaissance?? Mmm?
cs_pyranhaz Messages postés 236 Date d'inscription mardi 13 mai 2003 Statut Membre Dernière intervention 13 décembre 2004
18 déc. 2003 à 14:18
JEROMAX, il faut mettre les choses en contexte...

On met le "chapeau si il nou fait SEULEMENT !!!

si tu n'est pas un "voleur de codes" alors tu n'es pas visé...
Je m'adresse à ceux qui prennent sans demander et surtout qui se fou du travail de ceux qui ont piocher pour arriver aux résultats final...

les "cons" sont ceux qui suivent les liens qui les mènent vers un bannissement pour methode non orthodoxe qui ne peut arriver autrement que par le code sourse de la page...

personnellement je mets 18 heures par jour sur mes sites, alors ca ne m'intéresse pas que l'on copie mes codes...

mais avec php, les codes ne sont pas dans la page, uniquement le résultat...

de plus, moi personnellement, je ne regarde pas ni ne copie le code des autres webmasters... je viens sur des sites spécialisés pour faire et analyser mes codes......

voilà pour la remise en contexte...

@+
JEROMAX Messages postés 274 Date d'inscription jeudi 22 février 2001 Statut Membre Dernière intervention 7 octobre 2013
18 déc. 2003 à 11:10
pyranhaz écrit:
"Tu sais il y a de ces cons qui regardent ta source et s'amuse à passer outre tes barrières... ces cons là se feront prendre... en tk ici c'est commun de voir cette attitude de "voleur"... une dizaine par jour... et la vérification des ip's m'indique que ce ne sont pas des robots... qui d'autres qu'un "voleur" peut aller sur un lien caché ???"

moi !
et je ne suis pas un voleur! c'est quoi un voleur ? celui qui regarde le source de ta page pour savoir comment elle est faite? Je pense que toutes personnes faisant des sites un peu curieuses regardent les sources des pages qui les intriguent.
Que la personne lisant ce commentaire et n'ayant jamais regardé le source d'une page se manifeste... il n'y en aura pas! et tant mieux ! ça permet de progresser et aux webmasters de faire des sites les plus sécurisés possible...
Ce qui m'agace, c'est le mot "Con" et "voleur" dans ta phrase...
voila voila.... maintenant moi... ce que j'en dit.... :-))
cs_Nox Messages postés 415 Date d'inscription mardi 3 avril 2001 Statut Membre Dernière intervention 26 avril 2008
15 déc. 2003 à 04:58
cherche hooverkiller sur phpcs.com ;)
cs_pyranhaz Messages postés 236 Date d'inscription mardi 13 mai 2003 Statut Membre Dernière intervention 13 décembre 2004
14 déc. 2003 à 20:46
Ceci étant dit, il y a aussi des robots mal configurés ou carrément stupides qui ne tiennent pas compte du robots.txt...

C'est à se demander quelle valeur ont ces "pseudos-robots"
On a un fichier exclusif pour eux et certains les ignorent...
tant qu'à moi, que ces "robots" aillent aux chiottes !!!

Le seul conseil`à donner dans ces cas particuliers plutôt rares est de ne pas mettre de lien piège dans la page index ou seulement un lien qui véridie si le visiteur est banni...
randiox Messages postés 17 Date d'inscription mercredi 30 avril 2003 Statut Membre Dernière intervention 6 février 2005
14 déc. 2003 à 20:34
Salut !
Je vois que pyranhaz a tout dis ;) ben bravo, juste un ajout, la methode de pyranhaz : "lien caché vers une page de piege" + config du robots.txt pour ne pas les bloquer est décrite en détail dans un des extrait gratuits du mag. AZPhp ...

++ Randiox
cs_Anthomicro Messages postés 9433 Date d'inscription mardi 9 octobre 2001 Statut Membre Dernière intervention 13 avril 2007 8
14 déc. 2003 à 16:51
merci !

a +
cs_pyranhaz Messages postés 236 Date d'inscription mardi 13 mai 2003 Statut Membre Dernière intervention 13 décembre 2004
14 déc. 2003 à 16:26
n'oublie pas le fichier robots.txt:
disallow: /ta_page_piege.php

et le fichier .htaccess
il ne permettra à personne de voir ton fichier robots.txt autre que les robots eux-mêmes

<files robots.txt>
Order Deny,Allow
Deny From ALL
Allow From 66.28 209.237 66.147 65.214 198.169 66.77 216.239 64.68 204.123 66.237 212.27 64.152 209.73 216.35 64.140 64.140 195.101 209.249 216.88 66.196
</files>

tu peux copier/coller ce code dans ton fichier .htaccess
ce sont les ip's (deux premiers groupe) des robots les + connus

Au plaisir !
cs_Anthomicro Messages postés 9433 Date d'inscription mardi 9 octobre 2001 Statut Membre Dernière intervention 13 avril 2007 8
14 déc. 2003 à 16:19
ok merci je pense que je vais mettre en place cette solution.

a +
cs_pyranhaz Messages postés 236 Date d'inscription mardi 13 mai 2003 Statut Membre Dernière intervention 13 décembre 2004
14 déc. 2003 à 16:11
Effectivement, c'est une solution tampon...
C'est toujours mieux que de ne rien avoir du tout...
Malgré tout, je te suggère de tester le lien caché en indiquant aux robots de ne pas suivre ce lien... de une ip bloqué, tu passeras sans doute à une dizaine...

Tu sais il y a de ces cons qui regardent ta source et s'amuse à passer outre tes barrières... ces cons là se feront prendre... en tk ici c'est commun de voir cette attitude de "voleur"... une dizaine par jour... et la vérification des ip's m'indique que ce ne sont pas des robots... qui d'autres qu'un "voleur" peut aller sur un lien caché ???

bonne continuation...
cs_Anthomicro Messages postés 9433 Date d'inscription mardi 9 octobre 2001 Statut Membre Dernière intervention 13 avril 2007 8
14 déc. 2003 à 16:03
Plus de 10000 en constante progression, mais c'est vrai que ce n'est pas une protection optimale j'en conviens. Seulement pour l'instant elle me suffit amplement pour contrer les "aspireurs" néophytes.

a +
cs_pyranhaz Messages postés 236 Date d'inscription mardi 13 mai 2003 Statut Membre Dernière intervention 13 décembre 2004
14 déc. 2003 à 15:53
le $HTTP_ACCEPT_LANGUAGE ne peut être utilisé que si tu connais les ip's des robots et que tu indique aux robots de ne pas suivre le(s) fichiers pièges... De plus, l'indication dans robots.txt doit être exclusif aux robots, soit barré à l'aide d'un fichier .htaccess...

C'est vrai, les aspirateurs n'ont pas de language et ce comportement est un indicatif suspect d'un aspirateur potentiel...

Ce n'est pas le seul comportement disponible, le lien caché est à mon avis la solution ultime puisque les visiteurs ne le voit jamais, et que les "voleurs" le voit automatiquement...

Je te conseillerais un essai avec un lien caché, de manière à comparé les résultats obtenus... Je conseillerais également un ajout de code pour vide la base des ip's au 24 heures...

je ne dis pas que le code est mauvais, mais que de mon côté le résultat est insatisfaisant... les aspirateurs ont une ooption pour aspirer tant de page à la seconde... et aussi il auront toujours une parties des pages et recommenceront jusqu'à obtenir la totalité...

Le lien caché ne permet pas l'aspiration d'aucune page protégée...
Mais bon, à chacun ses préférences de protection...
Combien de visiteurs tu as par mois ???
cs_Anthomicro Messages postés 9433 Date d'inscription mardi 9 octobre 2001 Statut Membre Dernière intervention 13 avril 2007 8
14 déc. 2003 à 09:44
Non non j'ai fait des tests et pour visiter 25 pages par minute ça fait 1 page toutes les 3 secondes. Si tu comptes le temps de chargement, etc, faut quand même y aller.

En deux semaines de mise en place, je n'ai eu qu'une IP bloquée. Le maximum que j'ai pû voir pour un internaute est une quinzaine de pages vues. De toute façon la limite est augmentable.

J'avais fait avant un code qui bloquait selon le "HTTP_ACCEPT_LANGUAGE" qui bloquait le visiteur si cette variable était vide mais je me suis rendu compte que ça bloquait également les moteurs de recherche.

a +
cs_pyranhaz Messages postés 236 Date d'inscription mardi 13 mai 2003 Statut Membre Dernière intervention 13 décembre 2004
14 déc. 2003 à 01:00
Et que dire de ceux qui vont sur un site dont il connaisse par coeur et qui passe les pages rapidement pour aller là où ils le veulent...

Depuis longtemps la balise "temps" n'est plus qq chose de fiable pour calculer si il s'agit d'un aspirateur ou non...

Le comportement "behaviours" est de beaucoup plus fiable...

À cela, ajouter le fait qu tu dois manuellement "manager" ta base pour vider les ip's bloqués ce qui augmente le stress et les fautes en risquant de bloquer des consommateurs de tes produits ou services...
defkrie Messages postés 435 Date d'inscription vendredi 20 septembre 2002 Statut Membre Dernière intervention 20 novembre 2004
13 déc. 2003 à 21:34
pourquoi pas mais je doute que cela fonctionne :
//RECUPERE L'IP DU CLIENT
$ip_client=addslashes($_SERVER["REMOTE_ADDR"]);
puisque tu ne récupere jamais vraiment lip avec ceci pense à ceux qui ont un firewell ou un proxy qui change dip toutre les 20 secondes....
Sinon cest pas vraiment un anti aspirateur mais un limitateur