MASQUER VOTRE CODE AUX ROBOTS VALIDEURS W3C

coucou747 Messages postés 12303 Date d'inscription mardi 10 février 2004 Statut Membre Dernière intervention 30 juillet 2012 - 10 août 2007 à 16:36
LaurentKOogar Messages postés 369 Date d'inscription samedi 4 septembre 2004 Statut Membre Dernière intervention 20 octobre 2013 - 26 août 2007 à 04:29
Cette discussion concerne un article du site. Pour la consulter dans son contexte d'origine, cliquez sur le lien ci-dessous.

https://codes-sources.commentcamarche.net/source/43730-masquer-votre-code-aux-robots-valideurs-w3c

LaurentKOogar Messages postés 369 Date d'inscription samedi 4 septembre 2004 Statut Membre Dernière intervention 20 octobre 2013
26 août 2007 à 04:29
C'est du CLOAKING !! => qui entrainera le BlakListage du site Sur Google a celui qui utilisera ce genre de code.

Perso, ca fait longtemps que j'aurais supprimer ce thread...

c'est presque imorale de laisser en ligne des codes qui pourrissent les sites pour les gros moteurs de recherche!!
cyrphp Messages postés 18 Date d'inscription dimanche 17 octobre 2004 Statut Membre Dernière intervention 13 avril 2009
26 août 2007 à 04:11
bonjour:

<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.1//EN" "http://www.w3.org/TR/xhtml11/DTD/xhtml11.dtd">

ton site embarque xhtml et xml ?

Ta source , a part faire venir du monde ne sert a rien, et pour repondre a tes question de validités , Informe toi sur l'utilité d'un doctype , de comment le choisir , et puis aussi , attention aussi a la divite !

Enfin , je crois que le sujet sur lequel tu glisse (w3c etc ...) nous meme un peu hors sujet sur ce site dedié a php .

Tu as voulu t'embarquer sur un sujet que tu ne connais pas vraiment encore , dommage ,... trop préssé peut-etre :) ?

sinon , jolie realisation , mais ton capcha ne fonctionne pas ou trop bien lol ...

Amicalement et bonne continuations
coucou747 Messages postés 12303 Date d'inscription mardi 10 février 2004 Statut Membre Dernière intervention 30 juillet 2012 44
15 août 2007 à 22:41
c'est pas bien, vaut mieux separer contenu de contenant et faire ca en css
kylekatarnls Messages postés 35 Date d'inscription dimanche 4 février 2007 Statut Membre Dernière intervention 1 juillet 2008
15 août 2007 à 22:27
Ouf et voilà 110 erreurs d'un stupide écoeurant éliminées, toutefois j'ai constaté que la balise était invalide, ce que j'ignorais vu que j'en use peu, par contre j'utilise et plus souvent et le validateur les accepte, mais c'est pourtant du même ordre d'idée.

Alors si quelqu'un le sait est-ce qu'il vaut mieux ne pas utiliser et ou est-ce vraiment valide ?
kylekatarnls Messages postés 35 Date d'inscription dimanche 4 février 2007 Statut Membre Dernière intervention 1 juillet 2008
15 août 2007 à 22:07
En fait non mes info-bulles ne sont pas dans le pied de page, c'est tout simplement que le validateur ne peut pas les activer ^^ lol alors forcément, ça m'est passé sous le nez.
kylekatarnls Messages postés 35 Date d'inscription dimanche 4 février 2007 Statut Membre Dernière intervention 1 juillet 2008
15 août 2007 à 22:05
Merci pour l'info, là je tombe de haut, j'ai en effet essayé et il y a les infos-bulles qui se trouvent dans mon pied de page avec les outils de statistiques, je les avais oublié. En désactivant les info-bulles, il n'y a plus d'erreur, donc il faut maintenant que je m'occupe de ça, c'était une excellente idée de poster cette source, d'ici les 10 prochains commentaires, je n'aurais plus aucune erreur oublié :D
Rudy3212 Messages postés 154 Date d'inscription vendredi 20 août 2004 Statut Membre Dernière intervention 31 décembre 2007
15 août 2007 à 13:47
Oui mais comme sa tu peut tricher, alors moi j'entre le code html et pas l'url.
Comme sa sa passe les système comme le tient.
Bien sur je me fait pas chier a copier-coller le code, sa se fait de manière automatiser :P

Mais en copiant collant ton code il met 110 erreurs.
kylekatarnls Messages postés 35 Date d'inscription dimanche 4 février 2007 Statut Membre Dernière intervention 1 juillet 2008
15 août 2007 à 13:43
Les lignes manquantes sont celles de Google Analytics, de PhpMyVisites et de mon propres générateur de statistiques (voir plus haut) car je ne veux pas que les robots faussent mes statistiques. L'histoire des 110 erreurs là je comprends pas ce que tu raconte, pour valider une page on entre son url ou bien "referer" si ça vient d'un lien et mes pages sont valides sauf peut-être au moment où je les modifie.
Rudy3212 Messages postés 154 Date d'inscription vendredi 20 août 2004 Statut Membre Dernière intervention 31 décembre 2007
15 août 2007 à 13:42
Ha oui effectivement, je penser que le système afficher une fausse par au w3c, alors que la il y a tout le site moins quelque parti :P
coucou747 Messages postés 12303 Date d'inscription mardi 10 février 2004 Statut Membre Dernière intervention 30 juillet 2012 44
15 août 2007 à 13:39
rudy... c'est a ca que sert ce code... relis le, tu verras pourquoi...
Rudy3212 Messages postés 154 Date d'inscription vendredi 20 août 2004 Statut Membre Dernière intervention 31 décembre 2007
15 août 2007 à 13:24
Quand je valide le html de la page j'ai 110 Erreurs, quand je valide ta page en entrant l'url j'ai 0 erreur.
Ya pas un bogue ?

Ha oui aussi pourquoi mettre 40 000 espace devant le code ?
Sa ne cache pas ton code source c'est absolument inutile.

Quand on affiche le code source on a 398 lignes, le validateur n'en voit que 324...
kylekatarnls Messages postés 35 Date d'inscription dimanche 4 février 2007 Statut Membre Dernière intervention 1 juillet 2008
15 août 2007 à 10:30
Ah oui *** je n'avais pas vu ça c'est du à une modification récente faite sur ma fonction callback de sortie, je viens de corriger ça, la page est de nouveau lisible.

Merci de m'avoir prévenu.
kylekatarnls Messages postés 35 Date d'inscription dimanche 4 février 2007 Statut Membre Dernière intervention 1 juillet 2008
15 août 2007 à 10:06
Et bien je me fie à mes visites pour le navigateur, d'abord FF 2 ensuite IE 6 et j'ai donc 90% d'utilisateurs dans cette fourchette. Cette source je la laisse et j'en ferais d'autres. Sinon on s'est mal compris, les bugs pour moi c'est quand une page ne peut pas être lue correctement et non quand elle n'est pas valide. Si c'est un bug, détaille que je corrige et donne-moi ta config STP.
TheSin Messages postés 331 Date d'inscription mardi 12 novembre 2002 Statut Membre Dernière intervention 10 février 2009
14 août 2007 à 21:30
@kylekatarnls :
Et bin écoute, je crois que c'est bien Galerie :
http://galerie.images.free.fr/?page=creation_compte
Et comme IE7 est bien plus aux normes que le 6, ne dis pas que le site est aux normes stp, même sous FireFox 2 ça bogue, donc c'est que c'est pas le navigateur qui est en cause.
Ceci dit, si il est pas fini, bon, ok, t'as juste encore du mal à te faire aux normes xHTML, mais encore une fois, ne dit pas d'un site (et j'insiste, d'un site !) qu'il est aux normes si la page d'inscription ne l'est pas, qui plus est que c'est, je crois, le point de départ où tout utilisateur va vouloir aller sur de tel genre de site.

@Donald_Duck : Entièrement d'accord, ce principe est abhérant.

Pour rester positif sur le source, il est toutefois intéressant pour détecter les robots, mais dans ce cas il faudrait un jour recommenter ce code !
Et je trouve encore plus abhérant que tu n'ai toujours pas modifié tout ce source apres 39 commentaires ....


PS: IE 6 n'est pas une référence pour faire du Web, et je crois qu'on teste quasiement tous ici de l'html sous plusieurs navigateurs ;-) (Opera, FireFox, IE, Netscape, et j'en passe)
cs_Donald_Duck Messages postés 11 Date d'inscription mercredi 17 novembre 2004 Statut Membre Dernière intervention 14 août 2007
14 août 2007 à 19:36
Je trouve le principe de faire semblant de respecter les normes assez aberrant. Après celui qui on accuse les navigateurs web de ne pas savoir interpréter correctement les codes des sites qui respectent soit disant les recommandations W3C. Il serait bien de ne pas inciter ceux qui débutent a ne faire aucun effort.
kylekatarnls Messages postés 35 Date d'inscription dimanche 4 février 2007 Statut Membre Dernière intervention 1 juillet 2008
14 août 2007 à 18:07
>frank_85
Arrêtez de parler de ce que vous savez pas, stripos c'est un strpos insensible à la casse.
http://galerie.images.free.fr/ n'est pas terminé, merci pour l'info, je n'avais pas testé la page d'inscription.

>TheSin
Je n'ai pas IE 7 mais étant donné que sous IE 6 ce site marche très bien je pense que tu parlais de bmwx.free.fr et non de galerie.images.free.fr, si c'est le cas relis ce que j'ai dit plus haut.

>LeFauve42
J'ai un système de statistiques fait moi-même donc je gère les robots... moi-même, normal, ça va pas se faire tout seul.
TheSin Messages postés 331 Date d'inscription mardi 12 novembre 2002 Statut Membre Dernière intervention 10 février 2009
14 août 2007 à 12:03
Merci pour la précision LeFauve42, je ne savais pas que leur signature ne changeait jamais au fil du temps ^^
LeFauve42 Messages postés 239 Date d'inscription vendredi 20 octobre 2006 Statut Membre Dernière intervention 20 avril 2009
14 août 2007 à 11:06
Salut,

Je suis d'accord avec l'idee generale: Ca ne devrait meme pas exister...
Pourquoi tu ne vire carrement pas tout le contenu de ta page pour le robot de validation? tu lui passe un truc genre "<html></html>" et tu auras sans doute un code valide sans erreurs... (avec un doctype avant, mais j'ai la fleme de faire un copier/coller :o) )

Pourtant je n'aime pas casser mais la, serieux, ca sert vraiment a rien ton "truc". De plus, je serais tres etonne que les outils de stats modernes ne gerent pas correctement les robots...

> style="height=XXX"

En plus, c'est:
style="height:XXX"

>Sa bogue aussi avec FireFox,
>Je sais pas quelle navigateur tu utilise mais sa a pas l'air de bien marcher sur bcp
>de navigateur...

Il utilise certainement "Validator" :o)


>là je ne suis pas tout à fait d'accord, mieux vaut être insensible à la casse non ?
>On sait jamais, ils peuvent toujours changer la casse ...

L'utilite de ce genre de signatures est justement de rester constant... Si ils s'amusaient a les changer tout le temps, ca ne servirait a rien...

Poste nous vite un source vraiment utile pour nous faire oublier celui-ci, je suis sur que tu peux le faire ! :o)
Eric

NB: Je ne voudrais pas faire de pub mais pour eviter d'avoir des pages non valides, utilisez un editeur qui les detecte a la volee comme PhpDesigner2007. Ca ne marche pas a 100% bien sur (a cause du code genere) mais en principe il ne reste plus grand chose a verifier a la fin).
TheSin Messages postés 331 Date d'inscription mardi 12 novembre 2002 Statut Membre Dernière intervention 10 février 2009
14 août 2007 à 10:29
là je ne suis pas tout à fait d'accord, mieux vaut être insensible à la casse non ?
On sait jamais, ils peuvent toujours changer la casse ...
frank_85 Messages postés 6 Date d'inscription lundi 10 octobre 2005 Statut Membre Dernière intervention 25 août 2008
14 août 2007 à 09:49
déjà ce n'est pas stripos mais strpos....
Rudy3212 Messages postés 154 Date d'inscription vendredi 20 août 2004 Statut Membre Dernière intervention 31 décembre 2007
14 août 2007 à 00:03
Sa bogue aussi avec FireFox,
Je sais pas quelle navigateur tu utilise mais sa a pas l'air de bien marcher sur bcp de navigateur...
TheSin Messages postés 331 Date d'inscription mardi 12 novembre 2002 Statut Membre Dernière intervention 10 février 2009
13 août 2007 à 21:04
Ah bin c'est bien ce que je me disais alors ....
Merci coucou747 ;-)
coucou747 Messages postés 12303 Date d'inscription mardi 10 février 2004 Statut Membre Dernière intervention 30 juillet 2012 44
13 août 2007 à 20:48
TheSin Messages postés 331 Date d'inscription mardi 12 novembre 2002 Statut Membre Dernière intervention 10 février 2009
13 août 2007 à 20:41
C'est drole, la page que tu nous a donné, lors de l'inscription, bin ça bogue et pas qu'un peu avec IE7 !
J'ai pas vérifié la validité, mais un site où mon navigateur me dit qu'il y a des erreurs javascript sur la page, où j'ai du texte par dessus d'autre qui les rend illisible, et où je ne peux même pas cliquer dans un textarea, on va pas me dire que c'est valide quand même. Si ?
kylekatarnls Messages postés 35 Date d'inscription dimanche 4 février 2007 Statut Membre Dernière intervention 1 juillet 2008
13 août 2007 à 20:02
Mon site perso est une épave construit morceau par morceau, voici mon dernier site que j'ai codé ou vous constaterez que le code est valide sans triche même pour les flux :
http://galerie.images.free.fr/
Et moi je n'ai fait ça que pour aider, c'est comme dit plus haut en excluant les validateurs et le robot google de mes statistiques que cette idée m'est venue.
Je ne veux pas apprendre à qui que ce soit à faire des if else juste que strpos() permet de savoir si un mot est contenu dans l'user-agent de la seule manière que celle qui est montrée, car je le répète strpos() ne renvoie jamais true ! et je fournis au passage les mots qu'on trouve dans les UA des validateurs, pour info toujours, le robot google est détectable avec Googlebot
kylekatarnls Messages postés 35 Date d'inscription dimanche 4 février 2007 Statut Membre Dernière intervention 1 juillet 2008
13 août 2007 à 19:49
>Renfield
strpos ne renvoie pas true ou false mais un nombre ou false et c'est là la méthode prescrite par www.php.net.
Rudy3212 Messages postés 154 Date d'inscription vendredi 20 août 2004 Statut Membre Dernière intervention 31 décembre 2007
13 août 2007 à 18:15
Oui j'ai regarder le code est pas terrible, ya juste une condition mais.
Je voulait pas mettre 1, je pense que meme si une source est nulle, c'est quand même un programme que quelqu'un a fait et peut intérésser quelqu'un d'autre.
L'autheur l'a partager car il trouve peut-etre que c'est bien est aparament d'autre aussi.

Je pense que aucune source mérite 1 ou 2 donc j'ai un peu remonter le niveau.
coucou747 Messages postés 12303 Date d'inscription mardi 10 février 2004 Statut Membre Dernière intervention 30 juillet 2012 44
13 août 2007 à 17:56
Renfield :
"(false!== euh... c'est true=== en fait, non ? ^^)"

max@max-laptop:~$ php -r "echo (0!==false)."\n";"
1
max@max-laptop:~$ php -r "echo (0===true)."\n";"

max@max-laptop:~$

conclusion : tu te trompes... si t'as === ou !== t'as aussi une question de types de donnees...

rudy3212...
"Je met 5/10. Car il y a aussi le code qui compte pas que sont utilité."
si tu regardes le code... bah t'as rien de bien bien joli dedans... c'est juste un pauvre morceau de code qui contient deux conditions...
ordiman85 Messages postés 41 Date d'inscription samedi 4 mars 2006 Statut Membre Dernière intervention 19 mars 2010
13 août 2007 à 17:42
1. L'idée de détecter si GoogleBot passe me plaît, par exemple pour afficher le contenu de la page sans balises html à la place pour ne pas "polluer" l'exploration du robot et ainsi être mieux placé sans vraiment tricher. :)

2. Pour valider son code w3c, c'est pas compliqué, il suffit d'apprendre le XHTML (recommandé puisque le HTML simple tend à disparaitre) sur ce site :
http://xhtml.le-developpeur-web.com/index.php
Il dit simplement les grosses règles à respecter, franchement y a pas de quoi paniquer !

3. Moi j'aurais proposé l'idée (qui est dans ma dernère source) de créer une classe pour générer des pages en XHTML Strict. La classe que j'ai faite n'est pas super, en revanche je compte utiliser DOM finalement (étendu au XHTML) dont je ne connaissais pas les avantages. Ceci a pour avantage de rendre le code plus propre en dissociant PHP et XHTML (un fichier 100% php = tout benef) et niveau performances ça va.

4. L'idée également des commentateurs de mettre la page en cache et la parser ensuite me plaît vraiment mais les charges serveur risquent d'être augmentées inutilement juste à cause d'un "post-traitement" qui peut être évité.

5. En ce qui concerne l'idée de cacher le mauvais code au validateur w3c, c'est vraiment nul !!! Ca ne respecte pas du tout l'esprit de faire un site de qualité accessible à tous :(
Rudy3212 Messages postés 154 Date d'inscription vendredi 20 août 2004 Statut Membre Dernière intervention 31 décembre 2007
13 août 2007 à 14:37
Je trouve cette idée vraiment nul désolé,
Je me fait chier a coder valide c'est pour avoir un site valide, pas un site qui fait semblant d'etre valide.

Tu m'es que ton site est valide alors qu'il contient 300 erreurs.
Si ton site n'est pas valide je voit pas pourquoi il faut le caché alors que meme avec ton astuce on le remarque très facilement.

Désolé mais la note je met pas 1 (même si j'ai envie :P),
Je met 5/10.
Car il y a aussi le code qui compte pas que sont utilité.
LaurentKOogar Messages postés 369 Date d'inscription samedi 4 septembre 2004 Statut Membre Dernière intervention 20 octobre 2013
13 août 2007 à 11:45
ce matin je m'en va faire apprendre le cloaking sur phpcs!! et personne ne tilt ici !! oki, je => []
Gwinyam Messages postés 47 Date d'inscription vendredi 7 octobre 2005 Statut Membre Dernière intervention 2 janvier 2008
13 août 2007 à 10:54
Le mieux est de développer proprement dès le début. Il y a déjà assez d'horreurs qui circulent sur le net pour qu'en plus on leur blanchisse la patte
Renfield Messages postés 17287 Date d'inscription mercredi 2 janvier 2002 Statut Modérateur Dernière intervention 27 septembre 2021 74
13 août 2007 à 08:49
Ce code source étrangement codé (false!== euh... c'est true=== en fait, non ? ^^)
a une certaine utilité, j'imagine...

on peut détourner les robots de certaines pages. je verrai plutot a ecarter les robots de referencement, remarques, car la validation XHTML est une bonne chose, là, tu fausse la donne.
Renfield Messages postés 17287 Date d'inscription mercredi 2 janvier 2002 Statut Modérateur Dernière intervention 27 septembre 2021 74
13 août 2007 à 08:40
source renommée.
Le titre présente mieux le contenu de la source.

Renfield - Admin CS
alover971 Messages postés 8 Date d'inscription samedi 25 février 2006 Statut Membre Dernière intervention 30 novembre 2007
13 août 2007 à 08:18
Je confirme ... très décevant.. "cacher" les erreurs..
faudrait peut être rappeler à quoi sert de rendre son site XHTML..
Mais bon, c'est pas grave .. Moi je vais bosser, c'est l'heure :)
Et je vais faire du VRAI XHTML, hein, pti tricheur ;)
Superjun Messages postés 10 Date d'inscription mardi 16 décembre 2003 Statut Membre Dernière intervention 13 août 2007
13 août 2007 à 01:58
Ca s'appelle cacher la merde au chat...
Quand on fait correctement son site, on essaie d'éviter les erreurs dès le départ. Quand on fait correctement son site, surtout en PHP, quand il y a 500 erreurs c'est qu'il faut juste modifier 2-3 lignes de ton code pour toutes les corriger d'un coup.

Quand on a une conscience professionnelle, c'est la chose la plus décevante qu'on puisse voir.
Je te mets 1, parce qu'on ne peut pas mettre zéro. Je ne sais pas si une source peut être supprimmée par un modérateur; celle-ci le mériterait amplement.

Ta méthode peut-être utile (par exemple, comme tu l'as dit, pour écarter les robots des statistiques... quoique...) Alors présente-là ici dans sa tournure utile, au lieu de poster "ça"...
TheSin Messages postés 331 Date d'inscription mardi 12 novembre 2002 Statut Membre Dernière intervention 10 février 2009
11 août 2007 à 16:03
tient, je ne savais pas que la condition ternaire était plus lente :/
merci pour l'info :-) (a jamais fait de bench dessus)
tu as un bench sous la main coucou747 pour estimer le gain à gagner en remplaçant par des conditions classiques stp ?
coucou747 Messages postés 12303 Date d'inscription mardi 10 février 2004 Statut Membre Dernière intervention 30 juillet 2012 44
11 août 2007 à 15:28
si chaque fois que je tapais 22 lignes.... bref...

* <?php
* // Au début de votre page :
* if( false!= =stripos($_SERVER['HTTP_USER_AGENT'],'Validator')
* || false!==stripos($_SERVER['HTTP_USER_AGENT'],'checklink') ) )
* define("ROBOT",true); // POURQUOI ICI T'as des " et au dessus des ' ????
* else
* define("ROBOT",false);
* ?>
* <!-- ICI VOTRE PAGE -->
* <?php
* //Ici on imagine que est le morceau de votre page où il y a un problème (exemple la balise <link> de votre style CSS pour le validateur CSS ou bien tout le ... pour le Html
* if(!ROBOT) {
* ?><? // pourquoi tu mets des short tags ???
* }
* //Ne s'affichera que si le visiteur n'est pas un robot W3C
* ?>
* <?php
* //Autre exemple : le validateur Feed (RSS et Atom)
* $fichier =(ROBOT)? "le_faux.xml":"le_vrai.xml"; // pourquoi tu mets des " ??? et la condition ternaire c'est plus lent !
* echo '<link rel="alternate" type="application/rss+xml" href="./'.$fichier.'" />';
* //En plaçant ce code dans la balise head, les visiteurs trouveront le_vrai.xml en ouvrant votre RSS et les robots tomberont sur le_faux.xml
* ?>



ca te convient comme commentaire ??? c'est exactement ce que j'ai dit au depart, mais en plus detaille....

de plus, sur 22 lignes, on a tous les memes remarques, c'est normal
jdalton42 Messages postés 200 Date d'inscription samedi 25 décembre 2004 Statut Membre Dernière intervention 19 août 2009
11 août 2007 à 15:11
cette source n'a pas sa place sur phpcs, c'est sa qu'on te dit si c'était pas clair et si on veut poster chacun a notre tour le meme commentaire, c'est notre droit ok ?! maintenant tu as raison, je vote 1. peace
kylekatarnls Messages postés 35 Date d'inscription dimanche 4 février 2007 Statut Membre Dernière intervention 1 juillet 2008
11 août 2007 à 15:09
Non je n'ai pas voté ma source,
mes sites sont conforme au W3C et j'utilise cette méthode de détection pour écarter les robots de mes statistiques "visiteurs".

Ensuite l'idée du parseur ob_start() est bonne je vais m'y tenter.

Ce n'est qu'une source pour aider ceux à qui elle peut servir, je l'ai posé hier et y a déjà 13 commentaires, bravo, dommage que les sources ne tombent pas aussi vite... Je vous suggère donc de vous contenter de noter le code au lieu de laisser chacun votre tour le même commentaire.

Merci,
KyleK
coucou747 Messages postés 12303 Date d'inscription mardi 10 février 2004 Statut Membre Dernière intervention 30 juillet 2012 44
11 août 2007 à 14:23
probablement un double compte...
TheSin Messages postés 331 Date d'inscription mardi 12 novembre 2002 Statut Membre Dernière intervention 10 février 2009
11 août 2007 à 14:09
A c'est fort ça, personne n'aime beaucoup la source, mais y'a quand même un 10 de voté o_0
Si celui qui a voté cette note pouvait commenter .... merci.
webdeb Messages postés 488 Date d'inscription samedi 5 avril 2003 Statut Membre Dernière intervention 31 mars 2009 4
11 août 2007 à 14:00
Ah wai pas mal le code. J'en avais jamais vu d'aussi utile ^^ Pour la peine je vote 2 pour l'effort de recherche et d'écriture du code.
coucou747 Messages postés 12303 Date d'inscription mardi 10 février 2004 Statut Membre Dernière intervention 30 juillet 2012 44
11 août 2007 à 13:55
style="height=XXX"
c'est valide xhtml pas css...
apxa Messages postés 188 Date d'inscription mercredi 15 mai 2002 Statut Membre Dernière intervention 25 avril 2009
11 août 2007 à 13:44
iop,
le mieux aurait été de faire un parser de source afin de modifier automatiquement les fautes non conforme au w3c par exemple fermeture de balise ou remplacement de height=XXX dans un TD par style="height=XXX" etc.

Have Fun ;)
TheSin Messages postés 331 Date d'inscription mardi 12 novembre 2002 Statut Membre Dernière intervention 10 février 2009
11 août 2007 à 11:31
mince, jme suis fait eu !
moi qui pensait aussi à quelque chose du genre de TiDy :(.
Rien que le principe du source est décevant.
Seul avantage => apprendre à détecter un robot, qui devrait plus se trouver dans les snippets.
jdalton42 Messages postés 200 Date d'inscription samedi 25 décembre 2004 Statut Membre Dernière intervention 19 août 2009
11 août 2007 à 10:58
arf ouais je pensais avoir trouver la solution miracle qui modifierais mon code html pour qu'il soit au normes et bah non... décevant
coucou747 Messages postés 12303 Date d'inscription mardi 10 février 2004 Statut Membre Dernière intervention 30 juillet 2012 44
10 août 2007 à 23:26
c'est clair que quand tu cliques t'imagines un ob_start, un getContent, et un pti parseur genre tidy pour la suite, histoire de mettre le code automatiquement a la norme, et de facon intelligente... en fait non...
kishkaya Messages postés 365 Date d'inscription samedi 26 juin 2004 Statut Membre Dernière intervention 17 avril 2008
10 août 2007 à 23:22
En gros t'as fait un script qui cache les trucs non valides au validator w3c...
En gros la question c'est : a quoi ca sert de valider un site avec sa DTD ?
Si c'est pour avoir le logo sur son site, tu peux le trouver sur google image et mettre un lien avec l'adresse d'un site valide ...

Je vote pas c'est décevant
cs_MATHIS49 Messages postés 368 Date d'inscription vendredi 10 octobre 2003 Statut Membre Dernière intervention 14 mai 2010 1
10 août 2007 à 22:03
Ce script, c'est comme un vin de table Super U sur lequel on met une étiquette "Château Lafite", ça trompera peut être les néophytes mais surement pas les sommeliers ...
pthc Messages postés 2 Date d'inscription mardi 7 août 2007 Statut Membre Dernière intervention 10 août 2007
10 août 2007 à 20:39
T'es méchant coucou, il y a quand même deux conditions!

Bon, un tel code n'a pas vraiment sa place ici, c'est un endroit de codeurs, pas de gens qui trichent sur leur sites, qui plus est avec du simple code html!
coucou747 Messages postés 12303 Date d'inscription mardi 10 février 2004 Statut Membre Dernière intervention 30 juillet 2012 44
10 août 2007 à 16:36
c'est une petite astuce pas forcement bien codee qui rendra service a ceux qui pourissent le net de choses ignobles...

<? -> <?php

" -> '

quand au fait que ca ne soit qu'une condition... bah... on va mettre 3
Rejoignez-nous