MASQUER VOTRE CODE AUX ROBOTS VALIDEURS W3C

Messages postés
12303
Date d'inscription
mardi 10 février 2004
Statut
Modérateur
Dernière intervention
30 juillet 2012
- - Dernière réponse : LaurentKOogar
Messages postés
369
Date d'inscription
samedi 4 septembre 2004
Statut
Membre
Dernière intervention
20 octobre 2013
- 26 août 2007 à 04:29
Cette discussion concerne un article du site. Pour la consulter dans son contexte d'origine, cliquez sur le lien ci-dessous.

https://codes-sources.commentcamarche.net/source/43730-masquer-votre-code-aux-robots-valideurs-w3c

coucou747
Messages postés
12303
Date d'inscription
mardi 10 février 2004
Statut
Modérateur
Dernière intervention
30 juillet 2012
30 -
c'est une petite astuce pas forcement bien codee qui rendra service a ceux qui pourissent le net de choses ignobles...

<? -> <?php

" -> '

quand au fait que ca ne soit qu'une condition... bah... on va mettre 3
pthc
Messages postés
2
Date d'inscription
mardi 7 août 2007
Statut
Membre
Dernière intervention
10 août 2007
-
T'es méchant coucou, il y a quand même deux conditions!

Bon, un tel code n'a pas vraiment sa place ici, c'est un endroit de codeurs, pas de gens qui trichent sur leur sites, qui plus est avec du simple code html!
cs_MATHIS49
Messages postés
370
Date d'inscription
vendredi 10 octobre 2003
Statut
Membre
Dernière intervention
14 mai 2010
-
Ce script, c'est comme un vin de table Super U sur lequel on met une étiquette "Château Lafite", ça trompera peut être les néophytes mais surement pas les sommeliers ...
kishkaya
Messages postés
365
Date d'inscription
samedi 26 juin 2004
Statut
Membre
Dernière intervention
17 avril 2008
-
En gros t'as fait un script qui cache les trucs non valides au validator w3c...
En gros la question c'est : a quoi ca sert de valider un site avec sa DTD ?
Si c'est pour avoir le logo sur son site, tu peux le trouver sur google image et mettre un lien avec l'adresse d'un site valide ...

Je vote pas c'est décevant
coucou747
Messages postés
12303
Date d'inscription
mardi 10 février 2004
Statut
Modérateur
Dernière intervention
30 juillet 2012
30 -
c'est clair que quand tu cliques t'imagines un ob_start, un getContent, et un pti parseur genre tidy pour la suite, histoire de mettre le code automatiquement a la norme, et de facon intelligente... en fait non...
jdalton42
Messages postés
200
Date d'inscription
samedi 25 décembre 2004
Statut
Membre
Dernière intervention
19 août 2009
-
arf ouais je pensais avoir trouver la solution miracle qui modifierais mon code html pour qu'il soit au normes et bah non... décevant
TheSin
Messages postés
331
Date d'inscription
mardi 12 novembre 2002
Statut
Membre
Dernière intervention
10 février 2009
-
mince, jme suis fait eu !
moi qui pensait aussi à quelque chose du genre de TiDy :(.
Rien que le principe du source est décevant.
Seul avantage => apprendre à détecter un robot, qui devrait plus se trouver dans les snippets.
apxa
Messages postés
188
Date d'inscription
mercredi 15 mai 2002
Statut
Membre
Dernière intervention
25 avril 2009
-
iop,
le mieux aurait été de faire un parser de source afin de modifier automatiquement les fautes non conforme au w3c par exemple fermeture de balise ou remplacement de height=XXX dans un TD par style="height=XXX" etc.

Have Fun ;)
coucou747
Messages postés
12303
Date d'inscription
mardi 10 février 2004
Statut
Modérateur
Dernière intervention
30 juillet 2012
30 -
style="height=XXX"
c'est valide xhtml pas css...
webdeb
Messages postés
509
Date d'inscription
samedi 5 avril 2003
Statut
Membre
Dernière intervention
31 mars 2009
3 -
Ah wai pas mal le code. J'en avais jamais vu d'aussi utile ^^ Pour la peine je vote 2 pour l'effort de recherche et d'écriture du code.
TheSin
Messages postés
331
Date d'inscription
mardi 12 novembre 2002
Statut
Membre
Dernière intervention
10 février 2009
-
A c'est fort ça, personne n'aime beaucoup la source, mais y'a quand même un 10 de voté o_0
Si celui qui a voté cette note pouvait commenter .... merci.
coucou747
Messages postés
12303
Date d'inscription
mardi 10 février 2004
Statut
Modérateur
Dernière intervention
30 juillet 2012
30 -
probablement un double compte...
kylekatarnls
Messages postés
35
Date d'inscription
dimanche 4 février 2007
Statut
Membre
Dernière intervention
1 juillet 2008
-
Non je n'ai pas voté ma source,
mes sites sont conforme au W3C et j'utilise cette méthode de détection pour écarter les robots de mes statistiques "visiteurs".

Ensuite l'idée du parseur ob_start() est bonne je vais m'y tenter.

Ce n'est qu'une source pour aider ceux à qui elle peut servir, je l'ai posé hier et y a déjà 13 commentaires, bravo, dommage que les sources ne tombent pas aussi vite... Je vous suggère donc de vous contenter de noter le code au lieu de laisser chacun votre tour le même commentaire.

Merci,
KyleK
jdalton42
Messages postés
200
Date d'inscription
samedi 25 décembre 2004
Statut
Membre
Dernière intervention
19 août 2009
-
cette source n'a pas sa place sur phpcs, c'est sa qu'on te dit si c'était pas clair et si on veut poster chacun a notre tour le meme commentaire, c'est notre droit ok ?! maintenant tu as raison, je vote 1. peace
coucou747
Messages postés
12303
Date d'inscription
mardi 10 février 2004
Statut
Modérateur
Dernière intervention
30 juillet 2012
30 -
si chaque fois que je tapais 22 lignes.... bref...

* <?php
* // Au début de votre page :
* if( false!= =stripos($_SERVER['HTTP_USER_AGENT'],'Validator')
* || false!==stripos($_SERVER['HTTP_USER_AGENT'],'checklink') ) )
* define("ROBOT",true); // POURQUOI ICI T'as des " et au dessus des ' ????
* else
* define("ROBOT",false);
* ?>
* <!-- ICI VOTRE PAGE -->
* <?php
* //Ici on imagine que est le morceau de votre page où il y a un problème (exemple la balise <link> de votre style CSS pour le validateur CSS ou bien tout le ... pour le Html
* if(!ROBOT) {
* ?><? // pourquoi tu mets des short tags ???
* }
* //Ne s'affichera que si le visiteur n'est pas un robot W3C
* ?>
* <?php
* //Autre exemple : le validateur Feed (RSS et Atom)
* $fichier =(ROBOT)? "le_faux.xml":"le_vrai.xml"; // pourquoi tu mets des " ??? et la condition ternaire c'est plus lent !
* echo '<link rel="alternate" type="application/rss+xml" href="./'.$fichier.'" />';
* //En plaçant ce code dans la balise head, les visiteurs trouveront le_vrai.xml en ouvrant votre RSS et les robots tomberont sur le_faux.xml
* ?>



ca te convient comme commentaire ??? c'est exactement ce que j'ai dit au depart, mais en plus detaille....

de plus, sur 22 lignes, on a tous les memes remarques, c'est normal
TheSin
Messages postés
331
Date d'inscription
mardi 12 novembre 2002
Statut
Membre
Dernière intervention
10 février 2009
-
tient, je ne savais pas que la condition ternaire était plus lente :/
merci pour l'info :-) (a jamais fait de bench dessus)
tu as un bench sous la main coucou747 pour estimer le gain à gagner en remplaçant par des conditions classiques stp ?
Superjun
Messages postés
10
Date d'inscription
mardi 16 décembre 2003
Statut
Membre
Dernière intervention
13 août 2007
-
Ca s'appelle cacher la merde au chat...
Quand on fait correctement son site, on essaie d'éviter les erreurs dès le départ. Quand on fait correctement son site, surtout en PHP, quand il y a 500 erreurs c'est qu'il faut juste modifier 2-3 lignes de ton code pour toutes les corriger d'un coup.

Quand on a une conscience professionnelle, c'est la chose la plus décevante qu'on puisse voir.
Je te mets 1, parce qu'on ne peut pas mettre zéro. Je ne sais pas si une source peut être supprimmée par un modérateur; celle-ci le mériterait amplement.

Ta méthode peut-être utile (par exemple, comme tu l'as dit, pour écarter les robots des statistiques... quoique...) Alors présente-là ici dans sa tournure utile, au lieu de poster "ça"...
alover971
Messages postés
8
Date d'inscription
samedi 25 février 2006
Statut
Membre
Dernière intervention
30 novembre 2007
-
Je confirme ... très décevant.. "cacher" les erreurs..
faudrait peut être rappeler à quoi sert de rendre son site XHTML..
Mais bon, c'est pas grave .. Moi je vais bosser, c'est l'heure :)
Et je vais faire du VRAI XHTML, hein, pti tricheur ;)
Renfield
Messages postés
17286
Date d'inscription
mercredi 2 janvier 2002
Statut
Modérateur
Dernière intervention
23 décembre 2019
60 -
source renommée.
Le titre présente mieux le contenu de la source.

Renfield - Admin CS
Renfield
Messages postés
17286
Date d'inscription
mercredi 2 janvier 2002
Statut
Modérateur
Dernière intervention
23 décembre 2019
60 -
Ce code source étrangement codé (false!== euh... c'est true=== en fait, non ? ^^)
a une certaine utilité, j'imagine...

on peut détourner les robots de certaines pages. je verrai plutot a ecarter les robots de referencement, remarques, car la validation XHTML est une bonne chose, là, tu fausse la donne.
Gwinyam
Messages postés
47
Date d'inscription
vendredi 7 octobre 2005
Statut
Membre
Dernière intervention
2 janvier 2008
-
Le mieux est de développer proprement dès le début. Il y a déjà assez d'horreurs qui circulent sur le net pour qu'en plus on leur blanchisse la patte
LaurentKOogar
Messages postés
369
Date d'inscription
samedi 4 septembre 2004
Statut
Membre
Dernière intervention
20 octobre 2013
-
ce matin je m'en va faire apprendre le cloaking sur phpcs!! et personne ne tilt ici !! oki, je => []
Rudy3212
Messages postés
156
Date d'inscription
vendredi 20 août 2004
Statut
Membre
Dernière intervention
31 décembre 2007
-
Je trouve cette idée vraiment nul désolé,
Je me fait chier a coder valide c'est pour avoir un site valide, pas un site qui fait semblant d'etre valide.

Tu m'es que ton site est valide alors qu'il contient 300 erreurs.
Si ton site n'est pas valide je voit pas pourquoi il faut le caché alors que meme avec ton astuce on le remarque très facilement.

Désolé mais la note je met pas 1 (même si j'ai envie :P),
Je met 5/10.
Car il y a aussi le code qui compte pas que sont utilité.
ordiman85
Messages postés
41
Date d'inscription
samedi 4 mars 2006
Statut
Membre
Dernière intervention
19 mars 2010
-
1. L'idée de détecter si GoogleBot passe me plaît, par exemple pour afficher le contenu de la page sans balises html à la place pour ne pas "polluer" l'exploration du robot et ainsi être mieux placé sans vraiment tricher. :)

2. Pour valider son code w3c, c'est pas compliqué, il suffit d'apprendre le XHTML (recommandé puisque le HTML simple tend à disparaitre) sur ce site :
http://xhtml.le-developpeur-web.com/index.php
Il dit simplement les grosses règles à respecter, franchement y a pas de quoi paniquer !

3. Moi j'aurais proposé l'idée (qui est dans ma dernère source) de créer une classe pour générer des pages en XHTML Strict. La classe que j'ai faite n'est pas super, en revanche je compte utiliser DOM finalement (étendu au XHTML) dont je ne connaissais pas les avantages. Ceci a pour avantage de rendre le code plus propre en dissociant PHP et XHTML (un fichier 100% php = tout benef) et niveau performances ça va.

4. L'idée également des commentateurs de mettre la page en cache et la parser ensuite me plaît vraiment mais les charges serveur risquent d'être augmentées inutilement juste à cause d'un "post-traitement" qui peut être évité.

5. En ce qui concerne l'idée de cacher le mauvais code au validateur w3c, c'est vraiment nul !!! Ca ne respecte pas du tout l'esprit de faire un site de qualité accessible à tous :(
coucou747
Messages postés
12303
Date d'inscription
mardi 10 février 2004
Statut
Modérateur
Dernière intervention
30 juillet 2012
30 -
Renfield :
"(false!== euh... c'est true=== en fait, non ? ^^)"

max@max-laptop:~$ php -r "echo (0!==false)."\n";"
1
max@max-laptop:~$ php -r "echo (0===true)."\n";"

max@max-laptop:~$

conclusion : tu te trompes... si t'as === ou !== t'as aussi une question de types de donnees...

rudy3212...
"Je met 5/10. Car il y a aussi le code qui compte pas que sont utilité."
si tu regardes le code... bah t'as rien de bien bien joli dedans... c'est juste un pauvre morceau de code qui contient deux conditions...
Rudy3212
Messages postés
156
Date d'inscription
vendredi 20 août 2004
Statut
Membre
Dernière intervention
31 décembre 2007
-
Oui j'ai regarder le code est pas terrible, ya juste une condition mais.
Je voulait pas mettre 1, je pense que meme si une source est nulle, c'est quand même un programme que quelqu'un a fait et peut intérésser quelqu'un d'autre.
L'autheur l'a partager car il trouve peut-etre que c'est bien est aparament d'autre aussi.

Je pense que aucune source mérite 1 ou 2 donc j'ai un peu remonter le niveau.
kylekatarnls
Messages postés
35
Date d'inscription
dimanche 4 février 2007
Statut
Membre
Dernière intervention
1 juillet 2008
-
>Renfield
strpos ne renvoie pas true ou false mais un nombre ou false et c'est là la méthode prescrite par www.php.net.
kylekatarnls
Messages postés
35
Date d'inscription
dimanche 4 février 2007
Statut
Membre
Dernière intervention
1 juillet 2008
-
Mon site perso est une épave construit morceau par morceau, voici mon dernier site que j'ai codé ou vous constaterez que le code est valide sans triche même pour les flux :
http://galerie.images.free.fr/
Et moi je n'ai fait ça que pour aider, c'est comme dit plus haut en excluant les validateurs et le robot google de mes statistiques que cette idée m'est venue.
Je ne veux pas apprendre à qui que ce soit à faire des if else juste que strpos() permet de savoir si un mot est contenu dans l'user-agent de la seule manière que celle qui est montrée, car je le répète strpos() ne renvoie jamais true ! et je fournis au passage les mots qu'on trouve dans les UA des validateurs, pour info toujours, le robot google est détectable avec Googlebot
TheSin
Messages postés
331
Date d'inscription
mardi 12 novembre 2002
Statut
Membre
Dernière intervention
10 février 2009
-
C'est drole, la page que tu nous a donné, lors de l'inscription, bin ça bogue et pas qu'un peu avec IE7 !
J'ai pas vérifié la validité, mais un site où mon navigateur me dit qu'il y a des erreurs javascript sur la page, où j'ai du texte par dessus d'autre qui les rend illisible, et où je ne peux même pas cliquer dans un textarea, on va pas me dire que c'est valide quand même. Si ?
coucou747
Messages postés
12303
Date d'inscription
mardi 10 février 2004
Statut
Modérateur
Dernière intervention
30 juillet 2012
30 -
TheSin
Messages postés
331
Date d'inscription
mardi 12 novembre 2002
Statut
Membre
Dernière intervention
10 février 2009
-
Ah bin c'est bien ce que je me disais alors ....
Merci coucou747 ;-)
Rudy3212
Messages postés
156
Date d'inscription
vendredi 20 août 2004
Statut
Membre
Dernière intervention
31 décembre 2007
-
Sa bogue aussi avec FireFox,
Je sais pas quelle navigateur tu utilise mais sa a pas l'air de bien marcher sur bcp de navigateur...
frank_85
Messages postés
6
Date d'inscription
lundi 10 octobre 2005
Statut
Membre
Dernière intervention
25 août 2008
-
déjà ce n'est pas stripos mais strpos....
TheSin
Messages postés
331
Date d'inscription
mardi 12 novembre 2002
Statut
Membre
Dernière intervention
10 février 2009
-
là je ne suis pas tout à fait d'accord, mieux vaut être insensible à la casse non ?
On sait jamais, ils peuvent toujours changer la casse ...
LeFauve42
Messages postés
239
Date d'inscription
vendredi 20 octobre 2006
Statut
Membre
Dernière intervention
20 avril 2009
-
Salut,

Je suis d'accord avec l'idee generale: Ca ne devrait meme pas exister...
Pourquoi tu ne vire carrement pas tout le contenu de ta page pour le robot de validation? tu lui passe un truc genre "<html></html>" et tu auras sans doute un code valide sans erreurs... (avec un doctype avant, mais j'ai la fleme de faire un copier/coller :o) )

Pourtant je n'aime pas casser mais la, serieux, ca sert vraiment a rien ton "truc". De plus, je serais tres etonne que les outils de stats modernes ne gerent pas correctement les robots...

> style="height=XXX"

En plus, c'est:
style="height:XXX"

>Sa bogue aussi avec FireFox,
>Je sais pas quelle navigateur tu utilise mais sa a pas l'air de bien marcher sur bcp
>de navigateur...

Il utilise certainement "Validator" :o)


>là je ne suis pas tout à fait d'accord, mieux vaut être insensible à la casse non ?
>On sait jamais, ils peuvent toujours changer la casse ...

L'utilite de ce genre de signatures est justement de rester constant... Si ils s'amusaient a les changer tout le temps, ca ne servirait a rien...

Poste nous vite un source vraiment utile pour nous faire oublier celui-ci, je suis sur que tu peux le faire ! :o)
Eric

NB: Je ne voudrais pas faire de pub mais pour eviter d'avoir des pages non valides, utilisez un editeur qui les detecte a la volee comme PhpDesigner2007. Ca ne marche pas a 100% bien sur (a cause du code genere) mais en principe il ne reste plus grand chose a verifier a la fin).
TheSin
Messages postés
331
Date d'inscription
mardi 12 novembre 2002
Statut
Membre
Dernière intervention
10 février 2009
-
Merci pour la précision LeFauve42, je ne savais pas que leur signature ne changeait jamais au fil du temps ^^
kylekatarnls
Messages postés
35
Date d'inscription
dimanche 4 février 2007
Statut
Membre
Dernière intervention
1 juillet 2008
-
>frank_85
Arrêtez de parler de ce que vous savez pas, stripos c'est un strpos insensible à la casse.
http://galerie.images.free.fr/ n'est pas terminé, merci pour l'info, je n'avais pas testé la page d'inscription.

>TheSin
Je n'ai pas IE 7 mais étant donné que sous IE 6 ce site marche très bien je pense que tu parlais de bmwx.free.fr et non de galerie.images.free.fr, si c'est le cas relis ce que j'ai dit plus haut.

>LeFauve42
J'ai un système de statistiques fait moi-même donc je gère les robots... moi-même, normal, ça va pas se faire tout seul.
cs_Donald_Duck
Messages postés
11
Date d'inscription
mercredi 17 novembre 2004
Statut
Membre
Dernière intervention
14 août 2007
-
Je trouve le principe de faire semblant de respecter les normes assez aberrant. Après celui qui on accuse les navigateurs web de ne pas savoir interpréter correctement les codes des sites qui respectent soit disant les recommandations W3C. Il serait bien de ne pas inciter ceux qui débutent a ne faire aucun effort.
TheSin
Messages postés
331
Date d'inscription
mardi 12 novembre 2002
Statut
Membre
Dernière intervention
10 février 2009
-
@kylekatarnls :
Et bin écoute, je crois que c'est bien Galerie :
http://galerie.images.free.fr/?page=creation_compte
Et comme IE7 est bien plus aux normes que le 6, ne dis pas que le site est aux normes stp, même sous FireFox 2 ça bogue, donc c'est que c'est pas le navigateur qui est en cause.
Ceci dit, si il est pas fini, bon, ok, t'as juste encore du mal à te faire aux normes xHTML, mais encore une fois, ne dit pas d'un site (et j'insiste, d'un site !) qu'il est aux normes si la page d'inscription ne l'est pas, qui plus est que c'est, je crois, le point de départ où tout utilisateur va vouloir aller sur de tel genre de site.

@Donald_Duck : Entièrement d'accord, ce principe est abhérant.

Pour rester positif sur le source, il est toutefois intéressant pour détecter les robots, mais dans ce cas il faudrait un jour recommenter ce code !
Et je trouve encore plus abhérant que tu n'ai toujours pas modifié tout ce source apres 39 commentaires ....


PS: IE 6 n'est pas une référence pour faire du Web, et je crois qu'on teste quasiement tous ici de l'html sous plusieurs navigateurs ;-) (Opera, FireFox, IE, Netscape, et j'en passe)
kylekatarnls
Messages postés
35
Date d'inscription
dimanche 4 février 2007
Statut
Membre
Dernière intervention
1 juillet 2008
-
Et bien je me fie à mes visites pour le navigateur, d'abord FF 2 ensuite IE 6 et j'ai donc 90% d'utilisateurs dans cette fourchette. Cette source je la laisse et j'en ferais d'autres. Sinon on s'est mal compris, les bugs pour moi c'est quand une page ne peut pas être lue correctement et non quand elle n'est pas valide. Si c'est un bug, détaille que je corrige et donne-moi ta config STP.
kylekatarnls
Messages postés
35
Date d'inscription
dimanche 4 février 2007
Statut
Membre
Dernière intervention
1 juillet 2008
-
Ah oui *** je n'avais pas vu ça c'est du à une modification récente faite sur ma fonction callback de sortie, je viens de corriger ça, la page est de nouveau lisible.

Merci de m'avoir prévenu.
Rudy3212
Messages postés
156
Date d'inscription
vendredi 20 août 2004
Statut
Membre
Dernière intervention
31 décembre 2007
-
Quand je valide le html de la page j'ai 110 Erreurs, quand je valide ta page en entrant l'url j'ai 0 erreur.
Ya pas un bogue ?

Ha oui aussi pourquoi mettre 40 000 espace devant le code ?
Sa ne cache pas ton code source c'est absolument inutile.

Quand on affiche le code source on a 398 lignes, le validateur n'en voit que 324...
coucou747
Messages postés
12303
Date d'inscription
mardi 10 février 2004
Statut
Modérateur
Dernière intervention
30 juillet 2012
30 -
rudy... c'est a ca que sert ce code... relis le, tu verras pourquoi...
Rudy3212
Messages postés
156
Date d'inscription
vendredi 20 août 2004
Statut
Membre
Dernière intervention
31 décembre 2007
-
Ha oui effectivement, je penser que le système afficher une fausse par au w3c, alors que la il y a tout le site moins quelque parti :P
kylekatarnls
Messages postés
35
Date d'inscription
dimanche 4 février 2007
Statut
Membre
Dernière intervention
1 juillet 2008
-
Les lignes manquantes sont celles de Google Analytics, de PhpMyVisites et de mon propres générateur de statistiques (voir plus haut) car je ne veux pas que les robots faussent mes statistiques. L'histoire des 110 erreurs là je comprends pas ce que tu raconte, pour valider une page on entre son url ou bien "referer" si ça vient d'un lien et mes pages sont valides sauf peut-être au moment où je les modifie.
Rudy3212
Messages postés
156
Date d'inscription
vendredi 20 août 2004
Statut
Membre
Dernière intervention
31 décembre 2007
-
Oui mais comme sa tu peut tricher, alors moi j'entre le code html et pas l'url.
Comme sa sa passe les système comme le tient.
Bien sur je me fait pas chier a copier-coller le code, sa se fait de manière automatiser :P

Mais en copiant collant ton code il met 110 erreurs.
kylekatarnls
Messages postés
35
Date d'inscription
dimanche 4 février 2007
Statut
Membre
Dernière intervention
1 juillet 2008
-
Merci pour l'info, là je tombe de haut, j'ai en effet essayé et il y a les infos-bulles qui se trouvent dans mon pied de page avec les outils de statistiques, je les avais oublié. En désactivant les info-bulles, il n'y a plus d'erreur, donc il faut maintenant que je m'occupe de ça, c'était une excellente idée de poster cette source, d'ici les 10 prochains commentaires, je n'aurais plus aucune erreur oublié :D
kylekatarnls
Messages postés
35
Date d'inscription
dimanche 4 février 2007
Statut
Membre
Dernière intervention
1 juillet 2008
-
En fait non mes info-bulles ne sont pas dans le pied de page, c'est tout simplement que le validateur ne peut pas les activer ^^ lol alors forcément, ça m'est passé sous le nez.
kylekatarnls
Messages postés
35
Date d'inscription
dimanche 4 février 2007
Statut
Membre
Dernière intervention
1 juillet 2008
-
Ouf et voilà 110 erreurs d'un stupide écoeurant éliminées, toutefois j'ai constaté que la balise était invalide, ce que j'ignorais vu que j'en use peu, par contre j'utilise et plus souvent et le validateur les accepte, mais c'est pourtant du même ordre d'idée.

Alors si quelqu'un le sait est-ce qu'il vaut mieux ne pas utiliser et ou est-ce vraiment valide ?
coucou747
Messages postés
12303
Date d'inscription
mardi 10 février 2004
Statut
Modérateur
Dernière intervention
30 juillet 2012
30 -
c'est pas bien, vaut mieux separer contenu de contenant et faire ca en css
cyrphp
Messages postés
18
Date d'inscription
dimanche 17 octobre 2004
Statut
Membre
Dernière intervention
13 avril 2009
-
bonjour:

<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.1//EN" "http://www.w3.org/TR/xhtml11/DTD/xhtml11.dtd">

ton site embarque xhtml et xml ?

Ta source , a part faire venir du monde ne sert a rien, et pour repondre a tes question de validités , Informe toi sur l'utilité d'un doctype , de comment le choisir , et puis aussi , attention aussi a la divite !

Enfin , je crois que le sujet sur lequel tu glisse (w3c etc ...) nous meme un peu hors sujet sur ce site dedié a php .

Tu as voulu t'embarquer sur un sujet que tu ne connais pas vraiment encore , dommage ,... trop préssé peut-etre :) ?

sinon , jolie realisation , mais ton capcha ne fonctionne pas ou trop bien lol ...

Amicalement et bonne continuations
LaurentKOogar
Messages postés
369
Date d'inscription
samedi 4 septembre 2004
Statut
Membre
Dernière intervention
20 octobre 2013
-
C'est du CLOAKING !! => qui entrainera le BlakListage du site Sur Google a celui qui utilisera ce genre de code.

Perso, ca fait longtemps que j'aurais supprimer ce thread...

c'est presque imorale de laisser en ligne des codes qui pourrissent les sites pour les gros moteurs de recherche!!