coucou747
Messages postés12303Date d'inscriptionmardi 10 février 2004StatutMembreDernière intervention30 juillet 2012
-
10 août 2007 à 16:36
LaurentKOogar
Messages postés369Date d'inscriptionsamedi 4 septembre 2004StatutMembreDernière intervention20 octobre 2013
-
26 août 2007 à 04:29
Cette discussion concerne un article du site. Pour la consulter dans son contexte d'origine, cliquez sur le lien ci-dessous.
Ta source , a part faire venir du monde ne sert a rien, et pour repondre a tes question de validités , Informe toi sur l'utilité d'un doctype , de comment le choisir , et puis aussi , attention aussi a la divite !
Enfin , je crois que le sujet sur lequel tu glisse (w3c etc ...) nous meme un peu hors sujet sur ce site dedié a php .
Tu as voulu t'embarquer sur un sujet que tu ne connais pas vraiment encore , dommage ,... trop préssé peut-etre :) ?
sinon , jolie realisation , mais ton capcha ne fonctionne pas ou trop bien lol ...
Amicalement et bonne continuations
coucou747
Messages postés12303Date d'inscriptionmardi 10 février 2004StatutMembreDernière intervention30 juillet 201244 15 août 2007 à 22:41
c'est pas bien, vaut mieux separer contenu de contenant et faire ca en css
kylekatarnls
Messages postés35Date d'inscriptiondimanche 4 février 2007StatutMembreDernière intervention 1 juillet 2008 15 août 2007 à 22:27
Ouf et voilà 110 erreurs d'un stupide écoeurant éliminées, toutefois j'ai constaté que la balise était invalide, ce que j'ignorais vu que j'en use peu, par contre j'utilise et plus souvent et le validateur les accepte, mais c'est pourtant du même ordre d'idée.
Alors si quelqu'un le sait est-ce qu'il vaut mieux ne pas utiliser et ou est-ce vraiment valide ?
kylekatarnls
Messages postés35Date d'inscriptiondimanche 4 février 2007StatutMembreDernière intervention 1 juillet 2008 15 août 2007 à 22:07
En fait non mes info-bulles ne sont pas dans le pied de page, c'est tout simplement que le validateur ne peut pas les activer ^^ lol alors forcément, ça m'est passé sous le nez.
kylekatarnls
Messages postés35Date d'inscriptiondimanche 4 février 2007StatutMembreDernière intervention 1 juillet 2008 15 août 2007 à 22:05
Merci pour l'info, là je tombe de haut, j'ai en effet essayé et il y a les infos-bulles qui se trouvent dans mon pied de page avec les outils de statistiques, je les avais oublié. En désactivant les info-bulles, il n'y a plus d'erreur, donc il faut maintenant que je m'occupe de ça, c'était une excellente idée de poster cette source, d'ici les 10 prochains commentaires, je n'aurais plus aucune erreur oublié :D
Rudy3212
Messages postés154Date d'inscriptionvendredi 20 août 2004StatutMembreDernière intervention31 décembre 2007 15 août 2007 à 13:47
Oui mais comme sa tu peut tricher, alors moi j'entre le code html et pas l'url.
Comme sa sa passe les système comme le tient.
Bien sur je me fait pas chier a copier-coller le code, sa se fait de manière automatiser :P
Mais en copiant collant ton code il met 110 erreurs.
kylekatarnls
Messages postés35Date d'inscriptiondimanche 4 février 2007StatutMembreDernière intervention 1 juillet 2008 15 août 2007 à 13:43
Les lignes manquantes sont celles de Google Analytics, de PhpMyVisites et de mon propres générateur de statistiques (voir plus haut) car je ne veux pas que les robots faussent mes statistiques. L'histoire des 110 erreurs là je comprends pas ce que tu raconte, pour valider une page on entre son url ou bien "referer" si ça vient d'un lien et mes pages sont valides sauf peut-être au moment où je les modifie.
Rudy3212
Messages postés154Date d'inscriptionvendredi 20 août 2004StatutMembreDernière intervention31 décembre 2007 15 août 2007 à 13:42
Ha oui effectivement, je penser que le système afficher une fausse par au w3c, alors que la il y a tout le site moins quelque parti :P
coucou747
Messages postés12303Date d'inscriptionmardi 10 février 2004StatutMembreDernière intervention30 juillet 201244 15 août 2007 à 13:39
rudy... c'est a ca que sert ce code... relis le, tu verras pourquoi...
Rudy3212
Messages postés154Date d'inscriptionvendredi 20 août 2004StatutMembreDernière intervention31 décembre 2007 15 août 2007 à 13:24
Quand je valide le html de la page j'ai 110 Erreurs, quand je valide ta page en entrant l'url j'ai 0 erreur.
Ya pas un bogue ?
Ha oui aussi pourquoi mettre 40 000 espace devant le code ?
Sa ne cache pas ton code source c'est absolument inutile.
Quand on affiche le code source on a 398 lignes, le validateur n'en voit que 324...
kylekatarnls
Messages postés35Date d'inscriptiondimanche 4 février 2007StatutMembreDernière intervention 1 juillet 2008 15 août 2007 à 10:30
Ah oui *** je n'avais pas vu ça c'est du à une modification récente faite sur ma fonction callback de sortie, je viens de corriger ça, la page est de nouveau lisible.
Merci de m'avoir prévenu.
kylekatarnls
Messages postés35Date d'inscriptiondimanche 4 février 2007StatutMembreDernière intervention 1 juillet 2008 15 août 2007 à 10:06
Et bien je me fie à mes visites pour le navigateur, d'abord FF 2 ensuite IE 6 et j'ai donc 90% d'utilisateurs dans cette fourchette. Cette source je la laisse et j'en ferais d'autres. Sinon on s'est mal compris, les bugs pour moi c'est quand une page ne peut pas être lue correctement et non quand elle n'est pas valide. Si c'est un bug, détaille que je corrige et donne-moi ta config STP.
TheSin
Messages postés331Date d'inscriptionmardi 12 novembre 2002StatutMembreDernière intervention10 février 2009 14 août 2007 à 21:30
@kylekatarnls :
Et bin écoute, je crois que c'est bien Galerie :
http://galerie.images.free.fr/?page=creation_compte Et comme IE7 est bien plus aux normes que le 6, ne dis pas que le site est aux normes stp, même sous FireFox 2 ça bogue, donc c'est que c'est pas le navigateur qui est en cause.
Ceci dit, si il est pas fini, bon, ok, t'as juste encore du mal à te faire aux normes xHTML, mais encore une fois, ne dit pas d'un site (et j'insiste, d'un site !) qu'il est aux normes si la page d'inscription ne l'est pas, qui plus est que c'est, je crois, le point de départ où tout utilisateur va vouloir aller sur de tel genre de site.
@Donald_Duck : Entièrement d'accord, ce principe est abhérant.
Pour rester positif sur le source, il est toutefois intéressant pour détecter les robots, mais dans ce cas il faudrait un jour recommenter ce code !
Et je trouve encore plus abhérant que tu n'ai toujours pas modifié tout ce source apres 39 commentaires ....
PS: IE 6 n'est pas une référence pour faire du Web, et je crois qu'on teste quasiement tous ici de l'html sous plusieurs navigateurs ;-) (Opera, FireFox, IE, Netscape, et j'en passe)
cs_Donald_Duck
Messages postés11Date d'inscriptionmercredi 17 novembre 2004StatutMembreDernière intervention14 août 2007 14 août 2007 à 19:36
Je trouve le principe de faire semblant de respecter les normes assez aberrant. Après celui qui on accuse les navigateurs web de ne pas savoir interpréter correctement les codes des sites qui respectent soit disant les recommandations W3C. Il serait bien de ne pas inciter ceux qui débutent a ne faire aucun effort.
kylekatarnls
Messages postés35Date d'inscriptiondimanche 4 février 2007StatutMembreDernière intervention 1 juillet 2008 14 août 2007 à 18:07
>frank_85
Arrêtez de parler de ce que vous savez pas, stripos c'est un strpos insensible à la casse.
http://galerie.images.free.fr/ n'est pas terminé, merci pour l'info, je n'avais pas testé la page d'inscription.
>TheSin
Je n'ai pas IE 7 mais étant donné que sous IE 6 ce site marche très bien je pense que tu parlais de bmwx.free.fr et non de galerie.images.free.fr, si c'est le cas relis ce que j'ai dit plus haut.
>LeFauve42
J'ai un système de statistiques fait moi-même donc je gère les robots... moi-même, normal, ça va pas se faire tout seul.
TheSin
Messages postés331Date d'inscriptionmardi 12 novembre 2002StatutMembreDernière intervention10 février 2009 14 août 2007 à 12:03
Merci pour la précision LeFauve42, je ne savais pas que leur signature ne changeait jamais au fil du temps ^^
LeFauve42
Messages postés239Date d'inscriptionvendredi 20 octobre 2006StatutMembreDernière intervention20 avril 2009 14 août 2007 à 11:06
Salut,
Je suis d'accord avec l'idee generale: Ca ne devrait meme pas exister...
Pourquoi tu ne vire carrement pas tout le contenu de ta page pour le robot de validation? tu lui passe un truc genre "<html></html>" et tu auras sans doute un code valide sans erreurs... (avec un doctype avant, mais j'ai la fleme de faire un copier/coller :o) )
Pourtant je n'aime pas casser mais la, serieux, ca sert vraiment a rien ton "truc". De plus, je serais tres etonne que les outils de stats modernes ne gerent pas correctement les robots...
> style="height=XXX"
En plus, c'est:
style="height:XXX"
>Sa bogue aussi avec FireFox,
>Je sais pas quelle navigateur tu utilise mais sa a pas l'air de bien marcher sur bcp
>de navigateur...
Il utilise certainement "Validator" :o)
>là je ne suis pas tout à fait d'accord, mieux vaut être insensible à la casse non ?
>On sait jamais, ils peuvent toujours changer la casse ...
L'utilite de ce genre de signatures est justement de rester constant... Si ils s'amusaient a les changer tout le temps, ca ne servirait a rien...
Poste nous vite un source vraiment utile pour nous faire oublier celui-ci, je suis sur que tu peux le faire ! :o)
Eric
NB: Je ne voudrais pas faire de pub mais pour eviter d'avoir des pages non valides, utilisez un editeur qui les detecte a la volee comme PhpDesigner2007. Ca ne marche pas a 100% bien sur (a cause du code genere) mais en principe il ne reste plus grand chose a verifier a la fin).
TheSin
Messages postés331Date d'inscriptionmardi 12 novembre 2002StatutMembreDernière intervention10 février 2009 14 août 2007 à 10:29
là je ne suis pas tout à fait d'accord, mieux vaut être insensible à la casse non ?
On sait jamais, ils peuvent toujours changer la casse ...
frank_85
Messages postés6Date d'inscriptionlundi 10 octobre 2005StatutMembreDernière intervention25 août 2008 14 août 2007 à 09:49
déjà ce n'est pas stripos mais strpos....
Rudy3212
Messages postés154Date d'inscriptionvendredi 20 août 2004StatutMembreDernière intervention31 décembre 2007 14 août 2007 à 00:03
Sa bogue aussi avec FireFox,
Je sais pas quelle navigateur tu utilise mais sa a pas l'air de bien marcher sur bcp de navigateur...
TheSin
Messages postés331Date d'inscriptionmardi 12 novembre 2002StatutMembreDernière intervention10 février 2009 13 août 2007 à 21:04
Ah bin c'est bien ce que je me disais alors ....
Merci coucou747 ;-)
coucou747
Messages postés12303Date d'inscriptionmardi 10 février 2004StatutMembreDernière intervention30 juillet 201244 13 août 2007 à 20:48
Warning Conflict between Mime Type and Document Type
TheSin
Messages postés331Date d'inscriptionmardi 12 novembre 2002StatutMembreDernière intervention10 février 2009 13 août 2007 à 20:41
C'est drole, la page que tu nous a donné, lors de l'inscription, bin ça bogue et pas qu'un peu avec IE7 !
J'ai pas vérifié la validité, mais un site où mon navigateur me dit qu'il y a des erreurs javascript sur la page, où j'ai du texte par dessus d'autre qui les rend illisible, et où je ne peux même pas cliquer dans un textarea, on va pas me dire que c'est valide quand même. Si ?
kylekatarnls
Messages postés35Date d'inscriptiondimanche 4 février 2007StatutMembreDernière intervention 1 juillet 2008 13 août 2007 à 20:02
Mon site perso est une épave construit morceau par morceau, voici mon dernier site que j'ai codé ou vous constaterez que le code est valide sans triche même pour les flux :
http://galerie.images.free.fr/ Et moi je n'ai fait ça que pour aider, c'est comme dit plus haut en excluant les validateurs et le robot google de mes statistiques que cette idée m'est venue.
Je ne veux pas apprendre à qui que ce soit à faire des if else juste que strpos() permet de savoir si un mot est contenu dans l'user-agent de la seule manière que celle qui est montrée, car je le répète strpos() ne renvoie jamais true ! et je fournis au passage les mots qu'on trouve dans les UA des validateurs, pour info toujours, le robot google est détectable avec Googlebot
kylekatarnls
Messages postés35Date d'inscriptiondimanche 4 février 2007StatutMembreDernière intervention 1 juillet 2008 13 août 2007 à 19:49
>Renfield
strpos ne renvoie pas true ou false mais un nombre ou false et c'est là la méthode prescrite par www.php.net.
Rudy3212
Messages postés154Date d'inscriptionvendredi 20 août 2004StatutMembreDernière intervention31 décembre 2007 13 août 2007 à 18:15
Oui j'ai regarder le code est pas terrible, ya juste une condition mais.
Je voulait pas mettre 1, je pense que meme si une source est nulle, c'est quand même un programme que quelqu'un a fait et peut intérésser quelqu'un d'autre.
L'autheur l'a partager car il trouve peut-etre que c'est bien est aparament d'autre aussi.
Je pense que aucune source mérite 1 ou 2 donc j'ai un peu remonter le niveau.
coucou747
Messages postés12303Date d'inscriptionmardi 10 février 2004StatutMembreDernière intervention30 juillet 201244 13 août 2007 à 17:56
Renfield :
"(false!== euh... c'est true=== en fait, non ? ^^)"
conclusion : tu te trompes... si t'as === ou !== t'as aussi une question de types de donnees...
rudy3212...
"Je met 5/10. Car il y a aussi le code qui compte pas que sont utilité."
si tu regardes le code... bah t'as rien de bien bien joli dedans... c'est juste un pauvre morceau de code qui contient deux conditions...
ordiman85
Messages postés41Date d'inscriptionsamedi 4 mars 2006StatutMembreDernière intervention19 mars 2010 13 août 2007 à 17:42
1. L'idée de détecter si GoogleBot passe me plaît, par exemple pour afficher le contenu de la page sans balises html à la place pour ne pas "polluer" l'exploration du robot et ainsi être mieux placé sans vraiment tricher. :)
2. Pour valider son code w3c, c'est pas compliqué, il suffit d'apprendre le XHTML (recommandé puisque le HTML simple tend à disparaitre) sur ce site :
http://xhtml.le-developpeur-web.com/index.php Il dit simplement les grosses règles à respecter, franchement y a pas de quoi paniquer !
3. Moi j'aurais proposé l'idée (qui est dans ma dernère source) de créer une classe pour générer des pages en XHTML Strict. La classe que j'ai faite n'est pas super, en revanche je compte utiliser DOM finalement (étendu au XHTML) dont je ne connaissais pas les avantages. Ceci a pour avantage de rendre le code plus propre en dissociant PHP et XHTML (un fichier 100% php = tout benef) et niveau performances ça va.
4. L'idée également des commentateurs de mettre la page en cache et la parser ensuite me plaît vraiment mais les charges serveur risquent d'être augmentées inutilement juste à cause d'un "post-traitement" qui peut être évité.
5. En ce qui concerne l'idée de cacher le mauvais code au validateur w3c, c'est vraiment nul !!! Ca ne respecte pas du tout l'esprit de faire un site de qualité accessible à tous :(
Rudy3212
Messages postés154Date d'inscriptionvendredi 20 août 2004StatutMembreDernière intervention31 décembre 2007 13 août 2007 à 14:37
Je trouve cette idée vraiment nul désolé,
Je me fait chier a coder valide c'est pour avoir un site valide, pas un site qui fait semblant d'etre valide.
Tu m'es que ton site est valide alors qu'il contient 300 erreurs.
Si ton site n'est pas valide je voit pas pourquoi il faut le caché alors que meme avec ton astuce on le remarque très facilement.
Désolé mais la note je met pas 1 (même si j'ai envie :P),
Je met 5/10.
Car il y a aussi le code qui compte pas que sont utilité.
LaurentKOogar
Messages postés369Date d'inscriptionsamedi 4 septembre 2004StatutMembreDernière intervention20 octobre 2013 13 août 2007 à 11:45
ce matin je m'en va faire apprendre le cloaking sur phpcs!! et personne ne tilt ici !! oki, je => []
Gwinyam
Messages postés47Date d'inscriptionvendredi 7 octobre 2005StatutMembreDernière intervention 2 janvier 2008 13 août 2007 à 10:54
Le mieux est de développer proprement dès le début. Il y a déjà assez d'horreurs qui circulent sur le net pour qu'en plus on leur blanchisse la patte
Renfield
Messages postés17287Date d'inscriptionmercredi 2 janvier 2002StatutModérateurDernière intervention27 septembre 202174 13 août 2007 à 08:49
Ce code source étrangement codé (false!== euh... c'est true=== en fait, non ? ^^)
a une certaine utilité, j'imagine...
on peut détourner les robots de certaines pages. je verrai plutot a ecarter les robots de referencement, remarques, car la validation XHTML est une bonne chose, là, tu fausse la donne.
Renfield
Messages postés17287Date d'inscriptionmercredi 2 janvier 2002StatutModérateurDernière intervention27 septembre 202174 13 août 2007 à 08:40
source renommée.
Le titre présente mieux le contenu de la source.
Renfield - Admin CS
alover971
Messages postés8Date d'inscriptionsamedi 25 février 2006StatutMembreDernière intervention30 novembre 2007 13 août 2007 à 08:18
Je confirme ... très décevant.. "cacher" les erreurs..
faudrait peut être rappeler à quoi sert de rendre son site XHTML..
Mais bon, c'est pas grave .. Moi je vais bosser, c'est l'heure :)
Et je vais faire du VRAI XHTML, hein, pti tricheur ;)
Superjun
Messages postés10Date d'inscriptionmardi 16 décembre 2003StatutMembreDernière intervention13 août 2007 13 août 2007 à 01:58
Ca s'appelle cacher la merde au chat...
Quand on fait correctement son site, on essaie d'éviter les erreurs dès le départ. Quand on fait correctement son site, surtout en PHP, quand il y a 500 erreurs c'est qu'il faut juste modifier 2-3 lignes de ton code pour toutes les corriger d'un coup.
Quand on a une conscience professionnelle, c'est la chose la plus décevante qu'on puisse voir.
Je te mets 1, parce qu'on ne peut pas mettre zéro. Je ne sais pas si une source peut être supprimmée par un modérateur; celle-ci le mériterait amplement.
Ta méthode peut-être utile (par exemple, comme tu l'as dit, pour écarter les robots des statistiques... quoique...) Alors présente-là ici dans sa tournure utile, au lieu de poster "ça"...
TheSin
Messages postés331Date d'inscriptionmardi 12 novembre 2002StatutMembreDernière intervention10 février 2009 11 août 2007 à 16:03
tient, je ne savais pas que la condition ternaire était plus lente :/
merci pour l'info :-) (a jamais fait de bench dessus)
tu as un bench sous la main coucou747 pour estimer le gain à gagner en remplaçant par des conditions classiques stp ?
coucou747
Messages postés12303Date d'inscriptionmardi 10 février 2004StatutMembreDernière intervention30 juillet 201244 11 août 2007 à 15:28
si chaque fois que je tapais 22 lignes.... bref...
* <?php
* // Au début de votre page :
* if( false!= =stripos($_SERVER['HTTP_USER_AGENT'],'Validator')
* || false!==stripos($_SERVER['HTTP_USER_AGENT'],'checklink') ) )
* define("ROBOT",true); // POURQUOI ICI T'as des " et au dessus des ' ????
* else
* define("ROBOT",false);
* ?>
* <!-- ICI VOTRE PAGE -->
* <?php
* //Ici on imagine que est le morceau de votre page où il y a un problème (exemple la balise <link> de votre style CSS pour le validateur CSS ou bien tout le ... pour le Html
* if(!ROBOT) {
* ?><? // pourquoi tu mets des short tags ???
* }
* //Ne s'affichera que si le visiteur n'est pas un robot W3C
* ?>
* <?php
* //Autre exemple : le validateur Feed (RSS et Atom)
* $fichier =(ROBOT)? "le_faux.xml":"le_vrai.xml"; // pourquoi tu mets des " ??? et la condition ternaire c'est plus lent !
* echo '<link rel="alternate" type="application/rss+xml" href="./'.$fichier.'" />';
* //En plaçant ce code dans la balise head, les visiteurs trouveront le_vrai.xml en ouvrant votre RSS et les robots tomberont sur le_faux.xml
* ?>
ca te convient comme commentaire ??? c'est exactement ce que j'ai dit au depart, mais en plus detaille....
de plus, sur 22 lignes, on a tous les memes remarques, c'est normal
jdalton42
Messages postés200Date d'inscriptionsamedi 25 décembre 2004StatutMembreDernière intervention19 août 2009 11 août 2007 à 15:11
cette source n'a pas sa place sur phpcs, c'est sa qu'on te dit si c'était pas clair et si on veut poster chacun a notre tour le meme commentaire, c'est notre droit ok ?! maintenant tu as raison, je vote 1. peace
kylekatarnls
Messages postés35Date d'inscriptiondimanche 4 février 2007StatutMembreDernière intervention 1 juillet 2008 11 août 2007 à 15:09
Non je n'ai pas voté ma source,
mes sites sont conforme au W3C et j'utilise cette méthode de détection pour écarter les robots de mes statistiques "visiteurs".
Ensuite l'idée du parseur ob_start() est bonne je vais m'y tenter.
Ce n'est qu'une source pour aider ceux à qui elle peut servir, je l'ai posé hier et y a déjà 13 commentaires, bravo, dommage que les sources ne tombent pas aussi vite... Je vous suggère donc de vous contenter de noter le code au lieu de laisser chacun votre tour le même commentaire.
Merci,
KyleK
coucou747
Messages postés12303Date d'inscriptionmardi 10 février 2004StatutMembreDernière intervention30 juillet 201244 11 août 2007 à 14:23
probablement un double compte...
TheSin
Messages postés331Date d'inscriptionmardi 12 novembre 2002StatutMembreDernière intervention10 février 2009 11 août 2007 à 14:09
A c'est fort ça, personne n'aime beaucoup la source, mais y'a quand même un 10 de voté o_0
Si celui qui a voté cette note pouvait commenter .... merci.
webdeb
Messages postés488Date d'inscriptionsamedi 5 avril 2003StatutMembreDernière intervention31 mars 20094 11 août 2007 à 14:00
Ah wai pas mal le code. J'en avais jamais vu d'aussi utile ^^ Pour la peine je vote 2 pour l'effort de recherche et d'écriture du code.
coucou747
Messages postés12303Date d'inscriptionmardi 10 février 2004StatutMembreDernière intervention30 juillet 201244 11 août 2007 à 13:55
style="height=XXX"
c'est valide xhtml pas css...
apxa
Messages postés188Date d'inscriptionmercredi 15 mai 2002StatutMembreDernière intervention25 avril 2009 11 août 2007 à 13:44
iop,
le mieux aurait été de faire un parser de source afin de modifier automatiquement les fautes non conforme au w3c par exemple fermeture de balise ou remplacement de height=XXX dans un TD par style="height=XXX" etc.
Have Fun ;)
TheSin
Messages postés331Date d'inscriptionmardi 12 novembre 2002StatutMembreDernière intervention10 février 2009 11 août 2007 à 11:31
mince, jme suis fait eu !
moi qui pensait aussi à quelque chose du genre de TiDy :(.
Rien que le principe du source est décevant.
Seul avantage => apprendre à détecter un robot, qui devrait plus se trouver dans les snippets.
jdalton42
Messages postés200Date d'inscriptionsamedi 25 décembre 2004StatutMembreDernière intervention19 août 2009 11 août 2007 à 10:58
arf ouais je pensais avoir trouver la solution miracle qui modifierais mon code html pour qu'il soit au normes et bah non... décevant
coucou747
Messages postés12303Date d'inscriptionmardi 10 février 2004StatutMembreDernière intervention30 juillet 201244 10 août 2007 à 23:26
c'est clair que quand tu cliques t'imagines un ob_start, un getContent, et un pti parseur genre tidy pour la suite, histoire de mettre le code automatiquement a la norme, et de facon intelligente... en fait non...
kishkaya
Messages postés365Date d'inscriptionsamedi 26 juin 2004StatutMembreDernière intervention17 avril 2008 10 août 2007 à 23:22
En gros t'as fait un script qui cache les trucs non valides au validator w3c...
En gros la question c'est : a quoi ca sert de valider un site avec sa DTD ?
Si c'est pour avoir le logo sur son site, tu peux le trouver sur google image et mettre un lien avec l'adresse d'un site valide ...
Je vote pas c'est décevant
cs_MATHIS49
Messages postés368Date d'inscriptionvendredi 10 octobre 2003StatutMembreDernière intervention14 mai 20101 10 août 2007 à 22:03
Ce script, c'est comme un vin de table Super U sur lequel on met une étiquette "Château Lafite", ça trompera peut être les néophytes mais surement pas les sommeliers ...
pthc
Messages postés2Date d'inscriptionmardi 7 août 2007StatutMembreDernière intervention10 août 2007 10 août 2007 à 20:39
T'es méchant coucou, il y a quand même deux conditions!
Bon, un tel code n'a pas vraiment sa place ici, c'est un endroit de codeurs, pas de gens qui trichent sur leur sites, qui plus est avec du simple code html!
coucou747
Messages postés12303Date d'inscriptionmardi 10 février 2004StatutMembreDernière intervention30 juillet 201244 10 août 2007 à 16:36
c'est une petite astuce pas forcement bien codee qui rendra service a ceux qui pourissent le net de choses ignobles...
<? -> <?php
" -> '
quand au fait que ca ne soit qu'une condition... bah... on va mettre 3
26 août 2007 à 04:29
Perso, ca fait longtemps que j'aurais supprimer ce thread...
c'est presque imorale de laisser en ligne des codes qui pourrissent les sites pour les gros moteurs de recherche!!
26 août 2007 à 04:11
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.1//EN" "http://www.w3.org/TR/xhtml11/DTD/xhtml11.dtd">
ton site embarque xhtml et xml ?
Ta source , a part faire venir du monde ne sert a rien, et pour repondre a tes question de validités , Informe toi sur l'utilité d'un doctype , de comment le choisir , et puis aussi , attention aussi a la divite !
Enfin , je crois que le sujet sur lequel tu glisse (w3c etc ...) nous meme un peu hors sujet sur ce site dedié a php .
Tu as voulu t'embarquer sur un sujet que tu ne connais pas vraiment encore , dommage ,... trop préssé peut-etre :) ?
sinon , jolie realisation , mais ton capcha ne fonctionne pas ou trop bien lol ...
Amicalement et bonne continuations
15 août 2007 à 22:41
15 août 2007 à 22:27
Alors si quelqu'un le sait est-ce qu'il vaut mieux ne pas utiliser et ou est-ce vraiment valide ?
15 août 2007 à 22:07
15 août 2007 à 22:05
15 août 2007 à 13:47
Comme sa sa passe les système comme le tient.
Bien sur je me fait pas chier a copier-coller le code, sa se fait de manière automatiser :P
Mais en copiant collant ton code il met 110 erreurs.
15 août 2007 à 13:43
15 août 2007 à 13:42
15 août 2007 à 13:39
15 août 2007 à 13:24
Ya pas un bogue ?
Ha oui aussi pourquoi mettre 40 000 espace devant le code ?
Sa ne cache pas ton code source c'est absolument inutile.
Quand on affiche le code source on a 398 lignes, le validateur n'en voit que 324...
15 août 2007 à 10:30
Merci de m'avoir prévenu.
15 août 2007 à 10:06
14 août 2007 à 21:30
Et bin écoute, je crois que c'est bien Galerie :
http://galerie.images.free.fr/?page=creation_compte
Et comme IE7 est bien plus aux normes que le 6, ne dis pas que le site est aux normes stp, même sous FireFox 2 ça bogue, donc c'est que c'est pas le navigateur qui est en cause.
Ceci dit, si il est pas fini, bon, ok, t'as juste encore du mal à te faire aux normes xHTML, mais encore une fois, ne dit pas d'un site (et j'insiste, d'un site !) qu'il est aux normes si la page d'inscription ne l'est pas, qui plus est que c'est, je crois, le point de départ où tout utilisateur va vouloir aller sur de tel genre de site.
@Donald_Duck : Entièrement d'accord, ce principe est abhérant.
Pour rester positif sur le source, il est toutefois intéressant pour détecter les robots, mais dans ce cas il faudrait un jour recommenter ce code !
Et je trouve encore plus abhérant que tu n'ai toujours pas modifié tout ce source apres 39 commentaires ....
PS: IE 6 n'est pas une référence pour faire du Web, et je crois qu'on teste quasiement tous ici de l'html sous plusieurs navigateurs ;-) (Opera, FireFox, IE, Netscape, et j'en passe)
14 août 2007 à 19:36
14 août 2007 à 18:07
Arrêtez de parler de ce que vous savez pas, stripos c'est un strpos insensible à la casse.
http://galerie.images.free.fr/ n'est pas terminé, merci pour l'info, je n'avais pas testé la page d'inscription.
>TheSin
Je n'ai pas IE 7 mais étant donné que sous IE 6 ce site marche très bien je pense que tu parlais de bmwx.free.fr et non de galerie.images.free.fr, si c'est le cas relis ce que j'ai dit plus haut.
>LeFauve42
J'ai un système de statistiques fait moi-même donc je gère les robots... moi-même, normal, ça va pas se faire tout seul.
14 août 2007 à 12:03
14 août 2007 à 11:06
Je suis d'accord avec l'idee generale: Ca ne devrait meme pas exister...
Pourquoi tu ne vire carrement pas tout le contenu de ta page pour le robot de validation? tu lui passe un truc genre "<html></html>" et tu auras sans doute un code valide sans erreurs... (avec un doctype avant, mais j'ai la fleme de faire un copier/coller :o) )
Pourtant je n'aime pas casser mais la, serieux, ca sert vraiment a rien ton "truc". De plus, je serais tres etonne que les outils de stats modernes ne gerent pas correctement les robots...
> style="height=XXX"
En plus, c'est:
style="height:XXX"
>Sa bogue aussi avec FireFox,
>Je sais pas quelle navigateur tu utilise mais sa a pas l'air de bien marcher sur bcp
>de navigateur...
Il utilise certainement "Validator" :o)
>là je ne suis pas tout à fait d'accord, mieux vaut être insensible à la casse non ?
>On sait jamais, ils peuvent toujours changer la casse ...
L'utilite de ce genre de signatures est justement de rester constant... Si ils s'amusaient a les changer tout le temps, ca ne servirait a rien...
Poste nous vite un source vraiment utile pour nous faire oublier celui-ci, je suis sur que tu peux le faire ! :o)
Eric
NB: Je ne voudrais pas faire de pub mais pour eviter d'avoir des pages non valides, utilisez un editeur qui les detecte a la volee comme PhpDesigner2007. Ca ne marche pas a 100% bien sur (a cause du code genere) mais en principe il ne reste plus grand chose a verifier a la fin).
14 août 2007 à 10:29
On sait jamais, ils peuvent toujours changer la casse ...
14 août 2007 à 09:49
14 août 2007 à 00:03
Je sais pas quelle navigateur tu utilise mais sa a pas l'air de bien marcher sur bcp de navigateur...
13 août 2007 à 21:04
Merci coucou747 ;-)
13 août 2007 à 20:48
http://galerie.images.free.fr/?page=creation_compte
sur
http://validator.w3.org/
http://validator.w3.org/check?uri=http%3A%2F%2Fgalerie.images.free.fr%2F%3Fpage%3Dcreation_compte&charset=%28detect+automatically%29&doctype=Inline&group=0
Failed validation, 12 Errors
Warning Conflict between Mime Type and Document Type
13 août 2007 à 20:41
J'ai pas vérifié la validité, mais un site où mon navigateur me dit qu'il y a des erreurs javascript sur la page, où j'ai du texte par dessus d'autre qui les rend illisible, et où je ne peux même pas cliquer dans un textarea, on va pas me dire que c'est valide quand même. Si ?
13 août 2007 à 20:02
http://galerie.images.free.fr/
Et moi je n'ai fait ça que pour aider, c'est comme dit plus haut en excluant les validateurs et le robot google de mes statistiques que cette idée m'est venue.
Je ne veux pas apprendre à qui que ce soit à faire des if else juste que strpos() permet de savoir si un mot est contenu dans l'user-agent de la seule manière que celle qui est montrée, car je le répète strpos() ne renvoie jamais true ! et je fournis au passage les mots qu'on trouve dans les UA des validateurs, pour info toujours, le robot google est détectable avec Googlebot
13 août 2007 à 19:49
strpos ne renvoie pas true ou false mais un nombre ou false et c'est là la méthode prescrite par www.php.net.
13 août 2007 à 18:15
Je voulait pas mettre 1, je pense que meme si une source est nulle, c'est quand même un programme que quelqu'un a fait et peut intérésser quelqu'un d'autre.
L'autheur l'a partager car il trouve peut-etre que c'est bien est aparament d'autre aussi.
Je pense que aucune source mérite 1 ou 2 donc j'ai un peu remonter le niveau.
13 août 2007 à 17:56
"(false!== euh... c'est true=== en fait, non ? ^^)"
max@max-laptop:~$ php -r "echo (0!==false)."\n";"
1
max@max-laptop:~$ php -r "echo (0===true)."\n";"
max@max-laptop:~$
conclusion : tu te trompes... si t'as === ou !== t'as aussi une question de types de donnees...
rudy3212...
"Je met 5/10. Car il y a aussi le code qui compte pas que sont utilité."
si tu regardes le code... bah t'as rien de bien bien joli dedans... c'est juste un pauvre morceau de code qui contient deux conditions...
13 août 2007 à 17:42
2. Pour valider son code w3c, c'est pas compliqué, il suffit d'apprendre le XHTML (recommandé puisque le HTML simple tend à disparaitre) sur ce site :
http://xhtml.le-developpeur-web.com/index.php
Il dit simplement les grosses règles à respecter, franchement y a pas de quoi paniquer !
3. Moi j'aurais proposé l'idée (qui est dans ma dernère source) de créer une classe pour générer des pages en XHTML Strict. La classe que j'ai faite n'est pas super, en revanche je compte utiliser DOM finalement (étendu au XHTML) dont je ne connaissais pas les avantages. Ceci a pour avantage de rendre le code plus propre en dissociant PHP et XHTML (un fichier 100% php = tout benef) et niveau performances ça va.
4. L'idée également des commentateurs de mettre la page en cache et la parser ensuite me plaît vraiment mais les charges serveur risquent d'être augmentées inutilement juste à cause d'un "post-traitement" qui peut être évité.
5. En ce qui concerne l'idée de cacher le mauvais code au validateur w3c, c'est vraiment nul !!! Ca ne respecte pas du tout l'esprit de faire un site de qualité accessible à tous :(
13 août 2007 à 14:37
Je me fait chier a coder valide c'est pour avoir un site valide, pas un site qui fait semblant d'etre valide.
Tu m'es que ton site est valide alors qu'il contient 300 erreurs.
Si ton site n'est pas valide je voit pas pourquoi il faut le caché alors que meme avec ton astuce on le remarque très facilement.
Désolé mais la note je met pas 1 (même si j'ai envie :P),
Je met 5/10.
Car il y a aussi le code qui compte pas que sont utilité.
13 août 2007 à 11:45
13 août 2007 à 10:54
13 août 2007 à 08:49
a une certaine utilité, j'imagine...
on peut détourner les robots de certaines pages. je verrai plutot a ecarter les robots de referencement, remarques, car la validation XHTML est une bonne chose, là, tu fausse la donne.
13 août 2007 à 08:40
Le titre présente mieux le contenu de la source.
Renfield - Admin CS
13 août 2007 à 08:18
faudrait peut être rappeler à quoi sert de rendre son site XHTML..
Mais bon, c'est pas grave .. Moi je vais bosser, c'est l'heure :)
Et je vais faire du VRAI XHTML, hein, pti tricheur ;)
13 août 2007 à 01:58
Quand on fait correctement son site, on essaie d'éviter les erreurs dès le départ. Quand on fait correctement son site, surtout en PHP, quand il y a 500 erreurs c'est qu'il faut juste modifier 2-3 lignes de ton code pour toutes les corriger d'un coup.
Quand on a une conscience professionnelle, c'est la chose la plus décevante qu'on puisse voir.
Je te mets 1, parce qu'on ne peut pas mettre zéro. Je ne sais pas si une source peut être supprimmée par un modérateur; celle-ci le mériterait amplement.
Ta méthode peut-être utile (par exemple, comme tu l'as dit, pour écarter les robots des statistiques... quoique...) Alors présente-là ici dans sa tournure utile, au lieu de poster "ça"...
11 août 2007 à 16:03
merci pour l'info :-) (a jamais fait de bench dessus)
tu as un bench sous la main coucou747 pour estimer le gain à gagner en remplaçant par des conditions classiques stp ?
11 août 2007 à 15:28
* <?php
* // Au début de votre page :
* if( false!= =stripos($_SERVER['HTTP_USER_AGENT'],'Validator')
* || false!==stripos($_SERVER['HTTP_USER_AGENT'],'checklink') ) )
* define("ROBOT",true); // POURQUOI ICI T'as des " et au dessus des ' ????
* else
* define("ROBOT",false);
* ?>
* <!-- ICI VOTRE PAGE -->
* <?php
* //Ici on imagine que est le morceau de votre page où il y a un problème (exemple la balise <link> de votre style CSS pour le validateur CSS ou bien tout le ... pour le Html
* if(!ROBOT) {
* ?><? // pourquoi tu mets des short tags ???
* }
* //Ne s'affichera que si le visiteur n'est pas un robot W3C
* ?>
* <?php
* //Autre exemple : le validateur Feed (RSS et Atom)
* $fichier =(ROBOT)? "le_faux.xml":"le_vrai.xml"; // pourquoi tu mets des " ??? et la condition ternaire c'est plus lent !
* echo '<link rel="alternate" type="application/rss+xml" href="./'.$fichier.'" />';
* //En plaçant ce code dans la balise head, les visiteurs trouveront le_vrai.xml en ouvrant votre RSS et les robots tomberont sur le_faux.xml
* ?>
ca te convient comme commentaire ??? c'est exactement ce que j'ai dit au depart, mais en plus detaille....
de plus, sur 22 lignes, on a tous les memes remarques, c'est normal
11 août 2007 à 15:11
11 août 2007 à 15:09
mes sites sont conforme au W3C et j'utilise cette méthode de détection pour écarter les robots de mes statistiques "visiteurs".
Ensuite l'idée du parseur ob_start() est bonne je vais m'y tenter.
Ce n'est qu'une source pour aider ceux à qui elle peut servir, je l'ai posé hier et y a déjà 13 commentaires, bravo, dommage que les sources ne tombent pas aussi vite... Je vous suggère donc de vous contenter de noter le code au lieu de laisser chacun votre tour le même commentaire.
Merci,
KyleK
11 août 2007 à 14:23
11 août 2007 à 14:09
Si celui qui a voté cette note pouvait commenter .... merci.
11 août 2007 à 14:00
11 août 2007 à 13:55
c'est valide xhtml pas css...
11 août 2007 à 13:44
le mieux aurait été de faire un parser de source afin de modifier automatiquement les fautes non conforme au w3c par exemple fermeture de balise ou remplacement de height=XXX dans un TD par style="height=XXX" etc.
Have Fun ;)
11 août 2007 à 11:31
moi qui pensait aussi à quelque chose du genre de TiDy :(.
Rien que le principe du source est décevant.
Seul avantage => apprendre à détecter un robot, qui devrait plus se trouver dans les snippets.
11 août 2007 à 10:58
10 août 2007 à 23:26
10 août 2007 à 23:22
En gros la question c'est : a quoi ca sert de valider un site avec sa DTD ?
Si c'est pour avoir le logo sur son site, tu peux le trouver sur google image et mettre un lien avec l'adresse d'un site valide ...
Je vote pas c'est décevant
10 août 2007 à 22:03
10 août 2007 à 20:39
Bon, un tel code n'a pas vraiment sa place ici, c'est un endroit de codeurs, pas de gens qui trichent sur leur sites, qui plus est avec du simple code html!
10 août 2007 à 16:36
<? -> <?php
" -> '
quand au fait que ca ne soit qu'une condition... bah... on va mettre 3