Un site sera-t'il mieux référencé s'il est bien codé ?
Je me suis souvent posé la question de savoir s’il était important de coder un site en respectant rigoureusement les standards du W3C ?
Quel est le poids du contenant en terme de référencement par rapport au contenu ? A voir les différents résultats dans les moteurs de recherche, il semblerait qu’aucune pénalité ne soit appliquée aux sites dont le code est truffé d’erreurs (pour rester poli).
En testant le terme annuaire internet gratuit, voici les résultats de la première page de Google :
En auditant les 10 premiers sites affichés, un seul s’en sort sans aucune erreur. Je n’ai testé que la page d’accueil au niveau du code HTML. Je n’ai pas osé vérifier du côté du CSS et il y a de fortes chances que ce dernier ne soit pas valide non plus.
Et pourtant tous ces sites sont en première page de Google. Le constat est implacable : le contenu, et sans doute aussi les efforts effectués sur le référencement naturel, priment sur l’enveloppe du site. Seul le webmaster du site qui est conforme affiche un message indiquant qu’il est valide W3C. Parce que le nombre de sites avec les logos Site valide W3C ou Site valide CSS sont légion sur la toile. Et c’est là que cela commence sérieusement à me gonfler. L’un de mes réflexes, ou manie c’est comme on veut, quand je visite un site, est de cliquer sur le picto, quand celui-ci est présent ou dans la barre d’outils Web Developer, afin de vérifier que le site est écrit proprement. Le nombre de fois ou la barre rouge du W3C apparaît est hallucinante.
Mais alors, à quoi servent les recommandations du W3C ?
Peuvent-elles être un critère commercial lorsque l’on propose un service de référencement ? A voir le nombre d’agences qui propose dans leur devis la correction du code afin d’optimiser le référencement, c’est sans doute le cas. Cela sous-entend également que les webmasters codent mal et que cela fait le jeu des référenceurs qui peuvent facturer, à juste titre, une prestation supplémentaire. Bien entendu, un code propre n’est pas un gage d’optimisation maximale, ce serait bien trop simple.
Quand il s’agit d’un site perso, l’indulgence est plus importante. Mais quand le site a été construit par une agence, là je me marre ;-) Je me dit que chaque site que nous vendons, je m’inclus dedans, est une partie de notre vitrine et de notre savoir-faire et qu’il est représentatif de la qualité du travail proposé par l’agence. Les puristes me diront, notamment dans le cas ou le client dispose d’un outil lui permettant d’effectuer seul la mise à jour du contenu, qu’un site peut être livré conforme et que le contenu saisi par la suite n’est pas de sa responsabilité. Ce n’est pas faux non plus, mais dans ce cas, notre rôle n’est-il pas de s’efforcer à bien éduquer le client ? D’un autre côté, si son site descend dans les résultats des SERP à cause d’un mauvais codage (un bon vieux copier-coller de Word sans nettoyage préalable), on peut lui facturer un service d’optimisation supplémentaire ;-)
[Réflexion personnelle]Ah mais non, je lui ai déjà facturé l’optimisation et il faut encore que je corrige son code. Voilà un point que je n’avais pas prévu dans le devis[/Réflexion personnelle]
Certes je me suis égaré par rapport au sujet initial, mais ne serait-il pas judicieux que la propreté d’un code devienne un critère supplémentaire dans l’affichage des résultats, certainement pas le plus important non plus, afin qu’il y ait un véritable standard pour que les sites écrits convenablement soient récompensés ? Je lisais un article de LaurentB sur le référencement, pas plus tard qu’hier soir, et quel que soit le domaine que l’on pratique, il est à noter que certains ont encore beaucoup d’efforts à effectuer pour que la réalité des services proposés rejoigne celle des services vendus.
Voilà une question qui mérite réflexion...
27 réflexions sur ce billet
Bonjour Hervé
Excellent article qui pose ici une question fort intéressante !
Le bon codage d'un site est important pour le référencement, mais certainement pas aussi important que les professionnels consciencieux aimeraient le croire.
Il y a un bon nombre de paramètres extérieur au code (et même parfois au contenu du site) qui semblent bien plus important pour les moteurs de recherche.
L'ancienneté d'un site, son nom de domaine, l'adéquation des backlinks, sa popularité, sa cohérence sémantique ou lexicale,... sont des indicateurs de pertinence pour les moteurs de recherche plus important que la qualité du codage, la rapidité de réaction du serveur, ou l'inscription à des sites aisément catégorisés par google comme étant des annuaires de "farm-link".
Mais attention, "plus important" dans mon commentaire, ne veut pas dire "les seuls".
Je pense qu'une fois ces premiers critères couvert la différence se fait bien sur la qualité du codage, les temps de réponses et autres manœuvres qualitatives destinées à doper la visibilité du site.
En bref;... Un bon site codé par un goret peut-être bien référencé mais un mauvais site codé dans les règles ne sera jamais mieux positionné.
@++
Le 18/10/2010 à 13h50
Bonjour Hervé,
Je suis du même avis qu'Erik ! Disons qu'un site bien codé facilite la lecture du moteur Google. Mais il existe tant de critères pour bien référencer un site Web.
Le balisage sémantique en fait parti mais je ne suis pas convaincu qu'un site respectant les standards W3C fasse parti des critères Google.
Les standards W3C ont pour objectif d'obtenir un site compatible aux divers navigateurs.
amicalement
@erik, @audit référencement
Il est clair que les standards du W3C ne sont que des conseils et que la sémantique d'un site est une infime partie des critères de référencement. Et c'est bien dommage.
D'un autre côté, un site bien codé mais vide de contenu, l'essence même du référencement, ce n'est pas mieux ;-) Dans le premier cas, cela n'apportera aucune retombée en terme de résultats. C'est logique puisque l'internaute cherche une information, pas qu'une balise alt soit présente ou pas.
@*
Le constat fait est intéressant mais les liens généralement en top 5 des SERP sont de vieux sites. Nous connaissons tous le poins énorme que donne google à ces résultats.
Je n'ai jamais fais le test malheureusement (honte à moi) mais si on lance 2 sites identiques , l'un correctement codé (W3C compliant) et un autre à l'arrache issu de 50 copier/coller, je pense sincèrement que le résultat se fera sentir.
Ensuite bien coder un site OBLIGE à présenter l'information intelligemment.
Il suffit de regarder le résultat d'un site avec links pour rapidement comprendre.
Mal coder, fait également monter le ratio code/information ce qui n'est également pas une bonne chose.
Bref, je vous suis sur la dernière phrase de cet article MAIS il faut relativiser quant aux classement des SERP :)
Bien à vous ;)
Je m'étais déjà penché sur le sujet et fait les mêmes réflexions : http://blog.axe-net.fr/site-conforme-w3c-xhtml-mon-oeil/
On peut toutefois imaginer qu'un code valide W3C a sans doute été mieux pensé et qu'il en découle quelques petits avantages en terme de positionnement. Maintenant, j'ai des pages codées comme un cochon qui se placent plutôt bien :-)
"Ne serait-il pas judicieux que la propreté d'un code devienne un critère supplémentaire dans l'affichage des résultats ?"
Honnêtement, quel intérêt ? Le site sera-t-il plus pertinent pour autant ? Je ne pense pas, et je vois pas pourquoi Google, qui est le premier a en avoir strictement rien à faire, prendrait ce critère en compte. Tant que le site s'affiche correctement, tout roule...
Effectivement, c'est alarmant de voir autant d'erreur par des pros.
Il y a optimisation du code HTML pour le référencement et il y a correction du code HTML pour le référencement.
C'est une petite nuance. ;)
Je me suis retrouver à faire le SEO d'une pure horreur en termes de code :
- soit le site avait été codé par un mec des années 80 qui a voyagé dans le futur,
- soit le site avait été codé par un singe,
Bref, une pure daube.
Je me suis contenté de mettre 2,3 h1, h2, h3, un peu de p, et quelques ul et li et me suis concentré sur mon vrai job de SEO à savoir créer du BL.
Le site ranke très bien.
Si la propreté et la pureté du code devaient être un gage SEO :
1) ça se saurait
2) il y aurait un sacré chamboulement dans les rankings
Très bon article et très bonne problématique.
D'autant plus que le HTML5 et le CSS3, qui sont l'avenir n'est pas 100% aux normes si je ne m'abuse. Le contenu plus important que le contenant mais c'est quand même judicieux de coupler les deux.
Peut importe le flacon pourvu qu'on ait l'ivresse ?
perso j'utilise ce paramètre comme beaucoup d'autres pour savoir/déterminer les compétence web des mes concurrents ou lors de benchmark clients : http://www.diplotomatic.com/2010/02/22/votre-site-est-il-meilleur-que-celui-de-vos-concurrents/
Deja! j'aurais du poser un brevet sur le "tampon" spammeur bourrin ;)
Sinon comme le dise les autres le jour ou GG va prendre la propreté du code en compte dans les criteres de positionnement (de facon importante s'entend) ben on est pas sorti de l'auberge a jupiter je vous le dit moi! parce que ca va se metter abouger l'index!
@Le juge SEO
J'ai trouvé ça tellement beau sur ton site que je n'ai pas pu m'empêcher de reprendre l'idée du tampon ;-)
Je pense que le code d'un site joue à environ 15% dans le référencement d'un site (et le design a une part importante). Pourquoi ? Si le site est rapide, cela permettra d'obtenir un meilleur linkbaiting et pourquoi pas plus de pages indexées.
Le 18/10/2010 à 18h53
@Hervé @LeJuge J'ai toujours pas capté le tampon... :(
@Damien Petitjean : 15% c'est un peu au pifomètre là. Sauf pour un site de bourrin, l'optimisation du code n'a pas grand rôle dans la vitesse, sauf si c'est réellement codé avec les pieds.
Enfin, je suis d'accord, oui mais non (je me comprends, et c'est déjà pas mal...)
Le 18/10/2010 à 18h58
@Keeg
Le tampon en haut à droite indiquant que ce blog est protégé par Spammeurs-bourrins.
Le 18/10/2010 à 19h12
Ah ouais, exact. Je ne parlais pas de la même chose, j'ai confondu. La fatigue, faut que je pense à finir ma journée là.
Le 18/10/2010 à 22h17
@Sylvain
J'étais bidonné de voir un commentaire de Publika sur ton article quand de mon côté je cite l'article de LaurentB ou il les taille sévère ;-)
Slt!
Tout à fait heureux de voir que nous sommes tous d'accord!
Balise et densité/sémantique font la vrai ref.
Comment le code qui est soustrait de l'analyse par les bots peut-il jouer ? sinon sur la vitesse du crawl qui peut être ralenti par du code lourdingue
Un petit bémol.
Les codes doivent cependant rester cohérents
(comme les th, l'imbrication des div, le span et pas le p ...) sinon les bots ont du mal à faire une bonne prise en comptes du contenu et on peut se retrouver avec un alt ou un title en notice sur Google. Mais cela est-il défavorable aux positions ? Ca reste à voir...
Bye
François
Allez hop, une signature optimisée pour dire que j'aurais préféré signer avec keywordluv (qui permet de mettre son nom + un mot clé).
Je m'en satisfait bien depuis que je l'ai installé, ça rend les échanges plus humains, je te le conseille.
En fait, je reviens juste pour dire que je n'avais pas vu le tampon. Excellent ! Merci au juge et à toi :-)
Le 19/10/2010 à 09h43
@Sylvain
Effectivement, keywordluv serait bien... si c'était un blog Wordpress.
C'est vrai que j'ai repris la fonction Gravatar que je trouvais très intéressante pour son côté plus personnel dans les échanges. L'avantage de cette fonction c'est qu'un code existe pour l'implantation sur les blog maisons.
Comme j'ai développé moi-même celui-ci, il faudrait que je m'attache à ce point avec une petite fonction maison ;-)
Je ne spamme pas hein ? c'est juste pour voir si la fonction que tu as mis en place marche bien :-)
Plus sérieusement, c'est réellement plus agréable dans les échanges lorsque l'on répond à un autre commentaire.
Tant que j'y suis, si je peux aider, et pendant que tu es dans le code.
Pour ma part, j'aurais mis un lien sur le titre des articles en plus du "lire la suite".
Ce titre étant placé plus haut dans le code, le lien sera pris en compte avant le "lire la suite" et permet d'avoir un lien vers l'article sur une ancre optimisée.
@Sylvain
Si tu spammes mon blog, c'est direct un lien vers spammeur-bourrin ;-)
J'ai ajouté un lien vers l'article sur le titre. Merci pour tes conseils.
Un bon code et un référencement sont deux choses différentes.
Les moteurs de recherche doivent afficher les sites ayant un contenu pertinent par rapport à la requête. Le code n'a rien à voir.
Un mauvais code n'empêche pas de naviguer.
J'ai passé plusieurs sites concurrents au W3C Validator et ils ont beaucoup d'erreurs. Pourtant ils sont toujours devant moi sur la majorité des requêtes.
Donc pas nécessaire de tenir compte du code dans les critères de référencement. Si c'était le cas, il faudrait que Google respecte les nomes. Est-ce déjà le cas? On a vu Microsoft se coucher sur les normes : IE est un bon exemple que les codeurs connaissent bien avec CSS.
Bref, je pense que la seule chose que l'on puisse reprocher à un mauvais code, c'est d'être codé par un collègue qui gagne 2 fois plus !!!
Google a déjà annoncé que le temps de chargement des sites est désormais pris en considération. Un site mal codé devrait logiquement être moins bien référencé si le code est mal optimisé (par contre, je crois que les standards ne sont pas tous pris en compte).
Effectivement un site mieux codé est favorisé et, comme le dit Ash, le temps de chargement des sites (des pages, plutôt) fait partie désormais des critères utilisés par Google. Mais dans quelle proportion ? Je pense que cela reste aujourd'hui un critère plutôt secondaire... En tout cas, je n'ai pas observé de chamboulement dans les classements alors qu'une Google Dance vient tout juste d'avoir lieu !
Salut à tous,
Comme vous je m'étais posé la question si le codage d'un site peut nuire à un bon référencement d'un site sur Google.
J'avais donc diminué pas mal d'erreurs que W3C m'avait indiqué (j'avais environ 80 erreurs que j'ai rabaissé à environ 20).
Ensuite j'ai attendu 2 mois pour voir si les résultats allaient bouger dans les serps, et bien rien de vraiment convaincant le site gardait à 2 ou 3 places près les mêmes positions...
Du coup je me focalise plus trop sur les validations de W3C mais bon j'essaie de faire un codage "assez propre ou lisible" par les navigateurs :D
@tchat
Nous avons fait pareil sur notre site (ici en signature) en passant la semaine du 7 juillet en W3C... Le résultat a été convaincant (ou heureux hasard) puisque nous avons gagné la place supplémentaire que nous cherchions sur nos deux mots clefs principaux pour atteindre la pos1 alors que rien n'y faisait pour l'instant.
Sans doute le contenu est plus facile a extraire et à analyser pour Google (et notamment pour PANDA) qui agit comme filtre qualitatif.
Le H1 ont été aussi retravaillées.
Bon été, à bientôt
François
La création de site Internet sur mesure est le coeur de métier de l'agence web Infini'click.
D'autres prestations sont également proposées, découvrez-les !
- Tutoriel : installer un serveur Debian (wheezy)
- Tutoriel : Installer un certificat SSL
- Piwik : monitorez tous vos sites discrètement
- Tutoriel Paypal : Intégration et configuration du paiement en ligne
- Tutoriel PayPlug : intégration au panier d'achat
- Référencement des images : l'état de l'art
- Des onglets en CSS avec JQuery
- Gildas le 04/03/2022 à 18:00
Nop j'ai que le require('fpdf.php) ; Mais pas... - Hervé le 04/03/2022 à 17:58
Gildas Tu n'appelles pas de fichier externe via un... - Gildas le 04/03/2022 à 17:50
merci de ton retour rapide, effectivement dans ma... - Hervé le 04/03/2022 à 17:45
Bonjour Gildas Effectivement, 8 ans ça fait un bail.... - Gildas le 04/03/2022 à 17:37
Bonjour Hervé, Bon j'arrive 8 ans après la... - Olivier le 16/01/2022 à 23:09
C'est clair que les actions réalisées ne correspondent...