10 erreurs techniques qui impactent votre référencement

Erreurs à éviter.




Les problèmes techniques sur un site, notamment de crawling, sont en général signalés dans votre compte Webmaster Tools.

1 – Les URLs en minuscule ou en majuscule ?

Intaller un lien canonical dans le header de chaque page permet de résoudre ce type de problème du point de vue des robots des moteurs de recherche. Sinon, utiliser le module rewrite de votre serveur forcerait la réécriture des URLs en minuscule.

2 – Plusieurs versions de votre Homepage

Nous en avons déjà parlé dans le top des recommandations SEO de Google. De nombreux webmasters ne faisant pas encore de choix unique et définitif de ce qui sera leur page index.

Or, il suffit de faire un audit

Ce qui est mauvais pour votre référencement parce que vous vous retrouvez dans un cas de contenus dupliqués durement pénalisés par Google Panda.

3 – Des paramètres de requêtes ajoutés en fin d\’URL

Ce type de problème se rencontre le plus souvent sur les sites e-Commerce. Mais cela arrive aussi sur des sites web où les recherches sur le moteur interne peuvent afficher des URLs à paramètres qui sont immédiatement indexées par les moteurs de recherche.

Ce qui pose donc aussi le problème de contenus dupliqués qui est un mauvais signal envoyé aux moteurs de recherches.

4 – Utiliser la redirection 302 au lieu de la 301

5 – Les petites erreurs 404 ou Soft 404 errors

tour de passe-passe. Car, pour eux, vous avez 2 liens avec un même contenu. Duplicate content ! Ce qui va limiter le crawling de votre site.

Autant vous pouvez afficher une page 404 personnalisée, autant cette page personnalisée devra toujours renvoyer le code 404 aux moteurs de recherche.

Pour vérifier quel code renvoie votre page 404 personnalisée, vous allez dans le Google Webmaster Tools (Etat de santé -> Explorer comme Google) et vous insérez le lien pour voir la page comme GoogleBot la verrait.

6 – Fichier Sitemaps non mis à jour


Ensuite, songez à utiliser un outil qui mettra votre fichier sitemaps XML automatiquement à jour. Par exemple, vous pouvez le faire gratuitement sur le site xml-sitemaps.com si vous votre site à moins de 500 pages.

7 – Donner des ordres incorrects dans le fichier robots.txt

Dans ces 2 cas, il y a certainement une configuration incorrecte du fichier robots.txt. Prise individuellement, chaque ligne de commande semble correcte. Seulement, toutes les lignes de commande du robots.txt ne fonctionnent pas bien ensemble.

8 – Caractères invisibles dans le fichier robots.txt

Pour résoudre le problème, réécrivez votre fichier robots.txt, remettez-le à la racine de votre site et lancez à nouveau la vérification dans votre Webmaster Tools.

9 – Quand Google crawle les URL en Base64


http://www.votredomainequevousavez.com/c2hvdWxkIGRlZmluaXRlbHkNCmdldCBhIGxpZmU=/

La solution réside dans votre capacité à insérer des lignes de commandes dans votre robots.txt avec des Expressions Régulières (ReGex) interdisant aux robots de crawler de telles pages. Un bon développeur pourra régler le problème pour vous.

10 – Serveur mal configuré

Un serveur mal configuré peut aussi impacter votre référencement.

Le problème se pose lorsque le navigateur envoie un \ »Accept Header\ » commençant, par exemple, par \ »text/html\ » et que le serveur mal configuré renvoie systématiquement le premier type de fichier lu dans son \ »Content-Type\ ». Ce qui peut provoquer un serveur \ »down\ ».

Il se passe la même chose avec les robots qui, avant de crawler une page, lui envoient un Accept Header. Si le serveur répond avec un Content-Type indiquant une page au format \ »txt\ », la page pourrait ne pas être indexée.


Voici maintenant comment bien référencer son site sur Google.