11 Erreurs d\'optimisation Web fréquentes

Pour s’assurer un référencement correct sur , il est quand même important de connaître ne serait-ce que les bases de l’ Web.

11 Erreurs d\'optimisation

Car, il suffit de quelques éléments oubliés ou négligés pour que votre site en souffre lors du classement des sites dans les pages de résultats.

Il est difficile d’être parfait à 100%, mais l’essentiel est de s’approcher au maximum d’un tel score pour espérer avoir une plus grande visibilité sur les moteurs de recherche. Il est donc opportun d’éviter, tant que peut se faire, les erreurs SEO à même d’impacter négativement les performances de votre site.

Pour tenter d’orienter les webmasters vers une meilleure optimisation de leurs contenus Web, SEMrush a réalisé une infographie pour pointer du doigt les 11 erreurs de référencement les plus fréquentes.

Pour ce faire, SEMrush a réalisé une étude en collectant des données sur 100.000 sites Web et 450 millions de pages Web utilisant son outil d’audit pour déterminer finalement ce qui suit, dans l’infographie ci-dessous.

  1. Contenu dupliqué :
  2. Absence de balise ALT et images brisées :
    • 45% des sites analysés n’avaient pas ajouté de balise ALT dans les images intégrées dans leurs pages.
    • 10% avaient des images manquantes qui peuvent être dues au fait que les images ont pu être supprimées du serveur interne ou externe.
  3. Problèmes de balise Title :
    • 35% avaient des balises title dupliquées alors que chaque page se doit d’avoir un titre unique.
    • 4% avaient des balises title trop courtes.
    • 15% avaient des balises title trop longues qui, finalement, sont automatiquement tronquées dans les pages de résultats.
    • 8% n’ont pas (oubli ?) de balises titles sur certaines pages.
  4. Balise Meta Description :
    • 30% des sites analysés avaient des balises meta description dupliquées alors que chaque page se doit d’avoir une balise meta description unique.
    • 25% n’avaient même pas de balise meta description sur certaines pages du site.
  5. Liens internes et sortants brisés :
    • 35% des 100.000 sites analysés par SEMrush avaient des liens hypertextes internes brisés dont 70% renvoyaient un code erreur “400 et plus” (404, par exemple).
    • 25% avaient des liens sortants brisés, sans doute par la faute des sites qui les reçoivent qui ont dû soit désavouer ces liens, soit changer l’URL du contenu.
  6. Ratio texte par rapport au code HTML :
    • 28% des pages Web avaient très peu de texte par rapport à l’ensemble du code source de la page.
  7. Problèmes avec la balise H1 :
    • 20% des sites n’avaient pas de balise H1 (pour distinguer le titre de l’article) dans certaines pages.
    • 20% avaient plus d’une balise H1 alors qu’il ne doit y en avoir qu’une seule pour le titre.
    • 15% avaient des balises titles identiques aux balise H1.
  8. Textes trop courts :
  9. Trop de liens sur une même page :
    • 15% des sites avaient beaucoup de liens sur certaines pages.
  10. Mauvaise déclaration de la langue :
    • 12% des sites analysés présentaient des pages sans aucune déclaration de la langue du site.
  11. Redirection 302 :

Même si ces 11 erreurs d’optimisation peuvent vous sembler anodines, ce sont pourtant des bases SEO qui peuvent à long terme nuire à vos efforts de référencement si vous n’y prenez pas garde.

Google privilégie l\'indexation des pages HTTPS par défaut


Google favorisera les pages HTTPS par défaut

En d’autres termes, le référencement HTTPS devient maintenant la priorité pour , après en avoir fait un critère de classement avec un tout petit \ »boost\ » au départ.

Toutefois, les pages HTTP ne seront probablement pas pour l’instant affectées dans les résultats de recherche. Google ne cherche qu’à fournir plus de pages sécurisées dans ses résultats, mais on peut s’attendre à ce que l’étape suivante, comme il l’a fait avec le mobile-friendly, sera de déclasser les pages non-sécurisées.

page sécurisée HTTPS

Critères de l’indexation du HTTPS par défaut

conditions suivantes :

  • Elle ne contient pas de dépendances non sécurisées.
  • Elle ne redirige pas les internautes vers ou via une page HTTP non sécurisée.
  • Elle ne possède pas de lien \ »rel=\ »canonical\ »\ » vers la page HTTP.
  • Elle ne contient pas de balise Meta \ »noindex\ » pour les robots.

Donc, en ce qui concerne Google, la version HTTPS de votre site, si vous en avez, sera prioritaire par défaut.

l\’en-tête HSTS (HTTP Strict Transport Security) sur votre serveur.

Qu’est-ce que le HTTP Strict Transport Security (HSTS)

Le HTTP Strict Transport Security (HSTS) est un mécanisme de politique de sécurité proposé pour HTTP, permettant à un serveur web de déclarer à un agent utilisateur (comme un navigateur webcomme HTTPS).

« Strict-Transport-Security »

La politique HSTS aide à protéger les utilisateurs de sites web contre quelques attaques réseau passives (écoute clandestine) et actives. Une attaque du type man-in-the-middle ne peut pas intercepter de requête tant que le HSTS est actif pour ce site.

C\'est quoi le contenu dupliqué pour Google ?

Le contenu dupliqué ou contenu en double est aussi l’un des sujets récurrents du référencement Web abordés par les .

Qu\'est-ce que Google entend par contenu dupliqué ou en double ?

Et ce, en raison du fait qu’il existe différentes sortes de contenus en double dont certains peuvent être pénalisés par et d’autres pas.

Le dernier Hangout de John Mueller sur le “duplicate content”

Par définition, et selon Google, par contenu dupliqué, il entend généralement des blocs de contenu importants, appartenant à un même domaine ou répartis sur plusieurs domaines, qui sont identiques ou sensiblement similaires. À l\’origine, la plupart de ces contenus ne sont pas malveillants.

Cependant, dans certains cas, le contenu est délibérément dupliqué entre les domaines afin de manipuler le classement du site par les moteurs de recherche ou d\’augmenter le trafic. Ce type de pratique trompeuse peut avoir, selon Google, des effets négatifs sur la navigation de l\’internaute qui voit quasiment le même contenu se répéter dans un ensemble de résultats de recherche.

En conséquence, le référencement du site peut être affecté, ou le site peut être retiré définitivement de l\’index Google, auquel cas il ne s\’affichera plus dans les résultats de recherche.

Alors, voici quelques précisions de John Mueller :

  • Le contenu dupliqué touche à peu près tous les sites web, quelle que soit leur taille.
  • Selon John Mueller, le contenu en double, c’est un même contenu sur un même site. C’est aussi un même contenu avec un même chemin d’accès dans des URLs avec et sans WWW.
  • N’est pas un contenu dupliqué un contenu traduit ou adapté à partir d’une autre langue (ce n’est pas une raison pour ne pas citer la source). Il en est de même avec différentes pages ayant un même titre et/ou une même description, ainsi que le contenu dans les applications.
  • John Mueller confirme ce qu’avait déjà dit Gary Illyes en Mars 2015, à savoir que le contenu dupliqué n’est pas en soi une cause de pénalité.
  • Les contenus dupliqués sont une perte de temps de stockage et de ressources serveurs.
  • Si une page est dupliquée, Google ne conserve qu’une seule copie.
  • Un contenu dupliqué pour 2 localisations dans deux pays différents n’est pas une cause de pénalité.
  • Le contenu dupliqué dans les résultats de recherche crée de la confusion chez les utilisateurs. C’est pourquoi Google ne choisit de n’afficher qu’une seule version, l\’originale.

La pénalité de contenu dupliqué est donc un mythe.

Comment gérer les contenus dupliqués

Selon Google, les mesures suivantes vous permettent de résoudre les problèmes de contenu en double de manière proactive et de vous assurer que les visiteurs accèdent au contenu que vous souhaitez leur présenter.

  • Utilisez les redirections 301 : si vous avez restructuré votre site, utilisez des redirections 301 (\ »RedirectPermanent\ ») dans votre fichier .htaccess pour rediriger efficacement les internautes, Googlebot et les autres robots d\’exploration.
  • Soyez cohérent : soyez cohérent dans votre système de liens internes. Par exemple, n\’établissez pas de lien vers http://www.example.com/page/, http://www.example.com/page ni http://www.example.com/page/index.htm.
  • Utilisez des domaines de premier niveau : pour aider Google à présenter la version la plus appropriée d\’un document, utilisez dans la mesure du possible des domaines de premier niveau pour gérer du contenu spécifique à un pays donné.

    Google peut supposer que le site ”http://www.example.de”, par exemple, présente du contenu destiné à l\’Allemagne, par rapport à “http://www.example.com/de” ou http://de.example.com.

  • Soyez prudent en diffusant votre contenu : si vous publiez votre contenu sur d\’autres sites (Guest blogging), Google affichera systématiquement la version jugée la plus appropriée pour les internautes pour chaque recherche donnée, qui pourra correspondre ou non à celle que vous préférez.

    Cependant, il est utile de s\’assurer que chaque site sur lequel votre contenu est diffusé (notamment en guest blogging) inclut un lien renvoyant vers votre article original.

  • Utilisez Search Console pour indiquer à Google comment indexer votre site : vous pouvez indiquer à Google votre domaine favori (par exemple, http://www.example.com ou http://example.com).
  • Limitez les répétitions : par exemple, au lieu d\’inclure un avis de copyright au bas de chaque page, insérez un bref récapitulatif, puis établissez un lien vers une page plus détaillée. Par ailleurs, vous pouvez utiliser l\’outil de gestion des paramètres pour définir la manière dont Google doit traiter les paramètres d\’URL.
  • Évitez la publication de pages incomplètes : les internautes n\’apprécient pas les pages \ »vides\ », évitez donc les espaces réservés dans la mesure du possible. Utilisez la balise Meta noindex pour bloquer leur indexation.
  • Apprenez à maîtriser votre système de gestion de contenu : vérifiez que vous maîtrisez l\’affichage du contenu sur votre site Web. Les blogs, forums et systèmes associés affichent souvent le même contenu dans des formats divers.
  • Limitez les contenus similaires : si de nombreuses pages de votre site sont similaires, développez chacune d\’entre elles ou regroupez-les pour n\’en faire qu\’une seule.
  • Il n\’est pas recommandé de bloquer l\’accès des robots d\’exploration au contenu en double de votre site Web, que ce soit à l\’aide d\’un fichier robots.txt ou d\’autres méthodes.

    Il est préférable de permettre aux moteurs de recherche d\’explorer ces URL, mais marquez celles-ci comme des doubles à l\’aide de l\’élément link rel=\ »canonical\ », de l\’outil de gestion des paramètres d\’URL ou des redirections 301.

  • Dans le cas où le contenu en double nous conduit à explorer excessivement votre site Web, vous pouvez également régler les paramètres de la vitesse d\’exploration dans Search Console.

En conclusion, sachez que le contenu en double n\’entraîne pas de conséquences négatives particulières pour votre site sauf si l\’objectif semble être de tromper et de manipuler les résultats des moteurs de recherche.

Cependant, si Google estime qu\’il s\’agit de pratiques trompeuses, il retirera votre site de ses pages de résultats de recherche.

Si votre site a été retiré des résultats de recherche, après avoir apporté les modifications nécessaires et vous être assuré que votre site respectait ses consignes SEO, envoyez une demande de réexamen à Google.

Créer un site qui s\'auto-détruit dès que Google l\'indexe, c\'est possible !

Il s’agit ici d’une expérience menée par +Matthew Rothenberg qui se présente comme étant artiste et accessoirement hacker (dans le sens du bidouilleur).

Son expérimentation à consister à créer un site dénommé Unindexed qui va continuellement se chercher dans . Donc, chercher à savoir si l’a indexé.

Créer un site qui s\'auto-détruit dès que Google l\'indexe

Et, contrairement à l’attente de tout webmaster pour son site, Unindexed va refuser d’être présent sur Google.

Alors, dès qu’il se sera trouvé dans les pages de résultats de Google, il va, avec beaucoup de précaution, se supprimer de la page de résultats en s’auto-détruisant. Pour laisser ainsi Google afficher un message d’erreur.

Il fait donc ainsi de l’instant T où l’algorithme de Google le découvre et le classe le catalyseur de la destruction. Car, il s’auto-détruit de façon permanente.

Unindexed a quand même vécu pendant 22 jours, le temps qu’il soit repéré par Google. Il s’en est allé le 24 Février dernier en laissant ce message :

The site was discovered by Google after 22 days on Tue Feb 24 2015 21:01:14 GMT+0000 (UTC) and consequently instantly destroyed. Prior to the automatic deletion it it had hundreds of visitors and dozens of contributions. No backups were kept.

Informations si vous voulez faire le test

Matthew Rothenberg a livré quelques informations sur sa méthodologie que voici :

  • Le contenu de ce site est uniquement stocké en mémoire (via Redis) et se charge via un fichier depuis une partition chiffrée (ou sécurisée) de son ordinateur personnel.

    Cette partition est ensuite détruite immédiatement après le lancement du site. Les sauvegardes sont alors désactivées. Le contenu est vidé de la mémoire une fois que le site détecte qu\’il a été indexé par Google.

  • L\’URL du site peut être générée de façon algorithmique et est configurée via la variable d\’environnement, alors ce code source peut être rendu public sans divulguer l\’emplacement du site aux robots.
  • Les visiteurs peuvent laisser des commentaires sur le site pendant qu\’il est actif. Mais, ces commentaires seront supprimés de la même façon que le contenu indexé par Google. Ce qui rend les commentaires aussi éphémères que le contenu lui-même.

Si vous voulez tenter l’expérience, vous pouvez récupérer le code laissé par Rothenberg ici.

Bien entendu, personne ne le ferait avec son propre site.

Quand Google décide-t-il de ralentir ou d\'arrêter l\'indexation d\'un site ?


lors du SMX East de New York

Exploration et indexation par GoogleBot


noindexnofollow\ » ainsi que le fichier \ »robots.txt\ ».

Selon +Gary Illyes

  • Délai de connexion au serveur

  • Les codes de statut HTTP des serveurs : va également arrêter ou ralentir son exploration quand il obtient des codes de statut serveur dans la classe des 500 (500 à 520).

    Les codes d\’erreur 5xx du serveur

Google : Comment gérer les différentes versions d\'un site multilingue ?

+Zineb Ait Bahajji dans son récent post sur Webmaster Central.



  • Montrer à chacun de vos visiteurs le même contenu
  • Offrez la possibilité à vos visiteurs de choisir

Il faut ici noter que Google utilise uniquement le contenu visible de votre page pour déterminer la langue utilisée. .

Qu\’en est-il des contenus dupliqués dans ces cas ?

Selon Google

.

Si vous proposez toutefois du contenu aux mêmes utilisateurs sur des URL différentes (par exemple, si à la fois example.fr/ et example.com/fr/ affichent du contenu en français

12 Moyens d\'améliorer son trafic web sans faire de Netlinking

Et donc, leur importance en terme de visibilité et de trafic web.

Et pourtant, comme nous le présente Cyrus Shepard

1. In-Depth Articles

Selon Moz.com, 6% des résultats de recherche de contiennent désormais des liens In-Depth Articles.

2. Améliorer la satisfaction de l\’utilisateur

3. Les extraits enrichis issus des données structurées

extraits enrichis susceptibles de s\’afficher

4. Optimisation des contenus vidéo

La capture d\’extrait vidéo (miniature)

balises de schema.org pour les vidéos.

Wistia qui peuvent vous aider à créer un sitemap vidéo incluant automatiquement le balisage de Schema.org. Ce qui va vous permettre de choisir la miniature à afficher sur les pages de résultats.

Et comme les miniatures vidéos encouragent très souvent les clics, vous pouvez espérer alors améliorer votre trafic web.

5. Google AuthorShip

Certes Google ne vous garantit pas plus de clics si vous participez à l\’Authorship

6. Améliorer le temps de chargement des pages

Par temps de chargement, il faut comprendre le temps que prend votre serveur pour envoyer sa première réponse à une requête.

7. Optimisation pour mobile

Comme mentionné plus haut, votre site web devra être aussi configuré pour le mobile. Google ayant confirmé

8. Accroître votre audience en dehors de votre zone géographique

9. Visibilité avec Google+

vous devez être actif sur Google+.

10. Optimisation des balises meta et title

Et comme dit Matt Cutts : \ »\ ». Ce qui veut dire que toute duplication de balises pourra être pénalisée et constituer un frein à votre trafic web.

11. Publier régulièrement de nouveaux contenus

Sur certaines thématiques et pour certaines requêtes, avoir du contenu frais peut toujours aider pour plus de visibilité sur Google.

12. Optimisation interne du site

eCommerce : Que faire des pages des produits qui n\'existent plus ?




  • Vous avez un petit nombre de produits sur votre site
  • Vous avez un site ecommerce de taille moyenne avec quelques centaines de pages de produits

Pourquoi Google n\'indexe-t-il pas toujours tous les liens du fichier Sitemap ?

Fichier Sitemap.

Mais, est-ce pour autant que toutes les pages seront indexées ?

Google Webmaster

Gary Illyes

Sitemap comme un moyen d\’aider GoogleBot  à trouver vos contenus. Car, si des URLs manquent dans votre fichier, les robots auront du mal à les trouver , et donc les explorer. Ce qui entraînerait une indexation très lente de vos pages.

Il faut enfin savoir que pour que GoogleBot indexe une URL, celle-ci devrait :

– renvoyée une réponse 200 OK;

– ne pas être redirigée vers une autre URL;

– avoir une URL canonique identique;

– ne pas avoir de balise meta noindex dans le code source.