Pourquoi Google n\'indexe-t-il pas toujours tous les liens du fichier Sitemap ?

Fichier Sitemap.

Mais, est-ce pour autant que toutes les pages seront indexées ?

Google Webmaster

Gary Illyes

Sitemap comme un moyen d\’aider GoogleBot  à trouver vos contenus. Car, si des URLs manquent dans votre fichier, les robots auront du mal à les trouver , et donc les explorer. Ce qui entraînerait une indexation très lente de vos pages.

Gary Illyes attire aussi l\’attention des webmasters sur le fait que l\’algorithme de Google pourrait décider de ne pas indexer toutes les URLs rencontrées. Ainsi, si GoogleBot rencontre un contenu qu\’il juge inutile ou non pertinent ou encore non relié avec d\’autres contenus du site, il pourrait l\’exclure de l\’indexation.

Il faut enfin savoir que pour que GoogleBot indexe une URL, celle-ci devrait :

– renvoyée une réponse 200 OK;

– ne pas être redirigée vers une autre URL;

– avoir une URL canonique identique;

– ne pas avoir de balise meta noindex dans le code source.

Google+ aurait dépassé +1 Milliard d\'utilisateurs !

+.


Compte tenu du fait que tous les utilisateurs des autres services et applications de Google (, Drive, Youtube

Source: Google+ Growth (Greg Miernicki and François Beaufort)

Comment ont-ils procédé ?

Greg Miernicki and François Beaufort (employé chez Google) se seraient servis du chiffre publiquement annoncé par Google le 15 novembre 2012 comme début de leur calcul.

Pour y parvenir, ils ont téléchargé le sitemap de Google+. Ensuite, ils ont exploré tous les sous-sitemaps disponibles dans le sitemap principal de Google+.

Source: Google+ Growth (Greg Miernicki and François Beaufort)

http://www.arobasenet.com/2013/09/google-promet-chiffres-impressionnants-sur-googleplus-368.html