Google Search Console va mieux cibler les destinataires de ses messages d\'alerte

+Gary Illyes, Webmaster Trends Analyst chez , vient de publier le post ci-dessous pour annoncer un changement à venir dans Google Search Console (ex Google webmaster Tools).

Selon Gary Illyes, dans les toutes prochaines semaines, Console va changer comment et à qui il envoie les messages d’alerte et les notifications concernant les sites web validés.

Google Search Console

Ainsi, une fois cette mise à jour mise en place, Google enverra désormais les notifications uniquement aux propriétaires directs d\’un site particulier. Il semble, selon moi, qu\’il s\’agit d\’une initiative qui vise à faire la part des choses entre le propriétaire d’un site et la plateforme qui l’héberge.

Sont donc concernés des plateformes d\’hébergement de sites et de blogs gratuits tels que , .com, Wix, etc…

Gary Illyes annonce donc que les propriétaires de ces plateformes ne recevront plus de messages, concernant des ou virus par exemple, à propos des sites ou blogs qu’ils hébergent à titre gratuit ou payant en sous-domaine.

Pour ma part, je pense que cela éviterait que les administrateurs de ces sites soient dorénavant surpris par une pénalité manuelle ou une quelconque désactivation de la part de Google. N’ayant pas reçu de message d’alerte, ils ne peuvent agir rapidement.

Ainsi, avec comme exemple de site en sous-domaine “wordpress.com/monsite”, ce n’est plus “Wordpress.com” qui recevra les messages d’alerte provenant de , mais bel et bien le propriétaire de “monsite” hébergé par wordpress.com qui recevra les messages.

Mais, Gary Illyes précise que bien que cette modification s\’appliquera à la plupart des messages, des messages critiques (par exemple, une alerte concernant le piratage d’un site) peuvent encore être envoyés à tous les propriétaires de plateformes d’hébergement web en sous-domaine.

Google Penguin 3.0 est toujours en cours… Et ce n\'est pas fini !

John Mueller à propos de Penguin 3.0

Par conséquent, nous devrions continuer à observer des fluctuations dans les pages de résultats pendant un bon moment encore…

Un déploiement de Penguin déjà annoncé comme devant se faire très lentement, après une année sans mise à jour… Et, selon +John Mueller , il devrait prendre fin dans \ »quelques petites semaines\ ».

John Mueller a aussi profité de cet Hangout

pense-t-il inclure un jour une notification de pénalité algorithmique dans Google Webmaster Tools ?

John Mueller a révélé que Google étudie depuis un certain temps cette possibilité qui est toujours en discussion dans l\’équipe. Seulement, ils ont du mal à voir comment cela pourrait se faire. Et ce, compte tenu de la grande variété des critères couverts par leurs algorithmes lors de l\’exploration d\’un site web.

Il a alors annoncé qu\’ils cherchaient d\’autres façons d\’introduire des données qui leur permettront d\’informer les webmasters sur ce type de . Les discussions se poursuivent avec l\’espoir que cela pourrait bientôt aboutir à des notifications détaillées de pénalités algorithmiques dans Google Webmaster Tools.

Concernant le filtre IP, est-il vrai qu\’il peut influer sur deux sites différents sur la même adresse IP, vendant les mêmes produits ?

John Mueller a déclaré qu\’il ne pensait pas que cela devrait être considéré comme très important à propos d\’une question dont Google a conscience que cela peut se produire de façon naturelle.

Mais il a fait remarquer que si Google devait voir des milliers de sites similaires mis en place (sur une même adresse IP) tout en se concentrant sur un même mot-clé spécifique, c\’est quelque chose que les algorithmes regarderont scrupuleusement afin pouvoir infliger des pénalités s\’ils les considèraient comme étant des sites satellites.

C\’est à dire des sites exclusivement créés et optimisés pour les moteurs de recherche avec des mots-clés choisis et un contenu sans intérêt…

Pourquoi les positions moyennes dans Google Webmaster Tools (Trafic de recherche -> Requêtes de recherche) sont-elles si différentes de celles des autres outils de vérification de classement ?

John Mueller a souligné le fait que l\’information au sein des outils pour les webmasters, au sujet des classements, prenait en compte un certain nombre de choses, mais que finalement cela se résumait à ce que les gens voient lorsqu\’ils font des recherches sur des requêtes spécifiques.

Ainsi, les classements dans les outils peuvent être affectés par le ciblage géographique, la personnalisation des résultats et comment les gens poussent leurs recherches dans les résultats affichés (visitent plusieurs pages de résultats) concernant leur requête. Cependant, vous devriez être capable de voir depuis le nombre d\’impressions si ces classements sont légitimes comparativement à ce nombre d\’impressions affiché.

Les liens provenant de sites web statiques, sont-ils pénalisants pour tout site ?

Il s\’agirait dans cette question de liens posés dans des sites jamais réactulisés mais servant à pratiquer du negative pour influer négativement sur le classement des sites qui les reçoivent malgré eux.

John Mueller a souligné que Google est au courant de tels agissements dont il ne faudrait pas pour autant s\’en inquiéter. Il n\’y aurait donc, à l\’entendre, aucun un impact négatif à craindre de la part de ce genre de backlinks.

Google estime que le balisage Schema suffit à identifier l\'Auteur d\'un article

Données structurées avec Schema.org



Tout le monde le sait maintenant, depuis que la nouvelle a fait le tour de la Toile : a mis fin aux fonctionnalités de l\’AuthorShip



L\’un des aspects importants de cette Hangout est le fait d\’apprendre de la part de John Mueller que l\’Authorship faisait partie de l\’algorithme de classement de Google. Et Google ne souhaitait plus avoir de problème avec l\’obligation de mettre à jour l\’authorship lors des prochaines mises à jour de l\’algorithme.

D\’ailleurs, en commentaire au post ci-dessous, John Mueller a déclaré que \ »tout code qui fonctionne de notre côté fait partie de nos algorithmes\ ». Mais, il a précisé que ce ne sont pas toutes les parties des algorithmes de Google qui sont utilisées pour le classement sur les pages de résultats.

Donc, l\’authorship ne pouvait pas être forcément un facteur de classement.

Il ajoute cependant qu\’il est juste bon, pour la maintenance du code, de supprimer ce dont on n\’a plus besoin afin d\’éviter d\’avoir à le supporter et de créer des problèmes de sécurité.

Autre précision importante de John Mueller, qui recommandait aux webmasters de se tourner vers le balisage des contenus (données structurées) avec schema.org, c\’est qu\’un auteur peut être une entité (comme les lieux, personnes, entreprises, appareils, etc…) qu\’on peut associer à une page et schema.org offre de réelles opportunités aux moteurs de recherches d\’en savoir plus sur les auteurs.

C\’est pourquoi, poursuit John Mueller dans un autre commentaie, \ »Nous essayons de reconnaître les sources originales et de les traiter de façon appropriée. Nous interprétons le balisage schema.org et pouvons prendre en compte différents types d\’entités supplémentaires si nous pouvons trouver une meilleure façon de les utiliser pour aider à améliorer les résultats de la recherche, etc.. 


Il y a beaucoup de choses qui sont théoriquement imaginables dont certaines sont dans nos documents de recherche publiés ou brevets déposés. Cela ne signifie pas que c\’est destiné à l\’usage des webmasters qui devraient l\’implémenter.

Si vous pouvez implémenter le balisage schema.org depuis votre outil de création CMS ou obtenir des données structurées depuis Google webmaster Tools, c\’est une bonne chose. Mais, il ne faudrait pas s\’attendre dans l\’immédiat à un coup de pouce pour le classement\ ».

Alors, d\’apprès John Mueller, si vous devez choisir entre optimiser votre site pour le mobile et ajouter le balisage schema.org, sachez qu\’un site optimisé pour le mobile aura beaucoup plus d\’impact immédiat pour vous.

Google vient de supprimer les photos d\'Authorship de ses résultats personnalisés

Google photo authorship



Au mois de Juin dernier, avait annoncé la suppression des photos d\’authorship de ses pages de résultats.

Mais, force a été de constater que cette suppression ne concernait pas les résultats personnalisés  lors de recherches effectuées par des personnes connectées à leur compte Google+.

Cette information faisait suite à une question posée par +Joshua Berg

Les logos du PublershShip en force…

liens des nombres d\’avis lors des recherches locales.

  • Les résultats pointant vers des posts Google+ ont complètement disparu. Sauf exceptions rares.

Authorship avec le nom de la page My Business pointant vers post Google+.
Affichage du logo de la page .

La logique dans cette histoire, c\’est qu\’après avoir autorisé l\’utilisation des pseudos pour les profils Google+, la confiance de Google est désormais tournée vers les pages Google My Business.

Au final, Google vient de confirmer l\’existence du PublisherShip.

Il suffit d\'une redirection 301 pour que les pénalités Google se réactivent

Nous savons depuis un post de John Mueller que les pénalités de Google peuvent nous suivre à vie  même si nous mettons en place une redirection 301 ou créons un nouveau site.

Les pénalités et la redirection 301

Hélas pour lui, le mal était déjà fait ! C\’est ce que confirme John Mueller de Webmasters en ces termes :

I don\’t see a manual action for either of these sites — otherwise it would also be visible in your Webmaster Tools account. That said, I do see that these old links are still pulling the site back, in particular our web-spam algorithms are pretty unhappy about them. My recommendation would be to really make sure that those old links are completely cleaned up across the board (as well as any other webspam issues you might find while doing that), and to keep in mind that some of these algorithms need quite a bit of time to have the updated results visible (with links, we need to be able to recrawl & reprocess them in order to recognize that they\’re removed, modified, or disavowed; this data then needs to be aggregated, reprocessed, and republished as new data for search).

Selon John Mueller, il n\’y aucune action manuelle contre les sites de ce webmaster. Ceci étant dit, il constate tout de même que les anciens liens de l\’ancien site ont été réactivés (ndlr : par la redirection 301). Des liens qui ne feraient pas plaisir à l\’algorithme anti-spam de Google.

John Mueller recommande alors au webmaster de faire en sorte que les anciens liens soient complètement nettoyés de son tableau de bord (sans dire comment faire) avant d\’ajouter ceci :

Gardez en mémoire que certains de ces algorithmes nécessitent un certain temps avant que les résultats des corrections et mises à jour ne soient visbles. Avec les liens, Google a besoin d\’explorer à nouveau le site, d\’essayer de l\’indexer à nouveau avant de se rendre compte que finalement ces liens ont été supprimés, modifiés ou désavoués.

Ensuite, ces données auront besoin d\’être agrégées, réindexées et republiées en tant que nouvelles données de recherche.

La leçon à retenir, c\’est que tout ce qui est fait sur un site peut-être immédiatement enregistré par Google qui pourrait alors s\’en servir à nouveau contre votre site. Il est donc urgent de bien vérifier vos liens de redirection 301 avant de les mettre en place.

Dans le cas que nous venons de voir, le nouveau nom de domaine se retrouve accidentellement bénéficiaire de redirections 301 supprimées mais déjà connues de Google qui exige un nettoyage complet pour supprimer les de ce nouveau nom de domaine.

La redirection d\’un site pénalisé vers un autre transfère donc tous les signaux des anciens liens pénalisés vers le nouveau site. Mais, après suppression des liens, il faut attendre un Refresh pour que la pénalité de Penguin soit levée.

Or, depuis le mois d\’Octobre 2013, il y a pas encore eu de mise à jour de Penguin que beaucoup attendent encore pour retrouver leur référencement d\’avant pénalités.

Un nouveau site plutôt qu\’une tentative de nettoyage

Dans le deuxième cas, auquel répond John Mueller, il s\’agit d\’un webmaster dont le site a été aussi durement pénalisé ainsi que l\’ensemble de tous ses sites web.

John Mueller lui recommande dans un premier de réduire le nombre de sites similaires (même thématique) avant de lui signifier que s\’il pointe des liens de chacun de ses sites vers les autres, il crée des liens artificiels. Et qu\’il sera donc difficile pour Google de faire confiance à l\’ensemble de ses sites.

Et John Mueller d\’ajouter :

Sometimes, when the issues are severe enough, and when you\’re certain that you\’ve learned how to do it correctly, it may make sense to delete all of these old sites, and to just create a single new one. I know it\’s never easy to make such a decision, but especially if you\’re sure that you\’ll be able to avoid all of the issues leading up to the problems with the current site (eg no unnatural links!), and if you have fantastic content, then it can be worth reviewing.

En d\’autres termes, \ »parfois, lorsque les problèmes du ou des sites sont assez graves, et lorsque vous êtes certain d\’avoir appris comment le faire correctement, il peut être judicieux de supprimer tous les anciens sites afin d\’en créer un nouveau.

Je sais il n\’est jamais facile de prendre une telle décision, mais surtout si vous êtes sûr que vous serez en mesure d\’éviter tous les problèmes qui vous sont actuellement reprochés (par exemple, aucun lien artificiel), et si vous avez du contenu pertinent, alors il peut être utile d\’y réfléchir.\ »

A partir de ce deuxième cas, on peut aisément comprendre que sans même révéler à Google les sites que vous gérez, il peut arriver à les détecter et les utiliser pour pénaliser le site officiel mentionné dans les Google Webmaster Tools. Comment ? Nul ne le sait… en tout cas pas moi !

Google informe les Webmasters s\'il supprime leur contenu pour droit à l\'oubli

Google et droit à l\'oubli

Depuis Webmaster Tools, Google aurait commencé à envoyer des messages aux webmasters dont le contenu aura été supprimé en raison du Droit à l\’oubli



Voici un exemple de message envoyé à un webmaster :

Image via Seroundtable.com

Google simplifie et généralise l\'indexation des applications Android

Indexation application mobile Android


indexation lancée en Novembre dernier était limitée aux seuls utilisateurs Américains.

Ainsi, si vous avez un site web et une application , vous pouvez désormais créer des liens profonds de votre site web vers votre application Android et Google se chargera de faire pointer ces liens depuis ses pages de résultats vers votre application Android directement sur votre contenu à l\’intérieur de ladite application.

C\’est tout de même amusant que cette annonce soit faite le même jour où annonce la disponibilité de son AppLinks qui utilise sensiblement le même système que celui mis en place par Google.

Toujours est-il que pour que cela fonctionne avec Google, vous avez 2 étapes à franchir :

Et lorsque Googlebot explorera votre site, il découvrira les liens profonds vers votre application Android et les indexera automatiquement sans que vous ayez à en faire la demande.

Dans votre espace Google Webmaster Tools, Google introduira un nouvel onglet \ »Applications Android\ » dans Exploration -> Erreurs d\’explorationafin de vous avertir des erreurs qui peuvent exister concernant votre application mobile.

Google vous indiquera alors la page de l\’application et la page web qui posent problème avec des exemples de liens afin que vous puissiez apporter les corrections nécessaires.

Google Authorship : La fin des photos d\'auteurs sur les pages de résultats




Ce qui est vraiment surprenant comme annonce.

lancée par Google le 7 Juin 2011, bien avant l\’annonce du lancement de Google+.

Cette fonctionnalité était censée permettre à tout auteur de contenus web de revendiquer leur paternité. Lesquels auteurs identifiés pouvant alors bénéficier de l\’affichage de leurs photos sur les pages de résultats de Google.

Même qu\’il était prévu de favoriser de tels auteurs identifiés par l\’Authorshiplors des classements sur les pages de résultats de Google par rapport aux auteurs anonymes.

Que dit John Mueller ?

Dans son post sur Google+ (voir ci-dessous), +John Mueller déclare ceci :

Nous avons beaucoup travaillé pour améliorer l\’interface visuelle de nos résultats de recherche, notamment en créant une meilleure expérience mobile et un design plus cohérent sur l\’ensemble des appareils de connexion.

Pour continuer sur cette lancée, nous allons simplifier la manière dont l\’Authorship (photo d\’auteur) apparaît dans les résultats de recherche sur mobile et sur ordinateur. Et ce, en supprimant la photo du profil (auteur) et le nombre de followers. (Nos expériences nous indiquent que le taux de clics obtenus avec ce nouveau design moins encombré (sans photo) est similaire au précédent design avec les photos d\’auteurs).

En parlant d\’uniformiser l\’apparence des pages de résultats sur tous les appareils de connexion (mobile, tablette et ordinateur), John Mueller justifie ainsi cette suppresion des photos par la nécessité pour Google de ne pas alourdir ses pages de résultats sur mobile afin de réduire le temps de chargement pour accélérer l\’affichage des pages.

Donc, pour alléger les pages de résultats de mobile (design plus cohérent), Google sacrifie ce qui a fait tout l\’intérêt de particper dans un premier temps à l\’Authorship.

Que va-t-il se passer maintenant ?

Il va bien entendu se passer ce qu\’a dit John Mueller : plus de photos de profils Google+ identifiés comme auteurs de contenus.

Selon les premières constatations faites, l\’Authorship continue d\’exister mais sous une autre forme.

Ne serait-ce que pour continuer à collecter les données personnelles et de navigation des profils dont Google pourrait avoir besoin pour mieux cibler les publicités affichées et accessoirement pour le probable Author Rank.

Ainsi, les résultats de recherche qui bénéficient de l\’affichage de l\’Authorship sur les pages de résultats voient le nom et le prénom de l\’auteur mentionnés en gris clair au début de la description du lien, suivis parfois par la date de publication.

Ce nom d\’auteur bénéficie d\’un lien vers la page du profil Google+. Sans aucune photo, ni nombre d\’abonnés.

Cependant, sur certaines requêtes, nous avons encore la photo de l\’auteur ainsi que le nom mais pas de nombre d\’abonnés. Sans doute que pour ces rares exceptions constatées, les requêtes n\’ont pas encore été mises à jour.

Il faut rappeler ici ce que dit Google concernant les \ »Informations relatives à l\’auteur dans les résultats de recherche\ » dont le lien est dans le post Google+ ci-dessus :

Google teste l\’affichage des informations relatives à l\’auteur dans les résultats de recherche pour aider les internautes à trouver du contenu de qualité.

Et Google de déclarer par la suite qu\’il ne peut pas garantir que les informations relatives à l\’auteur s\’afficheront dans les résultats de la Recherche sur le Web Google ou de .

Alors, si l\’Authorship avec l\’affichage des photos d\’auteurs ayant un profil Google+ disparaît, disons-nous que ce n\’était qu\’un test. Sans plus…

Pourquoi le nombre d\'URLs indexées peut-il baisser dans Google Webmaster Tools ?

Google Webmaster Tools




Depuis son annonce du 31 mars dernier



John Mueller est revenu sur ce changement de fin Mars à l\’occasion d\’un post sur Google+ d\’un webmaster qui s\’étonnait de voir que son nombre de pages indexées avait considérablement baissé.

Pour le cas de ce webmaster, John Mueller a laissé entendre que la réduction des données de son site à la date de mise à jour mentionnée à la page \ »Index Google -> Etat de l\’indexation\ » est due à l\’existence d\’une version alternative du site qui a été vérifié dans Google Webmaster Tools.

Alors, John Mueller recommande au webmaster de vérifier en faisant une recherche sur Google à partir de la commande \ »site:votredomaine.com\ » et de découvrir quelle version du site il voit sur les pages de résultats. Si la version WWW du site est visible dès la première page, c\’est alors la version sur laquelle se trouve la grande majorité des données indexées.

Par contre, si vous voulez que Google indexe et comptabilise les URLs de la version WWW et celles de la version sans-WWW, vous devez faire vérifier et valider ces 2 versions dans Google Webmaster Tools.

Qu\’est-ce qui a changé depuis fin Mars?

Auparavant, quelle que soit la version validée ou quel que soit le sous-domaine ou le répertoire, Google affichait des statistiques globales de vos données sans faire de distinction.

Maintenant, Sur la page \ »État de l\’indexation\ », vous ne pouvez consulter que les données du site sélectionné et validé dans les outils pour les webmasters.

Voici d\’ailleurs ce qu\’en dit Google  :

Nous n\’affichons pas les données globales de toutes les versions de votre site. Même si nous explorons et indexons le contenu de votre site, que vous l\’ayez ou non validé dans les outils pour les webmasters, seules les URL indexées pour une version particulière de votre site figurent dans le rapport \ »État de l\’indexation\ ».

Ainsi, si vous validez uniquement un sous-répertoire de votre site dans les outils pour les webmasters, seules les données de ce sous-répertoire s\’afficheront sur la page \ »État de l\’indexation\ » (http://www.exemple.com/blog/). Toutefois, le domaine de premier niveau reflétera toujours le nombre total d\’URL indexées pour ce domaine.

Ce qui confirme bien que depuis l\’annonce de cette mise à jour, la page \ »État de l\’indexation\ » ne reflète que les données de la structure de l\’URL du site sélectionné.

C\’est pourquoi Google vous encourage fortement à valider toutes les versions pertinentes de votre site et à définir un domaine favori si les internautes peuvent accéder à votre site à la fois par des URL WWW ou non-WWW ou avec ou sans-WWW. Car, les données concernant l\’état de l\’indexation correspondent précisément à la version d\’une URL spécifique de votre site validé (par exemple, les données provenant de http://www.exemple.com ne sont pas identiques à celles provenant de https://exemple.com).

Pour conclure, retenez que le nombre total d\’URLs de l\’index Google affiche la totalité des URLs pouvant figurer dans les résultats de recherche, ainsi que d\’autres URLs que Google peut découvrir autrement (Par exemple une page en NoIndex qui reçoit quand même un backlink…).

Ce nombre change au fil du temps, à mesure que vous ajoutez ou supprimez des pages. Le nombre d\’URLs indexées est souvent bien inférieur au nombre d\’URL explorées, car le Nombre total de pages indexées n\’inclut pas les URL en double, les URL non canoniques, les URL peu utiles ou qui contiennent une balise Meta noindex.

Voici maintenant comment bien référencer votre site internet sur Google.