L’algo Penguin peut conduire Google à se méfier de votre site

Lorsque Google a déployé Penguin 4.0, a déclaré que la mise à jour visait à dévaluer ou ignorer les liens, pas à rétrograder les liens. Continuer la lecture de « L’algo Penguin peut conduire Google à se méfier de votre site »

Google Penguin : Vous n\'entendrez plus bientôt parler de lui aussi !

Gary Illyes a laissé entendre que Google Penguin ne sera finalement pas mis à jour à la période précédemment indiquée dans de nombreux Tweets.

Google Penguin

Toujours est-il que dans un autre Tweet, Gary Illyes, Webmaster Trends Analyst chez , nous livre une information très importante concernant . En même temps, on pouvait s’y attendre.

A la question de savoir si Penguin “en temps réel” signifie aussi qu’il va être introduit au coeur de l’algorithme de Google, Gary Illyes répond ce qui suit :

Gary Illyes a donc confirmé que Google Penguin sera bel et bien en temps réel, mais il a aussi ajouté qu’il fera bientôt partie du coeur de l’algo de Google.

Et il ajoute : “Ce qui signifie que nous arrêterons d’en parler (ou plutôt que je n’en parlerai plus)”.

Tout comme pour Google Panda qui est maintenant au coeur de l’algo, Google continuera de nous parler de l’évolution de son algorithme de ranking, sans plus jamais faire allusion à Panda ni Penguin qui n’existeraient donc plus de facto en tant que filtres anti-spam de Google.

Google confirme que Penguin 3.0 ne s\'arrêtera plus jamais

aurait confirmé le Penguin non-stop

Google confirme que Penguin 3.0 ne s\'arrêtera plus jamais

le site Searchengineland.com qui laisse entendre que Penguin 3.0 lancé depuis la mi-Octobre devrait se déployer indéfiniment.

On aurait pu penser au départ que ce déploiement était volontairement lent du côté de Google vu le temps écoulé (une année entière) entre les deux dernières mises à jour. Mais non ! Google ayant déclaré ce qui suit à Searchengineland.com :

\ »\ »

Cette annonce explique donc pourquoi beaucoup de sites ont vu des fluctuations dans leurs classements depuis le déploiement initial de Google Penguin 3.0. Ces fluctuations sont désormais susceptibles de persister ad vitam æternam.

On arrive donc à la même situation qu\’avec Google Panda

Google Penguin 3.0 est toujours en cours… Et ce n\'est pas fini !

John Mueller à propos de Penguin 3.0

Par conséquent, nous devrions continuer à observer des fluctuations dans les pages de résultats pendant un bon moment encore…

Un déploiement de Penguin déjà annoncé comme devant se faire très lentement, après une année sans mise à jour… Et, selon +John Mueller , il devrait prendre fin dans \ »quelques petites semaines\ ».

John Mueller a aussi profité de cet Hangout

pense-t-il inclure un jour une notification de pénalité algorithmique dans Google Webmaster Tools ?

John Mueller a révélé que Google étudie depuis un certain temps cette possibilité qui est toujours en discussion dans l\’équipe. Seulement, ils ont du mal à voir comment cela pourrait se faire. Et ce, compte tenu de la grande variété des critères couverts par leurs algorithmes lors de l\’exploration d\’un site web.

Il a alors annoncé qu\’ils cherchaient d\’autres façons d\’introduire des données qui leur permettront d\’informer les webmasters sur ce type de . Les discussions se poursuivent avec l\’espoir que cela pourrait bientôt aboutir à des notifications détaillées de pénalités algorithmiques dans Google Webmaster Tools.

Concernant le filtre IP, est-il vrai qu\’il peut influer sur deux sites différents sur la même adresse IP, vendant les mêmes produits ?

John Mueller a déclaré qu\’il ne pensait pas que cela devrait être considéré comme très important à propos d\’une question dont Google a conscience que cela peut se produire de façon naturelle.

Mais il a fait remarquer que si Google devait voir des milliers de sites similaires mis en place (sur une même adresse IP) tout en se concentrant sur un même mot-clé spécifique, c\’est quelque chose que les algorithmes regarderont scrupuleusement afin pouvoir infliger des pénalités s\’ils les considèraient comme étant des sites satellites.

C\’est à dire des sites exclusivement créés et optimisés pour les moteurs de recherche avec des mots-clés choisis et un contenu sans intérêt…

Pourquoi les positions moyennes dans Google Webmaster Tools (Trafic de recherche -> Requêtes de recherche) sont-elles si différentes de celles des autres outils de vérification de classement ?

John Mueller a souligné le fait que l\’information au sein des outils pour les webmasters, au sujet des classements, prenait en compte un certain nombre de choses, mais que finalement cela se résumait à ce que les gens voient lorsqu\’ils font des recherches sur des requêtes spécifiques.

Ainsi, les classements dans les outils peuvent être affectés par le ciblage géographique, la personnalisation des résultats et comment les gens poussent leurs recherches dans les résultats affichés (visitent plusieurs pages de résultats) concernant leur requête. Cependant, vous devriez être capable de voir depuis le nombre d\’impressions si ces classements sont légitimes comparativement à ce nombre d\’impressions affiché.

Les liens provenant de sites web statiques, sont-ils pénalisants pour tout site ?

Il s\’agirait dans cette question de liens posés dans des sites jamais réactulisés mais servant à pratiquer du negative pour influer négativement sur le classement des sites qui les reçoivent malgré eux.

John Mueller a souligné que Google est au courant de tels agissements dont il ne faudrait pas pour autant s\’en inquiéter. Il n\’y aurait donc, à l\’entendre, aucun un impact négatif à craindre de la part de ce genre de backlinks.

Google : L\'outil de désaveu de liens fonctionne sans intervention humaine

Désavouer les liens depuis est devenu une activité assez courante chez de nombreux webmasters qui préfèrent prendre les devants avant que Google Penguin ne sévisse.

Outil de désaveu de liens de Google

Il s\’agit donc de backlinks que considère ou pourrait considérer comme étant artificiels, et donc non-naturels. Et, dans le processus pour désavouer ces liens, l\’utilisateur se doit de fournir un fichier texte comprenant une liste de backlinks indésirables.

Alors qu\’on aurait pu penser, qu\’en transmettant un tel fichier à Google, que l\’équipe anti-spam procéderait à la vérification manuelle avant suppression des liens présents dans ce fichier, +John Mueller vient de faire savoir dans un tweet (voir ci-dessous) qu\’aucun Humain de chez Google n\’intervient dans ce processus pour vérifier quoi que ce soit.

S\’il n\’y a pas d\’intervention humaine dans ce processus de suppression des backlinks, peut-on alors considérer que certains refus de Google de reconsidérer un site provient des ratés de cet outil automatisé ?

En revanche, il faut noter que l\’équipe anti-spam de chez Google vérifient manuellement chaque demande de reconsidération, mais pas les fichiers des liens à supprimer.

Google Penguin c\'est pour quand ? John Mueller répond…

Google Penguin logo





jamais la même avant et après Penguin.

John Mueller avait déjà répondu

Sa réponse est toute simple dans un premier temps :

\ »Yes, assuming the issues are resolved in the meantime, with an update of our algorithm or its data, it will no longer be affecting your site\ ».

Et donc, la pénalité sera levée.

En tenant compte des nombreuses réactions qui ont suivi cette réponse, John Mueller est revenu posté un autre commentaire plus long pour mieux expliquer le fonctionnement de .

Ainsi, prend fin le commentaire de John Mueller suite à la question sur le refresh de Penguin.

Est-ce qu\'il y aura bientôt une mise à jour de Google Penguin ?

John Mueller de Google Webmaster Central

Update

Et surtout, au cas où il aurait été supprimé, est-ce que prévoit quand même de le lancer une dernière fois afin de lever les des Webmasters impactés qui ont tout de même nettoyé le profil de leurs backlinks et attendent…


 

(Question à partir de 5min et 16s)

Conclusion

Google : Peut-on utiliser l\'outil de désaveu pour supprimer les backlinks non pertinents ?

les liens qui pointent vers leurs sites.

La suspicion semble à être son paroxysme dans le monde du .



La vraie question serait donc de savoir si des liens non pertinents peuvent être considérés comme des liens non naturels, donc artificiels ?

Voici la réponse de John Mueller à ce webmaster :

Ce qui pourrait se traduire par : \ »

Finalement, selon John Mueller, tous les backlinks non pertinents ne sont pas tous des liens problématiques ou non naturels. Mais, cela reste à vérifier auprès de ceux qui ont été pénalisés pour liens non naturels.

Alors, quand faut-il utiliser l\’outil de désaveu ?

Il ne faut pas se précipiter inutilement sur cet outil pour sélectionner et désavouer certains de vos liens entrants. Sauf dans des cas bien précis :

  • Vous êtes un pro du référencement. Vous avez passé assez de temps pour vérifier le profil de vos backlinks et avez rapidement diagnostiqué avec certitude quels liens étaient de faible valeur.

SEO : Pourquoi mon site n\'apparaît plus sur Google pour mon mot clé ?

.


C\’est ce qui serait arrivé à un webmaster qui pose la question de savoir pourquoi son site n\’est plus visible lorsqu\’on recherche son mot clé favori pour lequel il devait sans doute avoir un bon classement.

C\’est John Mueller, Responsable de GWT, qui reproche au webmaster d\’avoir trop spammé son propre site qui lui apporte la réponse ci-dessous :

It looks like your SEO (or previous SEO) may have tried to promote your site in a way that\’s in violation of our Webmaster Guidelines. Specifically, I see a lot of unnatural links in low-quality articles as well as blog comments left by someone called \ »Maternity Jeans.\ »

Stopping these practices, cleaning up unnatural links like these, and using the disavow links tool in cases where you can\’t clean them up, would be a good step in the right direction. Over time (and this process can take months), as our algorithms recrawl the affected URLs, reprocess the links found on the web, and update their data, they\’ll be able to take the new state into account.   

En d\’autres termes, il semble que votre référenceur (ou prétendu référenceur) ait tenté de promouvoir votre site en violation de nos consignes aux webmasters. Plus précisement, je vois un tas de liens non-naturels présents aussi bien dans des articles de faible qualité que dans des commentairess sur des blogs avec comme ancre de liens \ »Maternity Jeans\ ».

Arrêter ces pratiques, supprimer tous ces liens artificiels, et utiliser de l\’outil de désaveu au cas vous n\’y arrivez pas tout seul serait un bon pas vers la bonne direction. Au fil du temps (et ce processus peut prendre des mois), quand nos algorithmes exploreront les URLs concernées, retrouveront les liens sur le web et mettront à jour leurs données, ils seront en mesure de tenir compte du nouvel état de votre site.

Ce qu\’il faut retenir dans cette mésaventure, c\’est d\’abord qu\’il faut apprendre les règles de base du SEO et surtout suivre l\’évolution des moteurs de recherches.

En l\’occurrence, limiter et varier les ancres de liens optimisées et surtout éviter les ancres de liens suroptimisées avec des money-keywords. Et ce, afin d\’éviter toute pénalité de qui vous entraînerait dans un long processus de demande de réexamen.

Voici maintenant comment bien référencer son site sur Google en 2014.

Changer le titre d\'un article fait-il chuter son classement sur Google ?

Matt Cutts.

balise meta title et/ou la balise meta description pour les rendre soit plus pertinentes, soit plus attractives.

Matt Cutts a apporté une précision fort utile. Une réponse qui laisserait comprendre que chez Google, on peut savoir si un site a fait l\’objet d\’une pénalité algorithmique (Penguin ou Panda) ou d\’une pénalité manuelle.

Voici ce que dit Matt Cutts à ce webmaster qui est surpris qu\’un de ses liens présents en deuxième page soit immédiatement déclassé après des modifications des balises meta :

\ »Nope, it\’s not the title and meta descriptions. I\’d recommend reading up about Penguin and looking into how to clean things up for Penguin\ ».

Matt Cutts répond que ni le titre, ni la balise meta description ne sont en cause dans cette chute. Mais, le site aurait été impacté par . Et Matt Cutts invite alors le webmaster à plutôt faire le ménage dans ses backlinks avant d\’envoyer une requête en reconsidération pour retrouver son classement d\’antan.

Dans le cas de ce webmaster, le changement de titre et de description ne serait qu\’une pure coïncidence avec une mise à jour de Penguin.