L’algo Penguin peut conduire Google à se méfier de votre site

Lorsque Google a déployé Penguin 4.0, Google a déclaré que la mise à jour visait à dévaluer ou ignorer les liens, pas à rétrograder les liens.

L’algo Penguin peut conduire Google à se méfier de votre siteCela signifie que Google ignorerait simplement les spammy et factices et que votre site Web ne serait pas rétrogradé à cause de ces liens. Eh bien, Maintenant, Google dit que parfois, Penguin peut également rétrograder votre site en entier.

Ainsi, lorsque Google a publié la mise à jour de l’algorithme Penguin en temps réel en 2016, Google nous a dit que cette version dévaluait ou ignorait la plupart des spammy.

Pour la plupart, l’algorithme Penguin de Google n’est plus pénalisé pour les mauvais car il viserait à neutraliser les liens spammy et à ne pas les compter, au lieu de les pénaliser.

John Mueller, de chez Google, a déclaré vendredi lors d’une session de questions-réponses vidéo que Penguin essayait d’ignorer les spammy.

Cependant, dans les cas où Google ne peut pas parce qu’il existe un « modèle très fort » de liens spammy pointant vers le site, Penguin peut pénaliser et se méfier du site dans son ensemble et ne pas agir de la manière granulaire pour laquelle il a été conçu.

John Mueller a déclaré cela à la marque 37:06 dans cette vidéo qu’il a postée vendredi sur la chaîne YouTube Google Search Central.

La question qui a été posée à John Mueller était la suivante :

« La pénalité Penguin est-elle toujours pertinente ou les backlinks toxiques spammy moins pertinents sont plus ou moins ignorés par les algorithmes de classement de nos jours ? »

Voici la réponse de John Mueller :

Je l’ai dit, c’est un mélange des deux.

Donc, pour la plupart, lorsque nous pouvons reconnaître que quelque chose est problématique et tout type de lien spammy, alors nous essaierons de l’ignorer.

Si nos systèmes reconnaissent qu’ils ne peuvent pas isoler et ignorer ces liens sur un site Web et si nous voyons un modèle très fort là-bas, il peut arriver que nos algorithmes disent que nous avons vraiment perdu confiance en ce site Web et pour le moment, sur la base de la vue d’ensemble sur le Web, nous devons être plus conservateurs quand il s’agit de comprendre le contenu de ce site Web et le classer dans les résultats de recherche.

Et puis vous pouvez voir une sorte de baisse de la visibilité là-bas.

Mais pour la plupart, comme le Web est assez désordonné,  nous reconnaissons que nous devons ignorer beaucoup de liens là-bas. Donc, pour majeure partie des cas, je pense que c’est bien. Habituellement, vous ne verriez ce genre de baisse que s’il s’agit vraiment d’un modèle fort et clair associé au site Web.

John Mueller dit que dans certains cas, l’algorithme de lien peut rétrograder l’ensemble du site en fonction des liens et ne pas simplement ignorer les liens spammy spécifiques.

Mais il semble qu’il doit y avoir des niveaux très élevés de liens spammy.

John Mueller est revenu sur Twitter pour préciser que « c’est le cas pour de nombreux spams et signaux de mauvaise qualité » dans les algorithmes de Google.

 

Question de Kristine Schachinger :

Je suis confuse, bien que Penguin était censé simplement dévaluer les liens, alors comment quelqu’un saurait-il que cela s’est produit ? Pas une action manuelle, donc pas de préavis – faîtes-vous simplement chuter le site de la falaise ?

L’algorithme Google Penguin peut ne pas simplement ignorer les liens…

Réponse et confirmation de John Mueller :

C’est le cas pour de nombreux spams et signaux de mauvaise qualité – nous nous efforcerons d’ignorer les effets non pertinents, mais s’il est difficile de trouver quelque chose d’utile qui reste, nos algorithmes peuvent finir par être sceptiques à l’égard du site dans son ensemble.

En fin de compte, quand il s’agit de créer des liens, vous devez être prudents. N’achetez pas de liens, ne cherchez pas de moyens bon marché et faciles d’obtenir des backlinks vers votre site.

Assurez-vous de consulter le document d’aide sur les systèmes de liens documentés de Google et restez loin de ces méthodes.

Lorsque vous travaillez sur des sites clients qui peuvent avoir des problèmes de liens, vous devez décider si vous avez vraiment besoin de désavouer les liens ou non, puis quels liens vous devez désavouer.

Dans le même temps, Google ignore probablement déjà la plupart des mauvais liens, vous n’aurez donc peut-être pas trop à vous en soucier.

Il peut être plus facile d’éviter la pratique de la création de liens et de créer un site Web et un contenu vers lesquels d’autres sites souhaitent naturellement créer des liens sans que vous ne le leur demandiez.

Source : Searchengineland

Auteur : Noel NGUESSAN

Je suis Noel Nguessan, fondateur du site Arobasenet.com qui existe depuis 2007 et a aujourd'hui plus de 6.800 articles. Pour ma part, j'ai intégré le monde de l'internet en 1997 en qualité de créateur de site internet, avant de devenir développeur web et multimédia au début de l'année 2000, avant de basculer naturellement vers le SEO en tant que Consultant.