Google précise les pénalités pour spam sur Search et les questions de qualité

John Mueller de chez a publié l’une des réponses les plus détaillées sur le sujet du spam de la recherche globale, des , des algorithmes de qualité et plus encore.

Google précise les pénalités pour spam sur Search et les questions de qualité

Voici un résumé de ce que John a dit suivi de la réponse intégrale :

  1. Les sites Web ne sont pas définitivement supprimés de Google Search.
  2. Google n’a pas de liste de sites bloqués en permanence.
  3. Les suppressions complètes d’action manuelle sont pour le « spam pur avec rien d’utile sur ces pages. »
  4. Google préfère ignorer les mauvaises parties des sites plutôt que de les pénaliser.
  5. Il a expliqué comment fonctionnent les demandes de réexamen.
  6. Google a des algorithmes qui signalent les problèmes (algorithmes de capture de spam ?)
  7. Google a des algorithmes pour la pertinence aussi (comme les Core Updates ?)

Voici ce que John a écrit sur Reddit :

Les sites ne sont pas définitivement supprimés de Google – il y a toujours un moyen d’obtenir que le site soit indexé à nouveau. Parfois, il faut beaucoup de temps et beaucoup de travail, mais Google n’a pas une liste de sites bloqués en permanence.

Pour les actions manuelles (pénalités), généralement, les choses qui conduisent à la suppression complète sont assez graves, comme quand un site est juste du spam pur avec rien d’utile de lui-même.

Pour tout le reste, il y a une variété pour « ignorer les mauvaises parties pour se concentrer sur ce qui est bon », « sauter pour certaines fonctionnalités de recherche (par exemple, ce n’est pas dans les news) », et « large baisse dans le classement de recherche » (lorsque les mauvaises parties ne peuvent pas être séparées du contenu).

J’aime les cas où Google peut juste ignorer le mauvais et se concentrer sur le bon. Les gens font accidentellement du « black-hat » en suivant de mauvais conseils (comme « utiliser du blanc sur le texte blanc avec vos mots clés »), et si les systèmes de Google peuvent ignorer cela, mais toujours montrer le site pour ses parties utiles, alors les utilisateurs seront plus heureux, et je suis sûr, les propriétaires de site apprendront à un moment donné.

Cependant, cela peut conduire à des situations embarrassantes où un concurrent se classe au-dessus de vous, mais fait quelque chose « évidemment black hat », vous tentant de le faire aussi (ces sites ont tendance à se classer malgré les trucs black hat, pas à cause de cela).

Quand il s’agit d’actions manuelles / pénalités, vous pouvez demander un réexamen après avoir corrigé le problème. Dans la pratique, cela signifie que Google doit réexaminer le site, en fonction du type d’action manuelle qui peut se produire assez rapidement (par exemple, « le site n’est plus piraté ») ou prendre un peu de temps (« J’ai supprimé certains mauvais liens » peut parfois prendre des mois).

Si « les algorithmes » signalent les problèmes (essentiellement juste un logiciel qui fonctionne chez Google), ou tout simplement ne trouvent pas le site plus aussi pertinent dans la recherche (fondamentalement des changements dans la façon dont Google classe dans la recherche), alors il s’agit plus d’améliorer le site, généralement à un niveau plus large.

C’est comme quand une station de radio ne joue plus votre musique parce qu’elle n’est plus considérée comme grande : on ne change pas seulement les échantillons de batterie, il faut repenser ce que l’on crée dans l’ensemble.

Il peut également arriver que le temps d’un site ou son utilité vient de passer. Si vous avez un site web de jeux old-school-phone (pour ancien modèle de téléphone) et que plus personne n’exécute ces appareils, aucune quantité de texte modifié sur les pages ne corrigera cela. Repérer le changement de vent avant qu’il ne soit trop tard est un peu un art, comme c’est le cas d’une manière qui vous permet de réutiliser une partie de votre travail.

Source : Seroundtable

23% d\'utilisateurs en plus pour Instagram contre -3% pour Facebook et +6% pour Google+

GlobalWebIndex

Cette étude concerne la croissance de ces plateformes durant le deuxième semestre 2013 (de juillet à décembre 2013). Et ce, en comparaison au premier semestre 2013.

Le plus surprenant reste la modeste amélioration de avec +13% de croissance qui le place au-dessus des autres leaders.

Autre surprise s\’il en est, c\’est la baisse du nombre d\’utilisateurs de sur ces 6 derniers mois de l\’année 2013. Une baisse de 3% qui confirmerait alors les rumeurs d\’un certain abandon de Facebook par les jeunes. Toujours est-il que la base des utilisateurs de Facebook demeure impressionnante.

Quand à +, il poursuit tout doucement sa croissance en enregistrant 6% d\’utilisateurs en plus durant ce deuxième semestre 2013 alors que MySpace connaît encore une plongée de -12% d\’utilisateurs.

source : Globalwebindex.com