Toute optimisation pour Core Web Vitals dure 28 jours avant résultats

n’a pas l’intention d’accélérer le temps qu’il faut pour analyser et rendre compte des données Core Web Vitals.

Toute optimisation pour Core Web Vital dure 28 jours avant résultats. Et ce n\'est pas prêt de changer...

Les outils de test de de Google, notamment Google Pagespeed Insights, prennent 28 jours pour recueillir des données globales sur le terrain, ce qui ne changera probablement pas de sitôt.

pour la dernière période de collecte de données de 28 jours ne passe pas (

John Mueller, Web Trends Analyst chez Google, l’a explicitement déclaré lors du hangout de la Search Central enregistré le 5 Mars dernier.

Vahan Petrosyan, Search Engine Journal’s IT Director, a posé des questions à John Mueller à ce sujet tout en notant les défis que la fenêtre de 28 jours crée pour les développeurs et les SEOs.

Car, lorsqu’une modification est apportée à un site Web pour améliorer les éléments signaux web essentiels ou Core Web Vitals, il faudra au moins 28 jours avant que cette modification ne soit récupérée par les outils de test de Google.

Il est peu probable que ce délai de 28 jours soit réduit, selon la réponse de Mueller que vous pouvez lire ci-dessous.

John Mueller à propos des données Core Web Vitals

 

Dans la vidéo du hangout, Mueller doute que la collecte de données Core Web Vitals puisse changer un jour par rapport à ce qu’elle est aujourd’hui.

Je ne sais pas. J’en doute, parce que les données que nous montrons dans la Search Console est basée sur les données du rapport d’expérience utilisateur Chrome qui sont agrégées au cours de ces 28 derniers jours.

C’est donc la principale raison du retard. Ce n’est pas que la Search Console est lente dans le traitement de ces données ou quelque chose comme ça. C’est juste la façon dont les données sont collectées et agrégées, cela prend juste du temps.

Google n’a pas l’intention d’analyser et de rapporter les données Core Web Vitals en temps réel.

Les scores représentent des données globales, parce que Google veut s’assurer que le site fournit toujours une bonne expérience utilisateur sur une longue période.

Si les référenceurs SEO et les développeurs veulent les données plus rapidement, John Mueller recommande qu’ils effectuent leurs propres tests avec des outils tiers ou l’API PageSpeed Insights.

Donc, habituellement, ce que je recommande quand les gens posent des questions sur ce genre de chose en disant « Je veux savoir plus tôt quand quelque chose ne fonctionne pas », c\’est de s’assurer que vous exécutez vos propres tests de votre côté, un peu en parallèle pour vos pages importantes.

Et il y a un tas d’outils tiers qui le font pour vous automatiquement.

Vous pouvez également utiliser l’API Page Speed Insights directement et choisir, je ne sais pas, un petit échantillon de vos pages importantes et simplement les tester tous les jours.

Et de cette façon, vous pouvez dire assez rapidement s’il y a des régressions dans l’une des configurations que vous avez faites.

John Mueller souligne que les données de laboratoire offertes par des outils tiers ne sont pas les mêmes que le champ de données, ce qui est ce que Google rapporte.

De toute évidence, un test de laboratoire n’est pas le même que le champ de données.

Il y a donc un peu de différence là-bas. Mais si vous voyez que les résultats des tests de laboratoire de données sont stables pendant un certain temps, et puis tout à coup ils vont vraiment être bizarre, alors c’est un indicateur fort que quelque chose s’est cassé dans votre mise en page ou dans vos pages quelque part.

John Mueller reconnaît que la façon dont Google collecte le cumulative layout shift (CLS) est particulièrement délicate.

Si les référenceurs SEO estiment que les calculs de Google ne font pas sens, John Mueller les encourage à communiquer directement avec l’équipe Chrome.

Cela rend les choses plus difficiles. Ce n’est pas que nous essayons de rendre les choses plus difficiles, c’est juste la façon dont ces données sont collectées dans Chrome. Il faut juste du temps pour être agrégé.

Le Cumulative Layout Shift est parfois, je pense, difficile à interpréter et à comprendre ce qui est exactement à l’origine des problèmes là-bas.

Je pense que pour les choses où vous sentez que les calculs sont faits d’une manière qui ne fait pas beaucoup sens, essayez d’entrer en contact avec l’équipe Chrome.

Je pense surtout qu’Annie Sullivan travaille à améliorer le Cumulative Layout Shift des choses. Et assurez-vous juste qu’elle voit ce genre d’exemples.

Et si vous rencontrez quelque chose où vous dites, « oh ça n’a aucun sens du tout », alors assurez-vous que l’équipe Chrome le sache. Ce n’est pas tant que du côté de , nous essayons de creuser et d’essayer de comprendre ce qui se passe exactement avec ce score, mais nous avons un peu besoin de compter sur le score du côté de Chrome.

Enfin, John Mueller rappelle aux SEOs que Google prévoit de mettre à jour le Core Web Vitals environ une fois par an.

Il va donc falloir avoir de bons scores Core Web Vitals dès le mois de Mai 2021 pour ne pas en souffrir pendant de longs mois. Ce qui fait penser aux débuts de Google Panda et aussi , quand les délais de recouvrement des classements antérieurs paraissaient si longs pour les sites pénalisés. CQFD.

Bien que le Cumulative Layout Shift soit un élément essentiel du Web cette année, par exemple, il se peut qu’il ne soit pas un changement l’an prochain si Google détermine qu’il n’est pas vital de fournir une bonne expérience utilisateur.

Et notre objectif avec les Core Web Vitals et Page Expérience en général est de les mettre à jour au fil du temps.

Je pense donc que nous avons annoncé que nous voulions les mettre à jour peut-être une fois par an et faire savoir aux gens à l’avance ce qui se passe.

Je m’attends donc à ce que cela s’améliore au fil du temps. Mais il est également important d’obtenir vos commentaires ou retours et de s’assurer qu’ils sont au courant de ces cas bizarres.

Source : Searchenginejournal

L’outil Désavouer des liens arrive dans la nouvelle Search Console

Un an après avoir officiellement fermé l’ancienne version de Console, a annoncé qu’il a migré l’outil Disavow Links ou outil “Désavouer des liens” de l’ancienne Search Console vers la nouvelle Search Console

L’outil “Désavouer des liens” arrive dans la nouvelle Search Console

Google a donc annoncé que l’outil Disavow Links est enfin en migration vers la nouvelle interface de la Search Console, avec des améliorations. Google a également mis à jour sa page support avec de nouvelles orientations.

Aujourd’hui, nous terminons la migration de l’outil “Désavouer des liens” vers la nouvelle interface de la Search Console :

  • Interface améliorée
  • Télécharger un fichier de liens à désavouer sous forme de fichier texte
  • Les rapports d’erreur pour les fichiers téléchargés ne sont plus limités à 10 erreurs

Ainsi, si votre site fait l\’objet d\’une action manuelle pour cause de liens non naturels renvoyant vers celui-ci ou si vous craignez qu\’il soit soumis à une action manuelle (en raison de liens payants ou d\’autres systèmes de liens qui enfreignent les consignes relatives à la qualité), vous devez essayer de supprimer ces liens du site incriminé.

Si cela n\’est pas possible, vous devez désavouer les URL des pages ou domaines douteux qui redirigent vers votre site Web.

L\’outil “Désavouer des liens”

L’outil de désaveu des liens est un moyen pour les éditeurs de signaler à Google que des liens spammy ne doivent pas être pris en compte.

L’outil \ »Désavouer des liens\ » était quelque chose que les éditeurs ont demandé dans le sillage de l’algorithme Penguin de Google. Google a d’abord résisté à fournir aux éditeurs la possibilité de désavouer les liens.

L’algorithme Google Penguin était un algorithme de liens qui pénalisait les sites qui recevaient des liens spammy ou en envoyaient d’ailleurs, comme les fermes de liens. Certains éditeurs ont perdu du trafic pendant des mois et plus longtemps en attendant que l’algorithme Penguin soit actualisé.

Les éditeurs ont été naturellement consternés par l’algorithme et par la tâche d’avoir à contacter chaque propriétaire de site à partir duquel ils peuvent avoir acheté un lien ou dont ils ne voulaient pas le lien.

Les sites qui avaient dans le passé acheté des liens et oublié à leur sujet se sont également retrouvés sous une pénalité liée à Penguin et ont également fait face à la tâche de contacter les sites pour avoir des liens supprimés, y compris les sites avec lesquels ils n’ont peut-être pas acheté des liens, mais avaient des liens qui semblaient suspects à leurs yeux.

C’est pourquoi la communauté a pratiquement supplié Google pour avoir un moyen de désavouer les liens. Finalement, Google a reconnu la valeur de l’outil et l’a publié.

L’outil Disavow links a toujours été pour désavouer en premier les liens spammy que les éditeurs ou leur prestataire ont eu le malheur de placer ici et là.

Utilisations alternatives de l’outil Disavow link

Ainsi, depuis son lancement, la communauté SEO a commencé à utiliser l’outil pour désavouer les liens de recherche spammy aléatoire qu’ils ont estimés étaient à l’origine de la chute de leurs sites dans les classements.

Ce genre d’utilisation n’est pas ce que Google avait à l’esprit quand il a publié l\’outil. Les instructions de Google indiquent clairement de l’utiliser pour les liens qui ont causé une action manuelle ou sont susceptibles de provoquer une action manuelle. Il n’y a rien dans les instructions sur l’utilisation pour aider à corriger les classements de mots clés qui sont en baisse.

Même que John Mueller a déjà déclaré que Google est bon pour ne pas compter les liens factices et de ne pas utiliser l\’outil Disavow links pour les liens factices.

La page support de l’outil “Désavouer des liens” recommande de l’utiliser uniquement dans le cas d’une action manuelle ou pour désavouer les liens susceptibles de provoquer une action manuelle.

La recommandation de Google contredit l’utilisation de l’outil par certains SEO et les éditeurs qui l’utilisent dans l’espoir d’améliorer les classements qui baissent.

Amélioration de l’outil “Désavouer des liens”

L’annonce de Google a vanté trois améliorations dans l’outil populaire :

  • Interface améliorée
  • Télécharger un fichier de liens à désavouer sous forme de fichier texte
  • Les rapports d’erreur pour les fichiers téléchargés ne sont plus limités à 10 erreurs

Alors, qu’y a-t-il de nouveau ?

Le grand changement est en fait le nouvel emplacement, mais Google a également mis à jour l’interface pour l’outil.

Vous pouvez désormais également télécharger un fichier de désaveu sous forme de fichier texte, et il existe un nouveau rapport d’erreur pour les fichiers téléchargés qui ne sont plus limités à 10 erreurs.

Où se trouve désormais l’outil Disavow link ?

Le nouvel emplacement pour l’outil “Désavouer des liens” est maintenant à cette adresse : https://search.google.com/search-console/disavow-links.

Auparavant, il était situé à l’adresse : https://www.google.com/webmasters/tools/disavow-links-main. Les deux URL semblent encore fonctionner, mais je pense que l’ancienne URL sera bientôt dépréciée.

Google avertit cependant :

Il s\’agit d\’une fonctionnalité avancée qui doit être utilisée avec prudence.

En cas d\’utilisation incorrecte, cette fonctionnalité peut nuire au classement de votre site dans les résultats de recherche Google.

Nous vous recommandons de ne désavouer les liens entrants que si vous pensez avoir un nombre considérable de liens artificiels, de mauvaise qualité ou associés à du spam pointant vers votre site et si vous êtes convaincus qu\’ils vous causent du tort.

De nombreux SEO et prestataires SEO utilisent l’outil \ »Désavouer des liens\ ». Il est également important de savoir que l’emplacement a changé et de comprendre les petites modifications apportées par Google à l’outil avec la migration.

Source : Searchenginejournal

.tb_button {padding:1px;cursor:pointer;border-right: 1px solid #8b8b8b;border-left: 1px solid #FFF;border-bottom: 1px solid #fff;}.tb_button.hover {borer:2px outset #def; background-color: #f8f8f8 !important;}.ws_toolbar {z-index:100000} .ws_toolbar .ws_tb_btn {cursor:pointer;border:1px solid #555;padding:3px} .tb_highlight{background-color:yellow} .tb_hide {visibility:hidden} .ws_toolbar img {padding:2px;margin:0px}.tb_button {padding:1px;cursor:pointer;border-right: 1px solid #8b8b8b;border-left: 1px solid #FFF;border-bottom: 1px solid #fff;}.tb_button.hover {borer:2px outset #def; background-color: #f8f8f8 !important;}.ws_toolbar {z-index:100000} .ws_toolbar .ws_tb_btn {cursor:pointer;border:1px solid #555;padding:3px} .tb_highlight{background-color:yellow} .tb_hide {visibility:hidden} .ws_toolbar img {padding:2px;margin:0px}.tb_button {padding:1px;cursor:pointer;border-right: 1px solid #8b8b8b;border-left: 1px solid #FFF;border-bottom: 1px solid #fff;}.tb_button.hover {borer:2px outset #def; background-color: #f8f8f8 !important;}.ws_toolbar {z-index:100000} .ws_toolbar .ws_tb_btn {cursor:pointer;border:1px solid #555;padding:3px} .tb_highlight{background-color:yellow} .tb_hide {visibility:hidden} .ws_toolbar img {padding:2px;margin:0px}

Google : Pas besoin de vous notifier les backlinks spammy

Depuis Google Penguin 4.0, dévalorise les liens spammy qui pointent vers d’autres sites et rétrogradent ces sites.

Google: Pas besoin de vous notifier les backlinks spammy

Toutefois, lors d’un récent Hangout relayé par Barry Schwartz, un participant a posé la question de savoir pourquoi Console ne fournit pas aux webmasters des notifications pour les alerter sur de potentiels backlinks spammy pointant vers leurs sites.

John Mueller a alors apporté la réponse suivante qui coule de source :

En d’autres termes :

Si nous les reconnaissons, nous pouvons simplement les ignorer. Pas besoin pour vous de faire quoi que ce soit dans la plupart des cas.

Alors, la question 100 fois posée et 100 fois répondu est de savoir si de tels liens toxiques peuvent impacter votre site ?

Certes, Google dispose toujours des actions manuelles contre les liens factices (non-naturels) qui pointent vers un site. Et cela peut impacter durement un site.

Toutefois, si des liens toxiques sont détectés de façon algorithmique, et donc par 4.0, il n’y a en principe rien à craindre puisque Google a déjà déclaré que Penguin est devenu plus “granulaire”.

C’est pourquoi, il dévalue de tels liens pour réduire leur impact sur le site (dans un sens comme dans l’autre).

Seuls les liens factices passés au travers de Penguin et qui finissent par entraîner (il faut vraiment une grosse quantité) des actions manuelles sont à craindre.

Et dans ce cas, ces actions manuelles déclencheront une notification par email ou dans la Search Console pour vous avertir que vous avez un problème avec des backlinks. Mais algorithmiquement ou automatiquement, si Google détecte des liens incorrects, il les ignorera.

Contrairement à une action manuelle qui exige que vous nettoyiez tous ces mauvais liens avant de faire une demande de réexamen pour espérer lever la pénalité.

Google : Des pénalités algos peuvent remplacer des actions manuelles

des actions manuelles de Google, des algorithmes peuvent prendre la relève de certaines de ces de site et les faire perdurer.

Google : Des pénalités algos peuvent remplacer des actions manuelles

Google a à nouveau confirmé que les actions manuelles, les sanctions de recherche appliquées par l’équipe Webspam de , peuvent expirer au fil du temps.

Avec les actions manuelles de Google, des personnes de chez Google appliquent des pénalités aux sites Web qui ne respectent pas les consignes des webmasters de Google.

Google a lancé une visionneuse des actions manuelles dans la Search Console depuis 2013 pour les notifier aux webmasters lorsqu’il ajoute des pénalités manuelles à votre site Web.

John Mueller, Webmaster Trends Analyst chez Google, a récemment déclaré sur que, parfois, des actions manuelles peuvent être remplacées par des pénalités algorithmiques.

Comme le fait remarquer Searchengineland.com, nous savons depuis de nombreuses années que les actions manuelles peuvent expirer. Souvent, après qu’une action manuelle expire, Google va la réémettre si la violation se poursuit ou n\’a pas été corrigée ou a été mal corrigée.

Mais parfois aussi, d’après John Mueller, une action manuelle peut avoir expiré et ne sera pas renouvelée parce qu\’un algorithme de pénalité aura pris le relais :

Oui, les actions manuelles expirent après un certain temps. Souvent, les choses changent au fil des années. Donc, ce qui pourrait à l\’époque avoir besoin d\’une intervention manuelle pour résoudre/améliorer, pourrait être mieux appliqué algorithmiquement de nos jours.

Ainsi, par exemple, une action manuelle pour les mauvais liens pointant vers votre site n\’est plus nécessaire parce que l\’algorithme de Google Penguin aura lui-même détecté les mauvais liens et aura appliqué la pénalité automatiquement.

Les actions manuelles sont utilisées spécifiquement là où les algorithmes ne peuvent pas encore faire le travail. Lorsque de nouveaux algorithmes sont conçus pour faire le \ »job\ », ces actions manuelles de l\’homme ne sont plus nécessaires.

En d’autres termes, aujourd’hui, une action manuelle peut se commuer ou se poursuivre en pénalité algorithmique, et cela ne vous sera pas notifié dans votre Search Console.

Google Speed Update est globalement déployé sur mobile

D’après , les gens veulent être en mesure de trouver des réponses à leurs questions aussi vite que possible. Des études montreraient en effet que les gens se soucient vraiment de la vitesse de chargement des pages.

La Speed Update de Google est déployée globalement sur mobile

Bien que le temps de chargement a été utilisé dans le classement depuis un certain temps, ce signal a été axé sur les recherches via ordinateur.

à partir de ce mois de Juillet 2018, la vitesse de chargement est désormais considérée comme un facteur de classement pour les recherches mobiles.

La “Speed Update” ou mise à jour de la vitesse de chargement

seuls les sites lents sur mobile seront pénalisés par Google, et donc déclassés. De la même façon que Google Panda et existent, mais ne pénalisent pas tous les sites.

La Speed Update applique les mêmes standards à toutes les pages, quelle que soit la technologie utilisée pour créer la page.

intention de la requête de recherche est toujours un signal très fort

Google a donc commencé à intégrer le nouvel algorithme Speed Update dans les résultats de recherche mobile en tant que facteur de classement de recherche.

Google dit encourager les développeurs à réfléchir largement sur la façon dont les performances affectent l\’expérience utilisateur de leur page

  1. Le rapport d\’expérience utilisateur de Chrome
  2. Lighthouseperformances, accessibilité, et plus) des pages Web.
  3. PageSpeed Insights : un outil qui indique comment une page performe sur l’expérience utilisateur de Chrome et suggère des optimisations de performances.

Sachez à toute fin utile que Google ne vous indiquera aucune métrique spécifique concernant le délai de chargement de vos pages Web.

Seuls les 3 outils ci-dessus mentionnés pourraient vous apporter un aperçu du temps que prend chaque page pour se charger.

.tb_button {padding:1px;cursor:pointer;border-right: 1px solid #8b8b8b;border-left: 1px solid #FFF;border-bottom: 1px solid #fff;}.tb_button.hover {borer:2px outset #def; background-color: #f8f8f8 !important;}.ws_toolbar {z-index:100000} .ws_toolbar .ws_tb_btn {cursor:pointer;border:1px solid #555;padding:3px} .tb_highlight{background-color:yellow} .tb_hide {visibility:hidden} .ws_toolbar img {padding:2px;margin:0px}

7 Facteurs utilisés par Google pour évaluer les backlinks

Les liens entrants ou backlinkscette étude

7 Facteurs utilisés par Google pour évaluer les backlinks

En effet, , le rendant plus autoritaire et digne de confiance, et donc fiable, aux yeux de .

Toutefois, Google dispose de garanties pour s\’assurer que tous les liens ne sont pas traités équitablement.

C\’est une bonne chose parce que cela signifie que vous ne pouvez pas impunément spammer et poser des liens spammy à travers le Web pour manipuler des classements sans subir une pénalité de Google.

La plupart d\’entre les peuvent rapidement juger si un backlink est “naturel” ou s’il est spammy (et donc factice), mais le processus d\’évaluation de Google est plus nuancée que cela.

Alors, comment Google évalue-t-il les backlinks dans son algorithme de classement ? Voici les 7 principaux critères utilisés.

  1. Source d’Autorité :

    En règle générale, plus le domaine source qui pointe le lien est d’autorité, plus le lien transmettra de l’autorité vers le site qu\’il pointe.

    Par exemple, si un site nouvellement créé n\’a pas beaucoup de lecteurs et n\’a pas de nombreux liens entrants, il va être un site de faible autorité. Ainsi, tout lien que vous obtenez de celui-ci procurera, au mieux, un avantage marginal.

    Mais, si vous pouvez obtenir un backlink à partir d\’une publication en ligne bien établie, de bonne réputation, bien connue, vous obtiendrez beaucoup plus de bénéfice (de jus) du lien.

    Évidemment, plus le lien est d’autorité, plus il est difficile d\’en acquérir, de sorte que vous aurez besoin d\’équilibrer vos efforts entre ceux qui sont les plus gratifiants et ceux qui sont réellement disponibles pour vous (à votre portée).

  2. L’attribut Nofollow :

    Il existe une exception spécifique à la règle d\’autorité : l’attribut nofollow de la balise . Google vous permet de baliser certains liens dans le code HTML avec \ »rel = nofollow\ » pour indiquer qu\’ils ne devraient pas être analysés, suivis, ou utilisés comme un moyen de faire passer du jus, et donc de l’autorité.

    Le Nofollow est principalement utilisé par les éditeurs pour s\’assurer que leur autorité n\’est pas endommagé par les liens sortants qui mènent vers des sources douteuses.

    Après tout, les backlinks ressemblent à une rue à deux voies. Vous pouvez également marquer vos propres liens internes ou sortants avec un attribut nofollow si vous voulez que le lien existe sans passer d’autorité vers d\’autres pages.

    On se dit communément que si un lien est marqué avec un attribut nofollow, Google va l\’ignorer.

    Cependant, diverses études ont suggéré que les liens en nofollow ne sont pas toujours ignorés par Google, et qu\’avoir assez de liens nofollow peut effectivement être pproblématique pour le bon référencement (en anglais).

  3. Pertinence de la source :

    Il y a maintenant des preuves qui suggèrent que la pertinence de votre source de backlink ou lien entrant est également important dans l\’évaluation de Google.

    Si vous affichez sur un blog sur la fabrication de grands hamburgers, et vous le liez à la page d\’un avocat de la défense criminelle, il vaudrait mieux avoir une bonne raison pour faire cela. Par contre, si vous pointez un lien vers un site traitant de comment avoir les meilleurs ingrédients pour votre restaurant, cela pourrait être plus logique.

    Les éditeurs qui publient des articles sur une grande variété de sujets ont souvent des pages de catégories qui segmentent ces sujets. Et dans de tels cas, il est important que le lien réside sur une page incluse dans la bonne catégorie thématique.

    La règle de base ici est de s\’assurer que le lien est logique et fait sens pour vos lecteurs.

  4. Pertinence contextuelle :

    Le contenu entourant votre lien est également important. On parle alors du contexte.

    Le texte avant et après un lien sert de pertinence contextuelle pour la page de destination du lien. Ce qui va aider Google à déterminer comment le lien se rapporte au contenu dans lequel il est placé.

    Cet effet est le plus important et le plus proéminent dans la phrase dans laquelle le lien réside, suivi du paragraphe dans lequel il réside, suivi par le corps de l\’article en entier dans lequel il réside.

  5. Texte d\’ancre :

    Le texte d\’ancrage (ou texte des liens pointant vers un site web) de votre lien est également pris en considération.

    Il s\’agit du texte cliquable dans lequel votre lien est “hébergé”. Il y a plusieurs années, avant le lancement de l\’algorithme Google Penguin, c’était considéré comme une meilleure pratique que d’utiliser le texte d\’ancrage reflétant le mot-clé exact pour lequel vous vouliez que la page liée se classe dans les résultats de recherche.

    Ces jours-ci, le texte d\’ancre joue encore un rôle dans la détermination de la pertinence de la page liée.

    Mais c’est aussi le signal le plus facile utilisé par Google pour détecter la manipulation de toute personne qui se risque à utiliser de façon excessive le texte d\’ancrage intégrant des mots clés concurrentiels.

    De nos jours, il est moins important d\’utiliser le texte d\’ancre riche en mots-clés et plus important de s\’assurer que le texte d\’ancre des liens est naturel et journalistique. Au lieu de s\’appuyer sur le texte d\’ancrage pour établir la pertinence de votre page liée, reposez-vous plutôt sur la pertinence contextuelle et la source.

  6. Destination du lien :

    Lors de l\’évaluation des liens, Google examinera également la page de destination, c\’est à dire la page vers laquelle pointe le lien. Tout d\’abord, elle devrait être un élément fort du contenu qui ajoute de la valeur pour les lecteurs provenant de l\’article source.

    Google examinera le titre et le corps du contenu de destination, et évaluera son utilité en fonction de sa pertinence et d\’autres facteurs indicateurs de qualité.

    Les liens entrants passent de l\’autorité à la fois vers le domaine global et les pages individuelles vers lesquelles vous pointez. Donc l\’entonnoir des liens vers une ou deux pages de base peut permettre à ces pages de se classer plus haut qu’éventuellement vos autres contenus.

  7. Diversité :

    Enfin, Google va évaluer la diversité de votre profil de liens entrants. Il est bien documenté qu\’un facteur majeur que Google regarde est la diversité du domaine, qui est le nombre de noms de domaine uniques à partir desquels votre site obtient des backlinks.

    Pour cette raison, il est plus utile, en général, d\’obtenir des liens de 5 éditeurs différents que d\’obtenir 5 backlinks d\’un seul et même éditeur.

    L\’acquisition de plusieurs liens différents vers la même page de destination contribue certainement à renforcer son autorité de page, et est nécessaire si vous essayez de booster une page particulière sur votre site dans le classement.

    Mais, en avoir trop de la part d\’un même ou beaucoup en peu de temps de la part de différents domaines, peut faire vos liens ressembler à des liens artificiels et spammy.

    C\’est pourquoi, dès lors qu\’il s\’agit de faire du link building, la diversité de tous les aspects (texte d\’ancrage, source de liaison, URL de destination, etc) est très importante.

Via

Combien de backlinks pour un bon référencement sur Google ?

Lorsque vous démarrez une campagne d\’optimisation pour les moteurs de recherche (SEO), vous êtes probablement impatients de voir les résultats aussi rapidement que possibles.

Combien de backlinks pour obtenir un bon référencement sur Google ?

Parmi les critères , vous savez maintenant que les backlinks sont votre meilleur atout pour développer votre , qui à son tour rendra votre site plus susceptible d’être classé pour les recherches pertinentes.

Et vous savez aussi que le référencement Web prend beaucoup de temps pour produire ou se rapprocher du résultat escompté. Mais, afin d’investir tout ce temps et tout cet effort, vous voulez savoir exactement combien de liens entrants il vous faudra avant de commencer à faire des progrès dans les classements.

Alors que John Mueller déclarait il y a peu que sans backlinks, il est difficile de bien se classer, combien de liens faut-il pour faire grimper votre site tout en haut de la première page de résultats ?

Principales variables de backlinks à considérer

Tout d\’abord, vous devez comprendre que tous les backlinks n’ont pas la même valeur. Les liens travaillent pour le SEO parce qu\’ils servent de marqueurs tiers de fiabilité. En effet, la valeur du lien qui pointe vers votre site fluctuera en fonction de sa nature, de son emplacement et de sa pertinence.

Voici quelques variables clés à considérer lors de l\’évaluation de la \ »valeur\ » d\’un lien:

  • Le poids de la source :

    Le plus grand facteur ici est l\’autorité de domaine (et, dans une moindre mesure, l\’autorité de la page) de la source de votre lien.

    Des sources dignes de confiance qui pointent un lien vers votre site feront que votre site semblera plus digne de confiance que les sources qui sont nouvelles ou de faible qualité.

    Vous pouvez utiliser des outils comme l\’Explorateur Open site de Moz pour vérifier l\’autorité de domaine de vos sources. Généralement, plus le nombre est élevé, plus fort sera l\’effet (le link juice ou jus) que vous verrez à partir de ce lien.

    Visez tant que faire se peut des liens qui proviennent de sources ayant une autorité de domaine plus élevé que l’autorité de domaine actuelle de votre site Web. Plus facile à dire qu\’à faire…

  • Diversité de domaine :

    La valeur des liens provenant d\’un domaine donné diminue avec chaque lien suivant la première. C\’est à dire, en général, d\’une perspective purement SEO, il est préférable d\’avoir un seul lien de 3 noms de domaines différents que d\’avoir 3 liens d\’un même nom de domaine, même si cette source a une autorité de domaine élevée.

    Par conséquent, la diversité des sources qui pointent actuellement vers votre site jouera également un rôle dans le nombre total de liens dont vous avez besoin pour voir une amélioration dans votre référencement.

  • Page cible :

    Les liens pointant vers votre site seront l\’autorité de votre domaine dans son ensemble, mais ils vont également passer l\’autorité à la page individuelle qu\’ils spécifient.

    Si vous utilisez la majorité de vos liens pour cibler une page spécifique, comme un message de haute qualité de contenu, cette page évoluera rapidement dans le classement plutôt que si vous aviez utilisé une variété de pages internes liées entre elles.

    En général, il est préférable d\’opter pour la diversité. Sinon, vous pourriez déclencher une alerte rouge pour le spam (). Mais si vous êtes à la recherche de résultats rapides pour une page spécifique, cela peut être une bonne stratégie. Mais pas intéressant sur le long terme…

  • Associations de mots clés :

    Le texte d\’ancrage de vos liens entrants n\’a pas en soi toujours autant d\’importance qu’on veut lui accorder (merci RankBrain), sauf lorsqu\’une quantité énorme de backlinks utilise le même pour lier votre contenu. Toutefois, il y a encore quelque chose à faire pour les associations de mots clés entre votre contenu hors site, vos éditeurs hors site (guest blogging), votre texte d\’ancrage, et la nature du travail que vous liez.

    Ces variables (et donc le contexte) peuvent influencer de manière significative la façon dont un lien décrit la pertinence de vos pages internes.

  • Délai :

    Vous devez également savoir que la création d\’un lien vers votre site n\’amplifiera pas immédiatement son autorité.

    a besoin de temps pour analyser et évaluer ce lien, de sorte que cela pourrait prendre des semaines ou plus avant de voir les effets.

  • Facteurs internes :

    Les backlinks sont puissants,  mais ils ne seront pas le seul facteur affectant votre domaine et l\’autorité de la page. Les facteurs internes, y compris la structure de votre site Web, la profondeur et la qualité de votre contenu, et d\’autres facteurs au niveau de la page, influeront également sur la façon dont votre SEO se développe.

    Cela pourrait accélérer considérablement ou ralentir le processus en fonction de combien de temps vous leur consacrez.

  • L\’autorité et les positions existantes :

    Si vous venez de commencer une campagne de référencement naturel, vous serez probablement en mesure de voir des résultats rapides.

    Mais, votre autorité de domaine sera faible, et tout nouveau lien entrant vous aidera à améliorer cette position. Si vous êtes classé sur la première page de résultats, avec une respectable autorité de domaine, il va falloir plus de liens pour vous déplacer encore plus haut dans l\’échelle.

    Vous aurez à faire face à une concurrence beaucoup plus rigide lorsque vous serez classé sur la première page de résultats de recherche de Google. Vous aurez à faire face à des concurrents souvent indéboulonnables.

  • Liens supplémentaires :

    Lorsque vous construisez un lien, vous introduisez un nouveau segment de population sur votre site. Qui, à son tour, peut encore plus alimenter le développement des liens entrants.

    Un seul point de référence peut conduire à une explosion de nouveaux points de référence, amplifiant la puissance qu\’un backlink peut avoir dans les bonnes conditions.

  • Concurrence :

    Vous aurez également besoin de considérer la concurrence à laquelle vous êtes confrontés, et les mots clés que vous essayez de cibler.

    Si vous courez après une position numéro 1 pour un mot clé à trafic élevé, cela pourrait demander des centaines, voire des milliers, de liens pour y parvenir, au-delà même de la parfaite sur la page et d\’autres facteurs.

    D\’autre part, un trafic faible via une expression-clé de la longue traîne pourrait être facile à obtenir et générer plus de conversions pour vous.

Temps et effort

Globalement, il est presque impossible de calculer le \ »nombre\ » de liens nécessaires pour voir les résultats, parce que les liens ne sont pas la seule variable dans l\’algorithme de classement de Google.

Au lieu de cela, vos résultats vont dépendre de la quantité d\’effort que vous mettez dans votre SEO (y compris la qualité, la diversité, et les cibles de vos liens) et la quantité de temps que vous y mettez (en permettant à votre autorité de se développer naturellement).

Le plus de temps et d\’efforts que vous mettez, plus vite vous verrez les résultats (c’est à dire pas avant plusieurs semaines quand même).

Essayez de ne pas trop vous concentrer sur la quantité de backlinks. Au lieu de cela, concentrez-vous sur l\’acquisition des meilleurs liens que vous pouvez pour votre nom de domaine, sur une base cohérente et régulière.

Les résultats se manifesteront dans le temps avec un effort de référencement soutenu et continu.

Via

Google Fred cible tous les problèmes liés à la qualité du site

Aux alentours des 7 et 8 Mars dernier, Google avait procédé (on l’apprendra plus tard) à une mise à jour que les ont appelé Google Fred Update

Google Fred a été confirmé et cible tous les problèmes de qualité du site

D’aucuns ont pensé qu’il s’agissait à nouveau de . Que nenni.

Selon Seroundtable qui relaie l’information, Google, via le Tweet ci-dessous de Gary Illyes, avait commencé à reconnaître du bout des lèvres cette mise à jour.

A la question de savoir si Google Fred Update a été confirmée par Google, Gary Illyes de chez Google répond :

Sera. Évidemment, il y avait eu une mise à jour. Pourquoi le nier ?

La confirmation officielle va venir de John Mueller, lors du dernier Hangout SEO (vidéo : 53:50).

Voici la question posée à John Mueller :

Depuis la mise à jour Fred, nous avons connu une chute graduelle dans nos classements de recherche. Nous avons suivi toutes les directives de Google. Nous ne comprenons donc pas pourquoi nous avons été rétrogradé jusqu\’à présent.

Nous étions en haut de la page 2, en bas de la page 1… Toute aide que vous pouvez nous donner serait formidable.

Réponse de John Mueller :

Essentiellement, si vous suivez les consignes de Google aux webmasters et que vous faîtes des choses techniquement correctes, alors il s’agirait pour moi de problèmes de qualité en ce qui concerne votre site.

Des choses que vous pouvez améliorer globalement en ce qui concerne la qualité du site.

Ce qui signifie qu’il n’y a aucun type de réponse simple telle qu’il n’y a aucune balise meta qui apporterait une qualité supérieure à votre site web. C’est juste, en général, que vous devrez probablement prendre du recul, rechercher des personnes au hasard qui s’intéressent à ce sujet SEO pour examiner votre site par rapport à d’autres sites de ce type, pour voir ce que vous pouvez faire de mieux pour améliorer la qualité de votre site globalement.

Et idéalement, ne cherchez pas à faire de petites modifications subtiles pour espérer améliorer la qualité et voir si vous pouvez obtenir un meilleur résultat. Prenez réellement le taureau par les cornes et essayez de comprendre ce que vous pouvez faire pour améliorer significativement la qualité du site dans son ensemble.

Comme vous pouvez vous en rendre compte, parlant de Google Fred Update (dont il ne nie plus la mise à jour), John Mueller insiste fortement sur la ”qualité du site dans son ensemble”.

Une expression dans laquelle on peut intégrer l’architecture du site, les liens de navigation, la présence de publicités nombreuses au-dessus de la ligne de flottaison, la grammaire et l’orthographe des textes, le langage naturel, etc, etc….

Bref, Tout ce qui concourt à une meilleure expérience utilisateur sur un site Web fait partie de la qualité du site dans son ensemble. CQFD.

Google Fred : Grosse mise à jour de l\'algo de classement de Google ?

Depuis quelques jours, surtout outre-Atlantique, de nombreux SEO se plaignent de voir leurs classements sur chuter, avec donc inévitablement une baisse conséquente du trafic Google.

Google Fred : Grosse mise à jour de l\'algo de classement de Google ?

Le plus marrant dans cette communauté SEO en ébullition dès que Google tousse, c’est de voir que les premières alertes concernant la baisse du trafic Google proviennent des forums de webmasters pratiquant ce qu’on appelle le “balck hat .

C’est à dire ceux qui ont une pratique du référencement totalement en dehors des règles et consignes SEO de Google.

Or, quand on fait du “Black Hat SEO” essentiellement basé sur la pose de liens ici et là, on fait du référencement “One Shot”, et on ne vise donc pas le long terme. On ne peut donc pas s’étonner par la suite d’être pénalisé un jour ou l’autre par Google…

Bref, la communauté Black Hat a donc été la première à constater de nombreux mouvements dans les classements sur Google, grâce à leurs outils SEO qui permettent de suivre ce genre de choses, pratiquement en temps réel.

Selon Barry Schwartz, tous ces webmasters en sont arrivés à la conclusion qu’il y avait de forts signaux d’une grosse mise à jour de l’algorithme de ranking de Google.

Alors qu’on pourrait penser que c’est le rôle dévolu à Google Penguin désormais intégré dans le core de l’algo de Google, cette mise à jour non confirmée officiellement par Google ciblerait la qualité du profil des liens des sites Web.

Il s’agirait donc d’une mise à jour de l’algorithme anti-spam concernant les backlinks. Et s’il ne s’agit pas de Penguin, alors de deux choses l’une :

  • Soit Google préfère revenir à la mise à jour manuelle de Penguin qu’il peut mieux ajuster pour plus d’efficacité.

Dans les deux cas, en pilotage automatique ne produirait pas les effets escomptés. CQFD.

Alors, comme pour masquer tout cela, Gary Illyes, Webmaster Trends Analyst et porte-parole de Google, sans pour autant confirmer officiellement cette update, la baptise du nom surprenant de “Fred” qu’il dit convenir à toutes les prochaines mises à jour de ce type, sauf indication contraire.

Bref, si les Black Hat SEO s\’en plaignent, c’est véritablement que la nouvelle mise à jour Google Fred a donné un coup de pied dans leur stratégie de netlinking, ce qui a inéluctablement entraîné la chute de leur trafic en provenance de .

Google Fred serait alors, bizarrement comme Google Penguin, une update de l’algorithme vérifiant la qualité des liens entrants et influant sur le classement du contenu. C’est exactement ce qu\’est supposé faire Google Penguin 4.0 depuis son lancement.

Google Fred : Grosse mise à jour de l\'algo de classement de Google ?

Depuis quelques jours, surtout outre-Atlantique, de nombreux SEO se plaignent de voir leurs classements sur chuter, avec donc inévitablement une baisse conséquente du trafic Google.

Google Fred : Grosse mise à jour de l\'algo de classement de Google ?

Le plus marrant dans cette communauté SEO en ébullition dès que Google tousse, c’est de voir que les premières alertes concernant la baisse du trafic Google proviennent des forums de webmasters pratiquant ce qu’on appelle le “balck hat .

C’est à dire ceux qui ont une pratique du référencement totalement en dehors des règles et consignes SEO de Google.

Or, quand on fait du “Black Hat SEO” essentiellement basé sur la pose de liens ici et là, on fait du référencement “One Shot”, et on ne vise donc pas le long terme. On ne peut donc pas s’étonner par la suite d’être pénalisé un jour ou l’autre par Google…

Bref, la communauté Black Hat a donc été la première à constater de nombreux mouvements dans les classements sur Google, grâce à leurs outils SEO qui permettent de suivre ce genre de choses, pratiquement en temps réel.

Selon Barry Schwartz, tous ces webmasters en sont arrivés à la conclusion qu’il y avait de forts signaux d’une grosse mise à jour de l’algorithme de ranking de Google.

Alors qu’on pourrait penser que c’est le rôle dévolu à Google Penguin désormais intégré dans le core de l’algo de Google, cette mise à jour non confirmée officiellement par Google ciblerait la qualité du profil des liens des sites Web.

Il s’agirait donc d’une mise à jour de l’algorithme anti-spam concernant les backlinks. Et s’il ne s’agit pas de Penguin, alors de deux choses l’une :

  • Soit Google préfère revenir à la mise à jour manuelle de Penguin qu’il peut mieux ajuster pour plus d’efficacité.

Dans les deux cas, en pilotage automatique ne produirait pas les effets escomptés. CQFD.

Alors, comme pour masquer tout cela, Gary Illyes, Webmaster Trends Analyst et porte-parole de Google, sans pour autant confirmer officiellement cette update, la baptise du nom surprenant de “Fred” qu’il dit convenir à toutes les prochaines mises à jour de ce type, sauf indication contraire.

Google Fred serait alors, bizarrement comme Google Penguin, une update de l’algorithme vérifiant la qualité des liens entrants et influant sur le classement du contenu. C’est exactement ce qu\’est supposé faire Google Penguin 4.0 depuis son lancement.