Google supprime l\'opérateur link:votredomaine.com

Google demande aux webmasters et autres référenceurs internet d’arrêter d’utiliser l’opérateur de recherche “link” qui est désormais officiellement “mort”.

Google supprime officiellement l\'opérateur link:votredomaine.com

C’est ce que déclare Searchengineland.com qui aurait reçu officiellement confirmation de la part de , et la suite de cet article vous le démontre aussi.

Continuer à utiliser la commande \ »link:www.VotreNomdeDomaine.com\ » vous affichera au fil du temps () des résultats non pertinents ou approximatifs, pour ne pas dire des résultats erronés.

Pour la petite histoire, vous pouvez utiliser des opérateurs de recherche et des signes de ponctuation pour obtenir des résultats de recherche plus précis. Et, selon Google, les opérateurs de recherche sont, par définition, des termes qui vous permettent d\’affiner vos résultats de recherche.

Mais, en termes de référencement, la commande \ »link:VotreNomdeDomaine.com\ » sur permet d\’afficher comme résultats de recherche toutes les pages Web qui envoient un backlink vers une URL spécifique d’un .

Et certains webmasters ont pris l’habitude de se servir de cette commande pour comparer le nombre de backlinks entre 2 ou plusieurs sites ou pages. Car, comme pour toutes les recherches sur Google, le nombre total de résultats (et donc de backlinks potentiels) est affiché au début de la page de résultats après avoir lancé une requête avec l\’opérateur link.

Déjà au mois de Février 2016, des doutes subsistaient quant à la continuité de cet opérateur \ »link:www.VotreNomdeDomaine.com\ ». Mais, Google avait confirmé que l’opérateur link restait toujours valable sur Google Search.

Mais voilà, John Mueller de chez Google vient de répondre à un webmaster en lui recommandant de ne plus utiliser l’opérateur de recherche link.

Voici ce qu\’affichait auparavant la page d\’aide de Google sur les opérateurs de recherche :

Et voici ce qu\’on trouve aujourd\’hui sur cette même page d\’aide :

Copie d\’écran via Google

Vous constatez sur la deuxième copie d\’écran que l\’opérateur \ »Link\ » a disparu de la liste des opérateurs supportés par Google Search. La commande link n’est donc plus officiellement une option de recherche sur Google Search.

Il va donc falloir se tourner, si ce n\’est fait depuis longtemps, vers des outils SEO tiers ou aller dans votre espace Google Search Console pour avoir une idée sur vos backlinks.

Google se sert aussi du texte d\'ancrage des backlinks pour réécrire les titres dans les SERPs

Les référenceurs qui ont passé du temps pour rédiger soigneusement le titre de la page de leur contenu constate parfois, sur certaines requêtes, que décide de les réécrire.

Google sert aussi de l’ancre des backlinks pour réécrire les titres dans les SERPs

Alors, on arrive à se demander pourquoi Google change des titres dans ses pages de résultats et comment le fait-il ?

Pour rappel, Matt Cutts avait produit une vidéo en Avril 2014 pour expliquer largement ces changements de titre (lire l’article ici).

Mais, grâce à un récent Hangout présenté par Google India, nous avons plus d’informations sur les raisons pour lesquelles Google remplace le titre (qu’on voit au-dessus de la page dans un navigateur) et comment il le fait.

Et ce qu’on peut dire maintenant, c’est que s’il arrive que Google réécrive le titre (balise title) des pages dans ces pages de résultats, le texte d’ancrage des backlinks y joue un très grand rôle.

Voici ce que dit Google India par l’intermédiaire de son animateur +Aaseesh Marina :

+Aaseesh Marina dit aussi que la même page peut être servie dans les résultats de recherche avec des titres différents en fonction de la requête de la recherche :

A nouveau, cela se fait au cas par cas. Pour une même page et un même contenu, pour un même résultat de recherche, le titre peut être différent entre les différentes requêtes.

Il s’agit ici d’un fait qui n’est pas nouveau et qui pourrait s’étendre davantage avec le déploiement de plus en plus poussé de la recherche sémantique sur Google Search.

Link building : Google demande d\'éviter de rechercher des backlinks

John Mueller, Webmaster Trends Analyst chez recommande aux webmasters d’éviter de faire du link building. Pour la simple raison que cette stratégie pourrait se retourner contre eux.

Link buiding : Google demande d\'éviter de rechercher des backlinks

Dans un récent Hangout, un participant avait posé la question suivante à John Mueller : “Est-ce toujours une bonne idée de rechercher des backlinks ?”

Matt Cutts avait déjà, en Juin 2013, répondu à une question semblable dans l’une de ses séances vidéo.

Voici la transcription de la réponse de John Mueller (Vidéo 55:40) :

De façon générale, je l’éviterai. Alors, soyez juste certain que votre contenu émerge du lot de sorte que d’autres personnes fassent spontanément des liens qui pointent vers lui.

Facilitez plutôt la création des liens vers votre contenu : faîtes en sorte que les URLs sur votre site soient faciles à copier et à coller…

Nous utilisons les liens dans le cadre de notre algorithme, mais nous utilisons aussi beaucoup d\’autres facteurs tant que possible. Alors, se focaliser uniquement sur les backlinks va probablement causer plus de problèmes à votre site au lieu de l’aider réellement.”

En conclusion, seule la qualité de votre contenu vous enverra des liens de façon naturelle et vous évitera au final une pénalité Penguin.

Google Penguin c\'est pour quand ? John Mueller répond…

Google Penguin logo



Et il y a ceux qui ont toujours été \ »borderline\ » avec les consignes de et qui redoutent l\’arrivée de ce Penguin qui risque de propulser leurs sites tout au fond des résultats de recherche.

Présenté comme ça, Google Penguin demeure une vraie préoccupation. Même pour ceux qui estiment avoir toujours respecté les règles SEO de Google. La prudence est donc de mise et tout le monde retient son souflle… On ne sait jamais. Surtout que la vie du référenceur n\’est jamais la même avant et après Penguin.

Alors, tout le monde essaie de savoir un peu quand est-ce qu\’il va enfin arriver. Notamment sur le forum des Webmasters de Google où cette question est plus que jamais récurrente dans les discussions.

John Mueller avait déjà répondu à cette question lors d\’une Hangout à la mi-Juillet. C\’est ce qu\’il vient faire à nouveau en répondant à une question d\’un webmaster.

Sa réponse est toute simple dans un premier temps :

\ »Yes, assuming the issues are resolved in the meantime, with an update of our algorithm or its data, it will no longer be affecting your site\ ».

En d\’autres termes : \ »Oui, en supposant que les problèmes sont résolus dans l\’intervalle, avec une mise à jour de notre algorithme (Penguin) ou de ses données, votre site ne sera plus impacté.\ »

Et donc, la pénalité sera levée.

John Mueller confirme donc qu\’il ne peut y avoir de levée de Penguin sans un Refresh de l\’algorithme.

En tenant compte des nombreuses réactions qui ont suivi cette réponse, John Mueller est revenu posté un autre commentaire plus long pour mieux expliquer le fonctionnement de Google Penguin.

In theory: If a site is affected by any specific algorithm or its data, and it fixes the issue that led to that situation, then the algorithm and/or its data must be refreshed in order to see those changes. Sometimes those changes aren\’t immediately visible even after a refresh, that\’s normal too.

In practice, a site is never in a void alone with just a single algorithm. We use over 200 factors in crawling, indexing, and ranking. While there are some cases where a site is strongly affected by a single algorithm, that doesn\’t mean that it won\’t see any changes until that algorithm or its data is refreshed. For example, if a site is strongly affected by a web-spam algorithm, and you resolve all of those web-spam issues and work to make your site fantastic, you\’re likely to see changes in search even before that algorithm or its data is refreshed. Some of those effects might be directly related to the changes you made (other algorithms finding that your site is really much better), some of them might be more indirect (users loving your updated site and recommending it to others).

So yes, in a theoretical void of just your site and a single algorithm (and of course such a void doesn\’t really exist!), you\’d need to wait for the algorithm and/or its data to refresh to see any changes based on the new situation. In practice, however, things are much more involved, and improvements that you make (especially significant ones) are likely to have visible effects even outside of that single algorithm. One part that helps to keep in mind here is that you shouldn\’t be focusing on individual factors of individual algorithms, it makes much more sense to focus on your site overall — cleaning up individual issues, but not assuming that these are the only aspects worth working on.

All that said, we do realize that it would be great if we could speed the refresh-cycle of some of these algorithms up a bit, and I know the team is working on that. I know it can be frustrating to not see changes after spending a lot of time to improve things. In the meantime, I\’d really recommend – as above – not focusing on any specific aspect of an algorithm, and instead making sure that your site is (or becomes) the absolute best of its kind by far. Cheers John

D\’abord, il explique qu\’en théorie, si un site est affecté par n\’importe quel algorithme spécifique ou de ses données et qu\’il résout le problème qui a provoqué cette situation, alors l\’algorithme et/ou ses données doivent être réactualisées pour que les modifications soient prises en compte. Parfois les changements ne sont pas immédiatement visibles même après un rafraîchissement, et ça, c\’est normal aussi.

Mais dans la pratique, poursuit John Mueller, un site n\’est jamais tout seul face à un algorithme. Google utilise plus de 200 facteurs pour le  crawling, l\’indexation et le classement. Bien qu\’il existe certains cas où un site est fortement affecté par un algorithme unique, cela ne signifie pas qu\’il ne verra pas de changement jusqu\’à ce que cet algorithme ou ses données soient actualisées.

Par exemple, si un site est fortement impacté par un algorithme anti-spam (Penguin, par exemple) et vous arrivez à résoudre tous les problèmes de spam et vous travaillez de façon à rendre votre site \ »propre\ », vous êtes susceptible de voir des changements dans la recherche avant même que cet algorithme ou ses données soient actualisées. Certains de ces effets pourraient être directement liées aux changements que vous avez faits (d\’autres algorithmes estimant que votre site est vraiment beaucoup mieux), que certains d\’entre eux pourraient être plus indirectes (les utilisateurs aiment votre site mis à jour et le recommandent à d\’autres).

Alors oui, dans une théorie de votre site face à un algorithme unique (et bien sûr une telle théorie n\’existe pas vraiment!), vous devez attendre que l\’algorithme et/ou ses données soient actualisées pour voir les modifications basées sur la nouvelle situation.

Dans la pratique, cependant, les choses sont beaucoup plus impliquées et les améliorations que vous faites (particulièrement les plus significatives) sont susceptibles d\’avoir des effets visibles même en dehors de cet algorithme unique.

Ce qu\’il faut bien comprendre ici, c\’est que vous ne devez pas vous concentrer sur les facteurs individuels d\’algorithmes pris individuellement. Il serait beaucoup plus logique de vous concentrer sur votre site dans son ensemble que de supposer travailler sur quelques aspects individuels que vous estimez intéressants.

Après avoir dit tout cela, nous réalisons que ce serait formidable si nous pouvions accélérer un peu le cycle de rafraîchissement de certains de nos algorithmes. Et je sais que l\’équipe travaille là-dessus. Je sais qu\’il peut être frustrant de ne pas voir les changements après avoir passé beaucoup de temps pour améliorer les choses. En attendant, je vous recommande vraiment – comme dit plus haut – de ne pas vous concentrer sur un aspect spécifique d\’un algorithme et au lieu de cela, de vous assurer que votre site est (ou devient) de loin le meilleur de sa niche.

Ainsi, prend fin le commentaire de John Mueller suite à la question sur le refresh de Google Penguin.

Majestic SEO s\'apprête à lancer son moteur de recherche

Logo Majestic seo




Ce qui devrait, selon Majestic SEO, représenter une véritable opportunité pour les inbound Marketeurs, les responsables publicité, les professionnels de communiqués de presse, les business analystes, les référenceurs , etc.

Pour quels objectifs ?

Ainsi, pour les +700 milliards de pages web présentes dans son Fresh Index

Le Topical Trust Flow avec les notes de confiance par catégorie attribuée à une page ouà un site – source : MajesticSeo

Un moteur de recherche nommé Majestic SEO ?

It will also help us to rank websites on our own search engine in the coming months\ ».

Pour clarifier les choses, Majestic SEO organise un webinar le 30 avril prochain pour répondre à toutes les questions.

SEO : Pourquoi mon site n\'apparaît plus sur Google pour mon mot clé ?

.


Des webmasters non avertis des règles

Je parie que certains ne savent même pas que Penguin et Panda existent et qu\’ils infligent des pénalités lourdes pour tout manquement aux règles SEO.

C\’est ce qui serait arrivé à un webmaster qui pose la question de savoir pourquoi son site n\’est plus visible lorsqu\’on recherche son mot clé favori pour lequel il devait sans doute avoir un bon classement.

C\’est John Mueller, Responsable de GWT, qui reproche au webmaster d\’avoir trop spammé son propre site qui lui apporte la réponse ci-dessous :

It looks like your SEO (or previous SEO) may have tried to promote your site in a way that\’s in violation of our Webmaster Guidelines. Specifically, I see a lot of unnatural links in low-quality articles as well as blog comments left by someone called \ »Maternity Jeans.\ »

Stopping these practices, cleaning up unnatural links like these, and using the disavow links tool in cases where you can\’t clean them up, would be a good step in the right direction. Over time (and this process can take months), as our algorithms recrawl the affected URLs, reprocess the links found on the web, and update their data, they\’ll be able to take the new state into account.   

En d\’autres termes, il semble que votre référenceur (ou prétendu référenceur) ait tenté de promouvoir votre site en violation de nos consignes aux webmasters. Plus précisement, je vois un tas de liens non-naturels présents aussi bien dans des articles de faible qualité que dans des commentairess sur des blogs avec comme ancre de liens \ »Maternity Jeans\ ».

Arrêter ces pratiques, supprimer tous ces liens artificiels, et utiliser de l\’outil de désaveu au cas vous n\’y arrivez pas tout seul serait un bon pas vers la bonne direction. Au fil du temps (et ce processus peut prendre des mois), quand nos algorithmes exploreront les URLs concernées, retrouveront les liens sur le web et mettront à jour leurs données, ils seront en mesure de tenir compte du nouvel état de votre site.

Ce qu\’il faut retenir dans cette mésaventure, c\’est d\’abord qu\’il faut apprendre les règles de base du SEO et surtout suivre l\’évolution des moteurs de recherches.

En l\’occurrence, limiter et varier les ancres de liens optimisées et surtout éviter les ancres de liens suroptimisées avec des money-keywords. Et ce, afin d\’éviter toute pénalité de qui vous entraînerait dans un long processus de demande de réexamen.

Voici maintenant comment bien référencer son site sur Google en 2014.

Matt Cutts : Google travaille à la promotion d\'Autorités thématiques


casser l\’esprit des spammeurs\ ».

Cette fois, Matt Cutts va répondre à la question de savoir \ »\ »

promouvoirles bons référenceurs ou les bons auteurs.

Voici l\’intégralité de sa déclaration qui concerne Google+ :

We have been working on a lot of different stuff. We are actually now doing work on how to promote good guys. So if you are an authority in a space, if you search for podcasts, you want to return something like Twit.tv. So we are trying to figure out who are the authorities in the individual little topic areas and then how do we make sure those sites show up, for medical, or shopping or travel or any one of thousands of other topics. That is to be done algorithmically not by humans … So page rank is sort of this global importance. The New York times is important so if they link to you then you must also be important. But you can start to drill down in individual topic areas and say okay if Jeff Jarvis (Prof of journalism) links to me he is an expert in journalism and so therefore I might be a little bit more relevant in the journalistic field. We\’re trying to measure those kinds of topics. Because you know you really want to listen to the experts in each area if you can.

En d\’autres termes, Matt Cutts dit : \ »Nous travaillons beaucoup sur le sujet. Nous réfléchissons actuellement sur la manière de promouvoir les bons auteurs. Ainsi, si vous êtes une Autorité dans un domaine précis, il faudrait qu\’on puisse vous trouver si on cherche quelque concernant ce domaine.

Nous cherchons donc à comprendre et à distinguer qui sont les Autorités dans chaque sujet d\’une thématique et surtout comment faire pour que ces sites soient mis plus en avant. Ceci va se faire de façon algorithmique et non pas par des humains…

Le Page Rank fait partie de cet ensemble. Ainsi, si le New York Times est important et qu\’il pointe un lien vers votre site, vous devez aussi devenir important.

Mais, vous pouvez commencer à publier sur différents sujets de différentes thématiques et vous dire, si Jeff Jarvis (professeur en journalisme) m\’envoie un lien, puisque c\’est un expert en journalisme, alors sans doute que je deviendrai un peu pertinent dans le domaine du journalisme. Nous sommes en train de mesurer ce genre de sujets. Parce que les internautes veulent avoir à faire à des experts pour chaque sujet qui les intéressent\ ».

A lecture de cette explication de Matt Cutts, on peut penser que la réduction du nombre d\’Authorship fait partie de la prochaine mise en place d\’Autorités thématiques dont je parlais dans mon article précédent. Sans doute que tout ceci pourrait avoir un lien avec les différents bouleversements constatés ces derniers jours sur les pages de résultats de Google. Cette interview ayant eu lieu le 4 décembre dernier.

Toujours est-il que s\’il y a promotion d\’auteurs, il y aura certainement beaucoup de dégringolades dans les semaines à venir sur les pages de résultats de Google …

Voici maintenant comment bien référencer son site sur Google en 2014.

Google teste l\'affichage d\'images à la place des photos des auteurs

Test en cours sur .


Ce test consisterait à afficher les images à côté de la description (snippet) des liens.

Un porte-parole de Google aurait confirmé à Searchengineland.com  que cela faisait partie des nombreux tests actuellement en cours sur les pages de résultats de Google.

Ainsi, comme vous pouvez le voir ci-dessous, Google récupérerait l\’image associée à un article pour l\’insérer à côté de sa description sur les SERPs. Alors, quid de l\’Authorship et de l\’affichage de la photo des auteurs ?

source : Searchengineland.com

Déjà, au PubCon de Las Vegas, Matt Cutts laissait entendre qu\’il y aurait prochainement moins de 15% d\’authorship (photos d\’auteurs) sur les pages de résultats de Google. Et, voilà que Google teste des résultats de recherche avec des images issues des articles. Lesquelles images ne pourront s\’afficher que pour les sites qui utiliseront le balisage de données srtructurées de Schema.org.

Au final, en y regardant de très près, pour moi, cela reste de la diversion. Google laisant fuiter cette information sur ce test en cours en apportant lui-même une photo de ce test aux médias au lendemain de l\’annonce officiel du lancement de sa fonctionnalité In-Depth Article. C\’est encore ce même jour que Google fait une mise à jour du PageRank.

Google pourrait donc faire preuve de diversion car la grogne monterait en ce moment contre son choix de l\’emplacement des liens de sa fonctionnalité In-Depht Articles. Un emplacement en début de pages de résultats qui menacerait les liens organiques.

Je pense que Google a volontairement allumé des contre-feux pour détourner l\’attention des marketeurs et autres référenceurs sur la réalité profonde de ce qu\’est in-depth articles.

Les mois à venir nous situeront sur ce test. Mais, si un tel test devait être retenu, ce serait sans doute pour faire la part belle à la fonctionnalité In-Depth Articles de Google qui exige aussi la participation à l\’Authorship de part des auteurs et éditeurs.

Découvrez comment Bien référencer son site internet sur Google
Découvrez comment Bien référencer
son site internet sur Google

Google va-t-il remplacer L\'URL affichée par le nom de domaine sur ses Pages de résultats ?

Nouveau test de .

Google Operating Systemdans un post en date du 19 octobre dernier.



Le site Abondance.com

le lancement d\’Hummingbird

au coeur de son nouvel algorithme.

Voici une autre explication que donne Google Operating System pour ces tests en cours sur les pages de résultats de Google :

Découvrez comment Bien référencer son site internet sur Google
Découvrez comment Bien référencer
son site internet sur Google

Matt Cutts demande aux webmasters d\'arrêter de chercher des backlinks

Matt Cutts et les rumeurs .


Dans sa dernière vidéo en date du 3 juin, Matt Cutts tente de faire taire les rumeurs SEO qui ont lieu en ce moment. Et ce, sur 2 points principaux.


\ »\ »

\ »

Et Matt Cutts, très offensif, de poursuivre :

\ »

Concernant le SEO

\ »

Tenez, Matt Cutts vient de démentir une autre rumeur concernant le Negative SEO