Google utilise le neural matching pour classer le contenu

Google utilise une nouvelle technique appelée Neural Matching ou “correspondance neuronale” pour mieux comprendre les synonymes et classer le contenu. Elle impacte déjà 30% des requêtes.

Google utilise la correspondance neurale pour le classement du contenu

Selon Danny Sullivan de chez , le moteur de recherche a utilisé la correspondance neuronale au cours de ces derniers mois.

En d’autres termes :

Les mois derniers, Google a utilisé la correspondance neuronale (Neural Matching, ndlr),- une méthode d’intelligence artificielle pour mieux relier les mots aux concepts. Super synonymes, en un sens, et impactant déjà 30% des requêtes. Vous ne savez pas ce que c’est “effet Soap Opera” pour le chercher ? Nous pouvons mieux le comprendre.”

Sullivan fait référence à une manifestation de la technique de correspondance neurale qui permet à Google de retourner les résultats liés à “soap opera effect” quand un utilisateur saisit une requête telle que “why does my TV look strange ?

(Cliquez sur les images pour les agrandir)

Source : Searchenginejournal

Cela est significatif parce que “Why does my TV look strange ?” (pourquoi mon téléviseur semble étrange ?

.

Un nouvel algorithme de classement sur Google Search ?

Le blog AI de Google a récemment publié un lien vers un nouveau document de recherche appelé le “Classement de pertinence en profondeur en utilisant des interactions document-requête améliorées”.

« classement de la pertinence du document ».

Cette méthode est également appelée récupération Ad-hoc.

Neural Matching), elle rend cette recherche intéressante sur quelque chose qui est similaire à cela.

Voici, d’après Searchenginejournal.com, comment le nouveau document de recherche décrit la récupération ad hoc:

Le document de recherche est clair, dans le sens où cette forme de classement . Il poursuit en disant :

Dans la déclaration ci-dessus, il indique que le classement de la pertinence des documents diffère des autres technologies de recherche (“structure du réseau”

elle ne repose pas sur les signaux des liens.

en Mai 2014en Juin 2014. Et Bing Search a aussi évoqué ce même sujet en Septembre 2017. On y est donc.

Bref, la technique de correspondance neuronale (neural matching) a été révélée lors de la conférence de presse à propos du 20e anniversaire de Google, où un certain nombre d’autres fonctionnalités de recherche ont été annoncées.

C’est justement grâce aux progrès de Google dans l’intelligence artificielle, dont la correspondance neurale, que ces fonctionnalités de recherche à venir ont été possibles.

La carte des activités

Les nouvelles cartes des activités de Google permettront aux utilisateurs de revenir là où ils se sont arrêtés lors de leur précédente navigation de recherche.


Les cartes des activités seront disponibles dans Search plus tard au cours de cette année, et s’afficheront uniquement quand elles sont pressenties pour à être utiles.

Les Collections dans Google Search

Les Collections dans permettront aux utilisateurs de suivre (dans le sens de s’abonner) manuellement le contenu qu\’ils ont visité, tels que des sites Web, des blogs, des articles ou des images.

Les contenus recensés dans les cartes des activités peuvent également être ajoutés aux Collections.

Pour aider les utilisateurs à découvrir de nouveaux contenus, Google proposera des suggestions basées sur ce que les gens ont sauvegardé dans leurs Collections.

Cette fonction sera déployée cet automne.

Organisation dynamique des résultats de recherche

Google introduit une nouvelle façon d’organiser dynamiquement les résultats de recherche pour aider les utilisateurs à déterminer ce qu’il faut explorer ensuite :

Plutôt que de présenter des informations dans un ensemble de catégories prédéterminées, nous pouvons intelligemment montrer les sous-rubriques qui sont les plus pertinentes à ce que vous recherchez et rendre plus facile d’explorer des informations à partir du Web, le tout à partir une seule recherche.

Comme Google Images le fait déjà avec ses filtres.

Ces onglets continueront à rester à jour, reflétant ce qui est le plus pertinent pour le sujet à ce moment-là.

Nouvelle couche thématique dans le Knowledge Graph

Rassembler tout cela en une nouvelle couche de Google Knowledge Graph s’appelle la “Topic Layer” (couche thématique).

La couche thématique est conçue pour comprendre profondément un espace thématique et comment les centres d’intérêt peuvent se développer au fil du temps :

La couche thématique est créée en analysant tout le contenu qui existe sur le Web pour un sujet donné et développe des centaines et des milliers de sous-sujets.

Pour ces sous-thèmes, nous pouvons identifier les articles et vidéos les plus pertinents…

Nous examinons ensuite les modèles pour comprendre comment ces sous-thèmes se rapportent les uns aux autres, afin que nous puissions plus intelligemment afficher le type de contenu que vous pourriez vouloir explorer ensuite.

Avec cette technologie en place, Google vise à servir aux utilisateurs des besoins d’information continue pour les années à venir.

8 outils gratuits d’aide au référencement sur Google

référencement sur Google.

8 outils gratuits d’aide au référencement de Google

C\’est comme si Google vous laissait faire comme vous vous vouliez, avant de lancer une update qui change parfois tout, et remet tout en cause pour certains sites. Car, il y a toujours des gagnants et des perdants à chaque mise à jour des algorithmes de Google. .

Bien sûr, Google est de plus en plus ouvert et transparent sur ce fait qu\’il fait, notamment depuis l’arrivée de Danny Sullivan à la tête de l’équipe du Search. Mais, chaque update est censée nous emmener tout de même un pas de plus vers des résultats de recherche plus pertinents, après tout.

Cependant, il y a encore un peu de secret derrière exactement comment Google évalue un site Web et détermine en fin de compte quels sites afficher pour les requêtes de recherche.

Cela étant dit, il existe un certain nombre d\’outils gratuits d’aide au référencement qui vous aident à faire l\’audit de votre propre site et le voir de la façon dont Google le voit.

Ces sont essentiels à votre stratégie de recherche organique, car ils vous permettent de vous concentrer sur les éléments de votre site que Google juge importants.

 

Chrome Lighthouse

Chrome Lighthouse est un outil d\’audit SEO automatisé, en open-source, pour améliorer la qualité des pages Web.

Lighthouse est une version \ »Lite\ » (légère) d\’un outil d’audit classique de site. Il fournit actuellement des commentaires sur 10 métriques SEO.

L\’outil de SEO Lighthouse peut également être téléchargé et installé dans Chrome en tant qu’extension, mais reste limité dans sa portée. Toutefois, il fournit un instantané de 10 mesures qui comptent pour Google.

Téléchargez l\’extension ici.

 

Google Test My Site

Cet outil va permettre aux webmasters de “tester la vitesse de leur site sur mobile”.

Test My Site vous montrera combien de visiteurs votre site pourrait perdre en raison de votre temps de chargement lent et comparera ce temps de chargement à celui de vos concurrents dans la même thématique que vous.

Test My site vous propose 2 métriques essentielles pour Google. C\’est un bon outil pour obtenir un instantané rapide de la qualité de la vitesse d\’un site Web.

L\’outil offre également d\’envoyer un rapport complet contenant des suggestions pour accélérer votre page Web spécifique.

Testez ici.

 

PageSpeed Insights

PageSpeed Insights fournit maintenant des informations sur la façon dont une page adhère à un ensemble de meilleures pratiques.

En d’autres termes, l\’outil PageSpeed de Google vous montre à présent à quelle vitesse vos pages se chargent en fonction des données réelles de l\’utilisateur, ce qui est une mesure importante pour la satisfaction des utilisateurs.

Cet outil en ligne fournit un score et offre des conseils spécifiques pour accélérer une page Web. Il vous indique quels scripts et feuilles de style ralentissent votre site, dont les images sont trop grandes, et offre de nombreux autres conseils pour accélérer vos pages Web.

Vérifiez votre vitesse de chargement ici.

 

Safe Browsing Test

L’outil Safe Browsing Test vérifie s\’il y a un Malware sur un site. Cependant, une chose intéressante à propos de cet outil est qu\’il révèle également la dernière date qu\’un site a été testé.

Mais, comme toujours, certains sites sont plus souvent testés que d\’autres.

Vous pouvez vérifier l’état de votre site ici.

 

Google Trends

Google Trends ou Google Tendances fournit des informations sur la popularité des mots clés et segmente également l\’information par période et par zone géographique.

En plus de la recherche organique, Google Trends offrira des données sur les recherches effectuées dans Google News, Google Shopping, Google Images et .

Google Trends propose donc maintenant plus de données pour montrer ce que les gens dans le monde cherchent le plus sur internet.

Google Tendances est également important pour la recherche concurrentielle. Il vous montre combien de fois les gens effectuent des recherches sur Google avec le nom de la marque d\’un concurrent, par exemple.

La ligne des tendances par période vous montrera à quel point une tendance est stable, si elle monte, baisse ou est statique.

C\’est par ici pour Google Tendances.

 

Google Analytics

Certes, nous connaissons tous la frustration des données de mots clés non fournis (not provided), après que Google Analytics a retiré certaines de nos analyses les plus utiles.

Mais, il y a encore un énorme avantage qui est d\’avoir des données analytiques pour votre site afin d\’analyser le contenu, l\’expérience utilisateur, le succès des campagnes et plus encore.

En fait, si vous n\’utilisez pas Google Analytics dans votre marketing numérique, vous serez en retard sur la concurrence.

Google Analytics reste un outil populaire et en constante évolution. Bien qu\’il y ait une concurrence croissante d\’alternatives telles que Clicky, Open Web Analytics, WebTrends, Omniture et plus encore.

 

Google Adwords Keyword Planner

Google Keyword Planner, le planificateur de mots clés de Google Ads reste la source de facto pour beaucoup de marketeurs quand il s\’agit de vérifier les volumes de mots clés (mais ne pas compter sur lui pour des exacts).

Le nouveau planificateur est beaucoup plus concentré sur le PPC (paiement par clic), et donc pour la recherche de mots clés pour les campagnes Google Ads que le Keyword Tool précédent.

Il existe cependant des alternatives intéressantes à Google Keyword Planner.

 

Google Search Console

Si vous ne devez utiliser qu’un seul outil d’aide au SEO dans cette liste, la Search Console de Google sera celui-ci.

Dans la nouvelle Search Console, les utilisateurs vérifiés dans Console seront en mesure d\’accéder à la nouvelle performance de la recherche, la couverture de l\’index, l\’état de l\’AMP et les rapports d\’affichage des offres d\’emploi.

De quoi l’utiliser régulièrement pour vérifier les performances de votre site et repérer les problèmes plus rapidement :

  1. Vous y découvrirez aussi si votre site a une pénalité manuelle,
  2. Vous identifierez les problèmes d\’analyse et les liens rompus,
  3. Vous verrez le nombre de pages indexées parmi celles que vous avez soumis à Google,
  4. Vous pourrez tester votre fichier robots. txt ou des données structurées.
  5. Et beaucoup plus, le tout gratuitement.

C\’est un coup d\’oeil sur la façon dont Google considère les éléments de votre site.

Pendant que vous y êtes, pensez aussi à utiliser Bing Webmaster Tools.

Il y a aussi beaucoup à gagner avec cet outil gratuit pour checker les performances de votre référencement sur Bing.

Comment Google choisit-il les featured snippets qui s’affichent ?

Danny Sullivan, nouveau porte-parole de , a créé un compte (@Searchliaison) pour informer la communauté SEO sur certains aspects du référencement .

Comment Google choisit les featured snippets dans les résultats ?

C’est dans ce cadre qu’il va publier une série de posts pour expliquer comment fonctionne Google Search. Et le premier article publié a trait aux featured snippets ou extraits optimisés.

réponse que Google Assistant donne lorsque vous posez une question.

un extrait optimisé.

D’après Danny Sullivan, Google appelle ce résultat “featured snippet” ou extrait optimisé parce que, contrairement à ses résultats Web réguliers, la description de la page, ce qu’il appelle extrait, s’affiche en premier (Position 0).

descriptions des liens organiques

Google révèle qu’il affiche des extraits optimisés ou featured snippets en position 0 dans la recherche , à la fois à partir de la description et lorsqu’ils cliquent sur le lien pour lire la page elle-même.

Le featured snippet est, selon Google, particulièrement utile pour ceux qui sont sur le mobile ou qui lancent une recherche vocale.

Les extraits optimisés aident la recherche mobile et vocale

Le trafic de la recherche mobile a dépassé le trafic desktop dans le monde entier, dixit Google.

Et avec la croissance des assistants numériques activés par la voix, plus de gens font des requêtes vocales. Dans ces cas, le format traditionnel des \ »10 liens bleus\ » ne fonctionne pas aussi bien, ce qui fait des extraits optimisés un format particulièrement utile.

Bien sûr, Google continue à afficher des listes régulières (liens organiques.

Et il a besoin de le faire en fournissant des informations provenant de sources fiables qui ne fournissent pas des informations ou des images potentiellement offensantes dans le cadre du résultat.

Pour conclure son article, Danny Sullivan déclare que les featured snippets en position 0 ne seront jamais absolument parfaits, tout comme les résultats de recherche dans leur ensemble ne seront jamais absolument parfaits.

En effet, sur une journée type, 15%

Quand Google pénalise un site pour publication d\'article hors thématique


Publier un article sur votre blog dans une thématique ne correspondant pas à ce que sait de vous peut-il entraîner des ?

Au regard de ce qui va suivre, il semble que \ »Oui\ », selon Matt Cutts. Explications.

Vous avez peut-être tenté de vous exprimer sur des sujets variés et divers sur votre blog ? Ceci ne serait plus une bonne idée si vous souhaitez bénéficier des faveurs de Google. Car, selon Chris Crum  , vous devez vous focaliser sur ce que vous maîtrisez, donc sur votre domaine de compétence, ou tout du moins dans la thématique que Google reconnaîtrait à votre site.

Surtout si vous pratiquez du guest blogging et acceptez des auteurs invités sur votre blog.

C\’est en tout cas le message que Google aurait cherché à faire passer lors d\’un échange sur entre Matt Cutts et un très respecté Auteur dont le site a récemment été pénalisé manuellement.

Le Guest Blogging toujours dans le collimateur ?

Si vous publiez un article sur un site de notoriété respectable et populaire, surtout si c\’est le site qui a insisté pour que vous y publiez, il serait normal, en principe, que ce site renvoie un lien pointant vers votre propre site pour vous faire découvrir davantage. Un lien en DoFollow de surcroît.

N\’est-ce pas la preuve de la reconnaissance de votre Autorité et de votre expertise ?

Et pourtant, Google ne semble pas vouloir l\’entendre de cette oreille. Bien au contraire.

C\’est aujourd\’hui un secret de pollichinelle que Google, après les liens factices pénalisés, est actuellement parti en croisade contre le guest blogging. La récente sanction prise à l\’encontre de MyBlogGuest.com  en est le symbole compte tenu de l\’écho retentissant sensé instaurer une nouvelle fois la psychose chez ceux qui le pratiquent.

De plus en plus de sites recevraient des pénalités manuelles pour des posts d\’auteurs invités.

C\’est ainsi que le dénommé SEO Doc Sheldon, qui aurait une bonne réputation SEO, s\’est vu infligé une action manuelle pour avoir accepté de publier sur son blog un guest post que Google a estimé hors sujet par rapport à la thématique attitrée de son blog.

Même si cet article incriminé concernait le marketing, peut-être qu\’il y en avait d\’autres, c\’est celui que Google a pointé du doigt et a sanctionné.

Google imposerait-il des thématiques aux sites ?

Ayant reçu une notification de la part de Google pour \ »vente de lien laissant passer du PageRank ou participation à un réseau de liens…\ », Doc Sheldon a publié une lettre ouverte qu\’il a partagée avec Matt Cutts, Eric Schmidt, Larry Page, Sergey Brin, etc…

C\’est Matt Cutts qui s\’est chargé de répondre dans un tweet en disant ceci : \ »Qu\’est-ce que \ »Bonnes Pratiques pour réseau social hispanique\ » a à faire avec un blog sur la rédaction SEO ? C\’est ce qui justifie l\’action manuelle.\ »

Ce à quoi répond à son tour Doc Sheldon : \ »Mon blog a rapport avec le SEO, le marketing, le social média, le développement web… Il parle de beaucoup de choses. Sinon, je ne l\’aurais pas lancé\ ».

A ce stade, il y aurait comme une forme d\’irrationalité à voir Google tenter d\’imposer une thématique à un site. D\’où le tweet suivant de Doc Sheldon : \ »Devons-nous donc comprendre que juste un lien justifie une pénalité ? Vous envoyez un message pour CELA\ ».

Donc, au final, nous avons deux problèmes en un. Google reproche à Don Sheldon d\’avoir publié un guest post en Mars 2013 en dehors de sa thématique de prédilection, donc un article non approprié, et aussi le suspecte d\’avoir un lien factice à partir de ce même article. Mais, Matt Cutts ne dit pas que l\’article incriminé est de mauvaise qualité. Mais seulement hors thématique.

La réaction de Danny Sullivan

Ulcéré par cette pénalité qui pour lui serait de trop, Danny Sullivan du site Serachengineland.com  a publié à son tour un article pour faire part de sa désapprobation. Il se demande pourquoi Google voudrait-il s\’arroger le droit d\’indiquer aux webmasters sur quelle thématique écrire.

Après avoir estimé dans son article que Google pourrait être en train de sortir de son rôle, Danny Sullivan lui fait les suggestions suivantes :

  • A Google : Assez des pénalités et dirigez-vous vers un modèle où, si vous n\’aimez pas un lien, vous ne le comptez pas, vous ne le pénalisez pas.
  • Aux SEOs et Editeurs : Arrêtez de vous poser des questions sur comment placer des liens, ce qui est actuellement risqué. Pensez à comment développer une vraie audience. Et si les liens arrivent avec cette audience, c\’est tout bénéfice.

La bonne nouvelle pour Doc Sheldon, comme il l\’a confirmé à Danny Sullivan, c\’est que sa pénalité a été levée grâce certainement à la mobilisation de tous ses pairs. Mais, un petit site aurait-il pu bénéficier d\’une levée de pénalité si rapide ?

Quelles leçons tirer de cette affaire ? A vous de le dire…

Voici maintenant comment bien référencer votre site internet sur Google.

Twitter autorise l\'ajout de 4 photos par Tweet ainsi que les tags


Dorénavant, vous pouvez ajoutez 4 photos dans chacun de vos Tweets et, pour la première fois, vous pouvez taguer jusqu\’à 10 amis dans chaque photo sur .

Et ce, sans réduire votre nombre de 140 caractères initialement autorisés par Tweets.

Les photos ajoutées s\’afficheront de façon juxtaposée directement dans la timeline du site officiel de Twitter et sur ses applications mobiles. En cliquant sur l\’une des photos, celle-ci s\’affichera dans sa taille normale. Par contre sur TweetDeck, les photos s\’afficheront les unes après les autres.

Pour l\’instant, les 4 photos maximum peuvent être téléchargées depuis l\’iPhone. et le site officiel de Twitter proposeront très bientôt cette nouvelle fonctionnalité.

Vous pouvez taguer des photos sur Twitter

Cette autre nouvelle fonctionnalité qui permet d\’identifier (taguer) des personnes est déjà disponible pour tout le monde et fonctionne comme sur Facebook. C\’est à dire que lorsque vous taguez un ami, ce dernier reçoit une notification. Il peut supprimer ce tag ou le valider.

Twitter vous permet donc de contrôler qui peut vous taguer dans une photo. Mais, attention, par défaut, tout le monde peut vous taguer. A vous de le paramétrer.

Partage de photos-sur Twitter
source : Twitter

Google clarifie l\'utilisation de son outil de suppression de liens

Outil de suppression de liens.

Déjà, 2 semaines après sa mise à disposition, Matt Cutts avait accordé une interview à Danny Sullivan pour apporter des précisions.

Mais, ces dernières semaines, les critiques ont repris de plus belle sur la blogosphère, notamment anglosaxonne.

En Francophonie, c\’est Olivier Andrieu, spécialiste en référencement, qui s\’est fait hara-kiri pour pousser un coup de gueule sur une certaine forme d\’opacité concernant le traitement des demandes de suppression de liens. C\’est vous dire si ce sujet commence à agacer plus d\’un.

C\’est donc dans ce concert de désapprobation de l\’outil de désaveu de liens que, suite à une interpellation sur un forum officiel de Google concernant cette fois l\’outil de suppression de liens, +John Mueller, Analyste des tendances chez Google a posté une contribution sur ce même forum afin d\’essayer de clarifier l\’utilisation de cet outil.

Voici la traduction de son message :

Peut-être quelques éclaircissements peuvent aider à comprendre …

  • L\’outil de suppression d\’URL n\’est pas destiné à être utilisé pour l\’entretien normal d\’un site. Cela fait partie de la raison pour laquelle nous avons une limite quant à son utilisation.
  • L\’outil de suppression d\’URL ne supprime pas les URL de l\’index, il les supprime de nos résultats de recherche. La différence est subtile, mais c\’est une partie de la raison pour laquelle ces soumissions ne changent en rien le nombre d\’URL indexées pour votre site.
  • Le fichier robots.txt ne supprime pas le contenu de notre index, mais dans la mesure où ne ne seront plus en mesure de l\’explorer à nouveau, il ne sera plus visible sur nos pages de résultats.
  • Afin de supprimer le contenu de notre index, nous devons être capable de l\’explorer, et nous devons voir une balise meta robots noindex, ou un code résultat HTTP 404/410 (ou une redirection, etc.).

    Par conséquent, pour pouvoir explorer un contenu, l\’URL ne doit pas être en mode \ »disallow\ » (accès interdit) par le fichier robots.txt.

  • Nous traitons généralement le code 404 de la même manière que le code 410, avec une petite différence qu\’avec le code 410, l\’URL n\’a pas besoin d\’être confirmée par une nouvelle exploration de GoogleBot. Elle est rapidement retirée de notre index.
  • Dans la pratique, ce n\’est pas important mais si vous pouvez utiliser le code 410, faîtes-le afin que le contenu soit supprimé.
  • Pour les changements de site de grande taille, je vous recommande:
    • De ne pas utiliser le fichier robots.txt
    • D\’utiliser une redirection 301 pour le contenu qui a déménagé
    • D\’utiliser un code 410 (ou 404 si vous ne pouvez pas) pour les URL qui ont été retirées
    • De vous assurer que le réglage de la vitesse d\’exploration est réglé sur \ »Laisser Google décider\ » (automatique) dans Google Webmasters Tools, de sorte que vous ne limitez pas l\’exploration de notre robot
    • D\’utiliser l\’outil de suppression d\’URL uniquement pour les questions urgentes ou très flagrantes.

    Jugez-vous ces explications sur l\’outil de suppression d\’URLs assez claires et suffisantes ? 

Matt Cutts apporte des précisions sur l\'outil de désaveu des backlinks




Notamment, est-ce que ne va pas se servir des demandes de suppressions de backlinks, si elles étaient nombreuses pour votre site, comme un signal que votre site serait lui-même de mauvaise réputation ?

Danny Sullivan du site Searchengineland.com.

Danny Sullivan : Comment les gens savent quels backlinks supprimer ?

Matt Cutts : Lorsque nous décidons de prendre des actions ciblées sur des liens spécifiques, nous envoyons des emails aux webmasters dans lesquels nous donnons quelques exemples de liens de mauvaise qualité. Nous le faisons dans le but de les guider dans le nettoyage des mauvais backlinks.

En même temps, nous ne pouvons aller plus loin pour ne pas fournir des informations aux mauvais esprits sur comment mieux spammer.

Pourquoi vous ne listez pas l\’ensemble des mauvais liens ?

Cette question nous ramène à la première question. Nous ne voulons pas aider ceux qui spamment en leur apprenant à mieux nous spammer.

A qui s\’adresse cet outil Google Disavow ?

Comme dit dans notre post de lancement de Google disavow, ceux qui acquièrent des liens de façon non naturelle.

Que se passe-t-il si vous refusez de supprimer ces liens artificiels ? Si les webmasters désavouent des liens mais ne demandent pas à Google une reconsidération, ça marche quand même ?

Non, ça ne marche pas comme cela. En particulier, Google peut vérifier un échantillon de liens que nous avons vus lors d\’une action manuelle.

Si nous nous rendons compte qu\’aucun lien que nous avons vu n\’a été supprimé, nous pouvons quand même savoir que les sites ont été reniés sans pour autant avoir demandé leur suppression définitive.

Si je soumets une liste de liens à supprimer et je vous en renvoie une autre quelque temps après, est-ce le même délai d\’attente pour la reconsidération ?

Si vous avez une liste de 2 liens, A et B, pour lesquels vous avez demandé une suppression, et que vous mettez cette liste à jour en y ajoutant un autre lien C à supprimer, cela n\’affectera pas le délai de traitement des liens A et B.

Mais, seulement pour le lien C qui attendra un peu plus longtemps.

Au final, combien de temps pour constater une amélioration sur les SERPs après les suppressions ? Plusieurs mois ?

Cela peut prendre beacucoup de temps, probablement des mois. Il y a un délai pour que les nouvelles données soient réintégrées dans l\’index de Google. Après, il peut aussi y avoir un délai à prendre en compte pour que ces nouvelles données soient mises à jour dans nos différents algorithmes.

Juste pour confirmation : une reconsidération doit être faite uniquement si le webmaster a reçu un message d\’alerte, c\’est ça ?

C\’est ça ! Si vous n\’avez pas d\’intervention manuelle à effectuer contre un webspam, demander une reconsidération ne sera suivi d\’aucun effet.

(NDLR : Donc si Google ne vous a rien signalé comme liens suspects, ce n\’est pas la peine d\’en supprimer !)

Est-ce que les interventions manuelles indiquent qu\’il s\’agit de liens de mauvaise qualité ?

Le message que reçoit le webmaster indiquera quel est le problème sur son site. S\’il a de nombreux backlinks que nous estimons qu\’ils affectent l\’ensemble de son site, nous le lui dirons.

Par contre, si nous avons des doutes sur certains liens, nous lui enverrons un autre type de message et nous lui présenterons quelques liens que nous suspectons.

Qu\’en est-il du préfixe WWW ? Quelles différences entre des liens d\’un site avec WWW et sans WWW ?

Si vous demandez à supprimer les liens provenant du domaine \ »badsite.com\ » (domain:badsite.com), ceci signifie que vous ignorez totalement les liens provenant de \ »WWW.badsite.com\ ».

(NDLR : Vous devez donc demander la suppression, pour chaque , avec et sans le WWW, sinon vous n\’aurez fait que la moitié du travail de suppression).

Comment se prémunir du Negative SEO ? En d\’autres termes, un webmaster décide de supprimer tous les backlinks provenant d\’un site de bonne réputation : est-ce un signal pour Google que ce site est de mauvaise qualité ?

En ce qui nous concerne, nous utilisons les données de façon normale et correcte, notamment pour les requêtes de reconsidération. Nous n\’avons pas encore décidé si nous devons effectivement pousser des investigations plus profondes.

Dans tous les cas, nous avons les moyens de déterminer si un site est réellement de mauvaise de qualité ou de bonne qualité.

Si un webmaster décide de supprimer des liens de bonne qualité, nous sommes en mesure de ne pas tenir compte d\’une telle demande. D\’ailleurs, nous ne croyons pas qu\’un webmaster veuille \ »se tirer une balle dans le pied\ » après avoir obtenu autant de bons liens.

Pourquoi Google ne réduit-il pas le poids de ces mauvais liens qu\’il connaît sans qu\’on ait à demander à les désavouer soi-même ?

Autant nous souhaitons être ouvert sur toutes les interventions manuelles que nous faisons, autant nous communiquons aux webmasters les liens que nous estimons de mauvaise qualité.

Ce qui a pour conséquence de faire prendre conscience aux webmasters de faire attention à la qualité de leurs backlinks actuels et de les inciter à aller à la recherche de backlinks de meilleure qualité. Ce qui est finalement une bonne chose.

Nous comprenons aussi que rechercher des liens de très haute qualité demande d\’abord de supprimer les liens spammés ou de faible qualité. Nous avons fourni un outil qui était demandé par les SEOs eux-mêmes qui cherchaient à se protéger contre les mauvais liens.

Un dernier commentaire ?

Certaines personnes veulent savoir s\’il faut demander une reconsidération après avoir désavouer un lien. La réponse est OUI !

Si vous prenez l\’initiative d\’une action manuelle en désavouant des liens, vous devez par la suite envoyer une requête de reconsidération.

Nous vous demandons simplement d\’attendre quelques jours après avoir désavoué des backlinks pour envoyer votre demande de reconsidération. Et ce, pour donner du temps à notre système d\’intégrer vos liens désavoués. N\’oubliez surtout pas de mentionner à nouveau tous les backlinks déjà désavoués dans votre demande de reconsidération.

Voici maintenant comment bien référencer son site sur Google en 2014.

Quelle est la durée de vie d\'un post sur Twitter ?

Durée de vie du tweet.



Alors faut-il accorder une seconde chance à son post sur Twitter ?

Le service de liens raccourcis Bit.ly vient de livrer une étude stipulant que 3 heures après sa publication, les tweets obtiennent en moyenne la moitié de leur trafic.

Voici l\’analyse faite sur cette étude de Bit.ly par Danny Sullivan sur Searchengineland.

La demi-vie d\’un tweet

En fait, Bit.ly, dans son étude a mesuré ce qu\’il appelle la demi-vie (half-life) d\’un post partagé sur Twitter. Par demi-vie, Bit.ly veut dire l\’instant T où le tweet reçoit la moitié des clics qu\’il recevra en totalité.

Ce que n\’approuve pas D. Sullivan estimant qu\’un tweet continuera de générer des clics bien au-delà de cette période. Et donc produira une bonne quantité d\’autres clics. Ce qu\’il faut reconnaître, c\’est qu\’après cette moitié de vie du tweet, son nombre de clics diminuera, bien évidemment. Le point zéro étant difficile à déterminer sur la durée de vie totale.

Un déclin de clics après 3 heures

Dans son étude, Bit.ly a donc mesuré la moitié de vie d\’un post sur Twitter, et . Ce qui donne :

  •  Twitter : 2,8 heures (environ 2h50\’)
  •  Facebook : 3,2 heures (environ 3h10\’)
  •  Youtube : 7, 4 heures (environ 7h15\’)

Au vu de ces , en 3 heures, un post sur Twitter ou Facebook atteint sa moitié de vie et aura généré la moitié des clics qu\’il recevra au total. Alors qu\’une vidéo postée sur Youtube atteindra cette moitié de vie à partir de 7 heures après sa publication.

Donnez une seconde chance à votre post sur Twitter

Toujours dans son article d\’analyse de cette étude de Bit.ly, D. Sullivan révèle une pratique assez courante chez Searchengineland. C\’est qu\’au moment où un nouveau tweet atteint sa moitié de vie, ils lui donnent une seconde chance (second life). Parce qu\’ils sont conscients qu\’au moment où l\’article est posté sur Twitter, une bonne partie de leurs followers n\’est pas connectée et donc l\’aurait manqué.

Ainsi, ils reçoivent 50% de trafic de plus de Twitter après avoir donné cette seconde chance à leur article. C\’est à dire 50% du trafic de la moitié de vie du premier tweet du même article.

Finalement, tweeter et re-tweeter une à deux fois de suite, il n\’y a rien d\’anormal à cela. Tout est question de timing et de dosage. Comme toujours.