Google utilise le neural matching pour classer le contenu

Google utilise une nouvelle technique appelée Neural Matching ou “correspondance neuronale” pour mieux comprendre les synonymes et classer le contenu. Elle impacte déjà 30% des requêtes.

Google utilise la correspondance neurale pour le classement du contenu

Selon Danny Sullivan de chez , le moteur de recherche a utilisé la correspondance neuronale au cours de ces derniers mois.

En d’autres termes :

Les mois derniers, Google a utilisé la correspondance neuronale (Neural Matching, ndlr),- une méthode d’intelligence artificielle pour mieux relier les mots aux concepts. Super synonymes, en un sens, et impactant déjà 30% des requêtes. Vous ne savez pas ce que c’est “effet Soap Opera” pour le chercher ? Nous pouvons mieux le comprendre.”

Sullivan fait référence à une manifestation de la technique de correspondance neurale qui permet à Google de retourner les résultats liés à “soap opera effect” quand un utilisateur saisit une requête telle que “why does my TV look strange ?

(Cliquez sur les images pour les agrandir)

Source : Searchenginejournal

Cela est significatif parce que “Why does my TV look strange ?” (pourquoi mon téléviseur semble étrange ?

.

Un nouvel algorithme de classement sur Google Search ?

Le blog AI de Google a récemment publié un lien vers un nouveau document de recherche appelé le “Classement de pertinence en profondeur en utilisant des interactions document-requête améliorées”.

« classement de la pertinence du document ».

Cette méthode est également appelée récupération Ad-hoc.

Neural Matching), elle rend cette recherche intéressante sur quelque chose qui est similaire à cela.

Voici, d’après Searchenginejournal.com, comment le nouveau document de recherche décrit la récupération ad hoc:

Le document de recherche est clair, dans le sens où cette forme de classement . Il poursuit en disant :

Dans la déclaration ci-dessus, il indique que le classement de la pertinence des documents diffère des autres technologies de recherche (“structure du réseau”

elle ne repose pas sur les signaux des liens.

en Mai 2014en Juin 2014. Et Bing Search a aussi évoqué ce même sujet en Septembre 2017. On y est donc.

Bref, la technique de correspondance neuronale (neural matching) a été révélée lors de la conférence de presse à propos du 20e anniversaire de Google, où un certain nombre d’autres fonctionnalités de recherche ont été annoncées.

C’est justement grâce aux progrès de Google dans l’intelligence artificielle, dont la correspondance neurale, que ces fonctionnalités de recherche à venir ont été possibles.

La carte des activités

Les nouvelles cartes des activités de Google permettront aux utilisateurs de revenir là où ils se sont arrêtés lors de leur précédente navigation de recherche.


Les cartes des activités seront disponibles dans Search plus tard au cours de cette année, et s’afficheront uniquement quand elles sont pressenties pour à être utiles.

Les Collections dans Google Search

Les Collections dans permettront aux utilisateurs de suivre (dans le sens de s’abonner) manuellement le contenu qu\’ils ont visité, tels que des sites Web, des blogs, des articles ou des images.

Les contenus recensés dans les cartes des activités peuvent également être ajoutés aux Collections.

Pour aider les utilisateurs à découvrir de nouveaux contenus, Google proposera des suggestions basées sur ce que les gens ont sauvegardé dans leurs Collections.

Cette fonction sera déployée cet automne.

Organisation dynamique des résultats de recherche

Google introduit une nouvelle façon d’organiser dynamiquement les résultats de recherche pour aider les utilisateurs à déterminer ce qu’il faut explorer ensuite :

Plutôt que de présenter des informations dans un ensemble de catégories prédéterminées, nous pouvons intelligemment montrer les sous-rubriques qui sont les plus pertinentes à ce que vous recherchez et rendre plus facile d’explorer des informations à partir du Web, le tout à partir une seule recherche.

Comme Google Images le fait déjà avec ses filtres.

Ces onglets continueront à rester à jour, reflétant ce qui est le plus pertinent pour le sujet à ce moment-là.

Nouvelle couche thématique dans le Knowledge Graph

Rassembler tout cela en une nouvelle couche de Google Knowledge Graph s’appelle la “Topic Layer” (couche thématique).

La couche thématique est conçue pour comprendre profondément un espace thématique et comment les centres d’intérêt peuvent se développer au fil du temps :

La couche thématique est créée en analysant tout le contenu qui existe sur le Web pour un sujet donné et développe des centaines et des milliers de sous-sujets.

Pour ces sous-thèmes, nous pouvons identifier les articles et vidéos les plus pertinents…

Nous examinons ensuite les modèles pour comprendre comment ces sous-thèmes se rapportent les uns aux autres, afin que nous puissions plus intelligemment afficher le type de contenu que vous pourriez vouloir explorer ensuite.

Avec cette technologie en place, Google vise à servir aux utilisateurs des besoins d’information continue pour les années à venir.

Google Index Mobile First : Le changement, ce n\'est pas pour maintenant !

Depuis que a annoncé l’arrivée imminente de son Index Mobile-First, ce qui pourrait considérablement bouleverser les résultats de recherche, certains indices laissaient à penser que la date de son déploiement se situerait entre le 1er et le 31 Janvier 2017. 

Google Index Mobile First : Le changement, ce n\'est pas pour maintenant !

Et nous sommes déjà à la mi-Février… Google ayant lui-même dit que ce sera fait dès le début de l’année 2017.

Pour rappel, l’arrivée du Mobile First verrait Google indexer et classer les sites selon la qualité et les performances de la version mobile du site. Un changement qui intervient donc pour refléter le fait que plus de 50% (et ce n’est pas fini) de toutes les recherches sur Google sont faites via un appareil mobile.

Et avec certains propriétaires de sites qui tronquent le contenu ou présentent une version alternative de la page (lisez l’article “Ce que Google veut voir sur votre site mobile first”), il peut être frustrant, pour les mobinautes qui cherchent, de trouver un contenu qu’ils recherchaient mais ne correspond pas à la même version complète de ce contenu sur ordinateur.

Le changement est donc très logique puisqu’il influence autant la perception du mobinaute que la qualité des résultats de recherche de Google qui ne veut pas fournir des contenus tronqués.

Bref, comme nous nous approchons allègrement vers la fin du mois de Février, de plus en plus de interpellent Google sur la date du déploiement du Mobile-First.

C’est ainsi que, Gary Illyes, Webmaster Trends Analyst chez Google et porte-parole SEO de Google, a évoqué le sujet lors la récente Friends of Search conference :

Gary Illyes :

Nous continuons toujours à travailler sur un index complètement mobile first, nous nous approchons du lancement.

Mais, comme vous pouvez l’imaginer, l’assistance a insisté et demandé à savoir quand le mobile-first sera effectif. Réponse de Gary Illyes :

En d’autres termes :

L\’Index Mobile First peut encore prendre quelques mois…

Avant d’ajouter ce qui suit :

Google n’a pas encore de date exacte pour le Mobile-First.

Nous savons depuis un certain temps que Google effectue actuellement une expérimentation de son Index Mobile-First. Mais, s’il tarde à le déployer, c’est qu’il subsiste de petits problèmes qui pourraient s’avérer embêtants sur le long terme.

Notamment en ce qui concerne les backlinks ou liens entrants dont on connaît la position et l\’importance parmi les 3 premiers facteurs de référencement sur Google.

Puisque les liens impactent sur le classement sur Google, sans doute que Google veut s’assurer que les versions destinées au mobile (du type m.domaine.com ou mobile.domaine.com) vont continuer à bénéficier des backlinks reçus par les versions desktop.

Pour la simple raison que les sites Web et les blogs ne pointent des liens que sur les versions desktop des sites.

Ce qui serait plus facile avec un site en responsive design qu’avec un site qui a une version desktop et une autre version différente dédiée au mobile.

Google demande de ne pas bloquer l\'accès de Googlebot aux fichiers

Search Console a commencé à envoyer à de nombreux webmasters des messages d’alerte par email les notifiant de l’impossibilité pour Googlebot, le robot d’indexation de Google, d’explorer librement certains fichiers. 

Ce qui pourrait impacter le référencement de leurs sites web.

Google envoie des notifications aux sites bloquant l’accès aux fichiers CSS et JavaScript

Ces fichiers généralement mentionnés par Google concernent les CSS et autres JavaScripts qui n’autorisent pas l’accès à leurs données.

Voici un exemple de message reçu par certains webmasters :

Nos systèmes ont récemment détecté un problème avec votre page d\’accueil qui affecte l\’affichage et l\’indexation de votre contenu par nos algorithmes.

Plus particulièrement, Googlebot ne peut accéder à vos fichiers JavaScript ou CSS à cause de restrictions dans votre fichier robots.txt. Ces fichiers nous permettent de comprendre que votre site Web fonctionne correctement. En bloquant l\’accès à ces éléments, il est donc possible que le classement du site ne soit pas optimal.

Le message d’alerte indique également avec insistance que le blocage des fichiers Javascript et/ou CSS “peut entraîner des classements qui ne soient pas optimaux”.

Alors que Google a fait savoir, après un changement de ses consignes aux webmasters, de ne plus jamais bloquer Googlebot lors de ses visites d’exploration et d’indexation. Notamment via le fichier robots.txt.

Voici d’ailleurs ce qu’il dit dans ses consignes :

Pour nous aider à comprendre le contenu de votre site de manière exhaustive, autorisez l\’exploration de tous les éléments de votre site, tels que les fichiers CSS et JavaScript. Notre système d\’indexation affiche des pages Web à l\’aide du code HTML de la page, ainsi que d\’éléments tels que les fichiers images, CSS et JavaScript.

Pour voir les éléments de page qui ne peuvent pas être explorés par Googlebot et pour résoudre les problèmes relatifs aux instructions dans votre fichier robots.txt, utilisez la fonctionnalité Explorer comme Google et l\’outil de test du fichier robots.txt dans les outils pour les webmasters.

Comment découvrir les ressources bloquées par robots.txt

Les ressources bloquées sont aussi mises en évidence dans la section “Index Google” -> “Ressources bloquées” dans votre .

Le message d’alerte dans Console fournit aussi les détails sur la façon de résoudre le problème en proposant toutefois de mettre à jour la règle du fichier robots.txt pour débloquer la ressource.

Il semble que depuis quelques jours, Google a augmenté le nombre de messages qu\’il envoie aux webmasters sur les blocages de GoogleBot.

Et ils sont aussi nombreux, les webmasters qui utilisent , qui ont reçu des avertissements pour avoir utilisé “abusivement” l’instruction “Disallow: /wp-content/plugins” dans leur fichier robots.txt.

Voici les différents types d’instructions qui peuvent générer un message d’alerte dans Google Search Console et par email :

Disallow: /.js$*

Disallow: /.inc$*

Disallow: /.css$*

Disallow: /.php$*

Disallow: /wp-content/plugins

Disallow: /wp-content/cache

Disallow: /wp-content/themes

Disallow: /cgi-bin/

Disallow: /wp-content/uploads/

Disallow: /wp-includes/css/

Disallow: /wp-includes/js/

Disallow: /wp-includes/images/

Ce que demande donc Google dorénavant, c’est qu’il n’y ait plus dans aucun fichier robots.txt d’instructions du type “Disallow: /nomdufichier” ou “Disallow: /nomdurepertoire/”.

Si vous en avez dans votre fichier robots.txt, supprimez-les immédiatement, remplacez-les par \ »Allow: /\ » et le problème sera résolu. Sinon, votre référencement pourrait en souffrir comme Google le mentionne dans ses notifications.

Car, Google déconseille de restreindre l\’accès à tous les fichiers existant dans votre site afin d\’améliorer leur indexation, notamment pour le mobile, et donc probablement votre classement sur Google.

Testez votre fichier robots.txt

L\’outil de test du fichier robots.txt vous indique si votre fichier robots.txt empêche nos robots d\’explorer des URL spécifiques sur votre site.

  1. Depuis la page d\’accueil de la Search Console, sélectionnez le site dont vous souhaitez tester le fichier robots.txt.
  2. Sous l\’en-tête \ »Exploration\ » du tableau de bord de gauche, sélectionnez l\’Outil de test du fichier robots.txt.
  3. Apportez des modifications à votre fichier robots.txt en ligne dans l\’éditeur de texte.
  4. Faites défiler le code du fichier robots.txt pour localiser les avertissements relatifs à la syntaxe et les erreurs de logique signalés. Le nombre d\’avertissements relatifs à la syntaxe et d\’erreurs de logique s\’affiche immédiatement sous l\’éditeur.
  5. Saisissez une extension de l\’URL ou un chemin d\’accès dans la zone de texte en bas de la page.
  6. Dans la liste déroulante à droite de la zone de texte, sélectionnez le user-agent que vous souhaitez simuler.
  7. Cliquez sur le bouton TEST après avoir choisi le robot pour lancer la simulation.
  8. Vérifiez si le bouton TEST indique Acceptée ou Bloquée pour savoir si nos robots d\’exploration peuvent ou non explorer cette URL.

Google : Combien de temps pour qu\'une optimisation de site aboutisse ?

Il arrive très souvent qu’un site qui publie régulièrement du contenu (même intéressant) n’arrive pas à bien se classer sur .

Au bout de combien de temps une optimisation de site aboutit à un bon classement ?

Bien entendu, de nombreux paramètres peuvent être pris en compte pour justifier un tel classement non satisfaisant.

Cependant, et pour en arriver à la question posée à John Mueller, le propriétaire du site web peut demander l’aide d’un professionnel en référencement pour mieux optimiser son site.

La question posée à John Mueller était de savoir au bout de combien de temps une de site Web avec une qualité du contenu bien améliorée peut-elle aboutir à un meilleur classement sur Google ?

Selon John Mueller, quoi qu’il advienne, Google explorera et indexera rapidement les contenus qui ont été modifiés et mieux optimisés. Et ils commenceront même à se classer dans les pages de résultats.

Seulement, cela prendra plus de 6 mois pour que Google recueille toutes les informations concernant ces contenus améliorés afin de les transformer en signal positif pour le .

Par conséquent, lorsque vous entreprenez de réécrire certains articles de votre site ou blog ou de modifier son architecture et/ou son ergonomie, voir de le relooker complètement, les résultats de tous ces changement ne seront pas immédiats.

Et donc pas de résultats perceptibles avant au moins 6 mois, pour ne pas dire plus… Ce serait à partir de ce délai que votre ranking sur Google pourrait s\’améliorer de façon significative.

Ceci est une information intéressante à prendre aussi en compte lorsqu’un site a, par exemple, été pénalisé par Google Panda et que vous avez essayé d’améliorer la qualité des contenus.

Alors, patience, patience…

Google : Le responsive design n\'est pas un facteur de classement

Depuis un certain temps, insiste et encourage les webmasters à opter pour le responsive design pour la version mobile de leurs sites web.

SEO Mobile : Le responsive design n\'est pas un facteur de classement sur Google

le site compatible mobile (mobile-friendly) est désormais un critère de classement.

en ces termes :

+Zineb Ait Bahajji

responsive design recommandé par Google éviterait tout simplement toutes les confusions inimaginables.

Mais, il ne serait pas destiné à vous apporter un meilleur classement sur Google. CQFD.

Google va-t-il faire de l\'hébergement web sécurisé (httpS) un facteur de référencement ?

Hébergement web sécurisé comme critère de classement sur Google


Barry Schwartz de Search Engine Land avait alors publié un article pour partager cette déclaration surprenante de Matt Cutts tout en précisant :

\ »Matt Cutts n\’a pas dit que c\’est ou que ce sera un critère de classement. Mais, il dit qu\’à titre personnel, il aurait aimé que cela se produise en 2014. Par conséquent, dit Barry Schwartz, je ne serai pas surpris si Google annonce en 2014 que l\’hébergement web sécurisé SSL est un facteur de classement… Mais ce n\’est pas encore le cas et cela pourrait aussi ne jamais se faire\ ».

Jusqu\’ici, rien de nouveau sur ce plan. Sauf que le très célèbre Wall Street Journal  vient de publier un article réaffirmant le désir de Matt Cutts pour un tel critère de référencement.

Matt Cutts aurait à nouveau exprimé ce souhait lors d\’une conversation privée (en off, pour utiliser le jargon journalistique !) avec une personne ayant des entrées chez Google.

Et selon cette personne (anonyme), les discussions et échanges sur le sujet du cryptage des sites web comme facteur de classement vont bon train en interne chez Google mais le changement tant souhaité ne se ferait pas forcément de si tôt.

Si une telle initiative était finalement prise, cela voudrait dire que les sites web sécurisés bénéficieraient d\’un coup de pouce supplémentaire sur les pages de résultats de Google compte de tenu de la protection des données privées des utilisateurs. Ce qui devrait encourager de nombreux webmasters à adopter ce type d\’hébergement.

Ce sont les registrars et autres hébergeurs web qui doivent commencer à se frotter les mains !

Il faut dire qu\’avec la navigation sécurisée en , les données chiffrées passant sur internet constitueraient une barrière entre les utilisateurs web et tous ceux qui seraient tentés de voler leurs informations personnelles. Mais, Matt Cutts n\’est pas le seul à y penser.

J\’avoue pour ma part que depuis un certain temps, je lis des posts de +John Mueller de Google Webmaster Tools sur Google+ qui revient périodiquement sur le sujet de l\’hébergement sécurisé des sites web qu\’il a tendance à encourager.

Je vous laisse découvrir les posts Google+ de John Mueller pour comprendre que ce projet pourrait bien voir le jour et obliger tous les webmasters à avoir recours à l\’hébergement sur serveur sécurisé.

Voici maintenant comment bien référencer votre site internet sur Google.

12 Moyens d\'améliorer son trafic web sans faire de Netlinking

Et donc, leur importance en terme de visibilité et de trafic web.

Et pourtant, comme nous le présente Cyrus Shepard

1. In-Depth Articles

Selon Moz.com, 6% des résultats de recherche de contiennent désormais des liens In-Depth Articles.

2. Améliorer la satisfaction de l\’utilisateur

3. Les extraits enrichis issus des données structurées

extraits enrichis susceptibles de s\’afficher

4. Optimisation des contenus vidéo

La capture d\’extrait vidéo (miniature)

balises de schema.org pour les vidéos.

Wistia qui peuvent vous aider à créer un sitemap vidéo incluant automatiquement le balisage de Schema.org. Ce qui va vous permettre de choisir la miniature à afficher sur les pages de résultats.

Et comme les miniatures vidéos encouragent très souvent les clics, vous pouvez espérer alors améliorer votre trafic web.

5. Google AuthorShip

Certes Google ne vous garantit pas plus de clics si vous participez à l\’Authorship

6. Améliorer le temps de chargement des pages

Par temps de chargement, il faut comprendre le temps que prend votre serveur pour envoyer sa première réponse à une requête.

7. Optimisation pour mobile

Comme mentionné plus haut, votre site web devra être aussi configuré pour le mobile. Google ayant confirmé

8. Accroître votre audience en dehors de votre zone géographique

9. Visibilité avec Google+

Alors que lorsque vous partagez un contenu sur Google+, vos followers peuvent le voir à chaque fois qu\’ils font une recherche sur le moteur Google. Ce qui est une grosse différence.

Pour bénéficier d\’une telle visibilité supplémentaire avec les résultats personnalisés, et donc de plus de trafic depuis Google, vous devez être actif sur Google+.

10. Optimisation des balises meta et title

Il s\’agit de prendre soin de la balise meta description et de la balise title de tous vos contenus. Lesquelles balises devront être uniques pour chaque page.

Et comme dit Matt Cutts : \ »Vous pouvez soit choisir d\’avoir une balise meta description unique, soit choisir de ne pas avoir de balise meta description\ ». Ce qui veut dire que toute duplication de balises pourra être pénalisée et constituer un frein à votre trafic web.

11. Publier régulièrement de nouveaux contenus

Sur certaines thématiques et pour certaines requêtes, avoir du contenu frais peut toujours aider pour plus de visibilité sur Google.

12. Optimisation interne du site

Voici des points techniques d\’ à prendre en compte pour éviter tout problème de référencement : facilité d\’accès pour l\’exploration et l\’indexation pour les robots, la balise canonique, le duplicate content, l\’architecture du site, la recherche de mots clés, le maillage interne de liens, les images…

Certes, l\’optimisation technique devient de plus en plus complexe, mais rien n\’est nouveau. Il faut tout simplement accepter de revenir aux fondamentaux du et surtout savoir s\’adapter à tout changement d\’algorithme.

Si vous ignorez Google+, c\'est le moteur Google qui va aussi vous ignorer




infographie ci-dessous désignée.

Pourquoi utiliser Google+ ?

  • Pour améliorer le référencement et la visibilité de votre entreprise sur .
  • Plus est le deuxième réseau social au monde avec 540 millions de membres dont 359 millions seraient actifs chaque mois sur leur fil d\’actualité.
  • Parce qu\’il accroît vos signaux sociaux et aide les entreprises à se construire un réseau.
  • Il peut être utilisé comme une plateforme de micro-blogging.

Les bases importantes de Google Plus

  • Les Cercles : Ils vous permettent de regrouper ceux que vous suivez en fonction des centres d\’intérêt ou des thématiques. Ce qui permet parfois de mieux cibler les destinataires de vos contenus.
  • Les #Hashtags : C\’est une forme de métadonnées qui permettent de catégoriser les sujets postés sur Google+.
  • Les contenus : Google+ vous permet de poster du texte, des images, des vidéos et de partager des liens d\’articles.
  • Les Hangouts : Une fonctionnalité unique en son genre pour chatter et faire des visioconférences en direct. Visibles sur .
  • L\’AuthorShip : Permet à tout auteur de lier tous ses contenus publiés partout sur le web à son profil Google+.
  • Les statistiques : Pour les entreprises disposant d\’une page Google+ Pro, il est désormais possible d\’accéder à certaines données analytics de fréquentation issues de leur compte Google Analytics depuis le tableau de bord de leur page Pro.

Les bonnes pratiques sur Google+

  • Optimisez votre profil Google Plus
  • Ajoutez le bouton +1 sur vos pages web.
  • Faîtes vérifier votre page Google+ Pro.
  • Connectez votre page Pro avec votre site web ou (rel=publisher).
  • Publiez régulièrement du contenu de bonne qualité sur Google+.
  • Optimisez chaque phrase d\’introduction de vos posts sur Google+.
  • Rendez vos posts attractifs en y insérant des photos.

Comment mesurer vos performances

  • Augmentation de votre audience : Votre nombre d\’abonnés est une indication de votre succès sur Google+.
  • Trafic depuis Google+ : Le nombre de visiteurs provenant de Google+ vers les articles de votre blog ou site est aussi une bonne indication.
  • Engagement : Comment les autres interagissent avec vos contenus ? Plus ils donnent des +1 à vos articles, les partagent et les commentent, plus vous avez du succès.

Découvrez maintenant ces autres conseils de pros pour bien utiliser Google+.

source : milestoneinternet.com