Où en est le référencement Web sur Microsoft Bing ?

Fabrice Canel, responsable de programme principal chez Microsoft , discute de l’exploration de la recherche, de l’apprentissage automatique et du classement des pages Web.

Où en est le référencement Web sur Microsoft Bing ?Beaucoup de gens sont silencieux quand il s’agit de référencement Web sur Bing parce qu’il n’y a pas beaucoup d’informations à ce sujet.

Ce qui est drôle, c’est que de nombreuses technologies et techniques de pointe ont été utilisées chez avant Google.

Fabrice Canel, responsable de programme principal chez Bing, a récemment partagé de nombreuses informations avec Jason Barnard de Kalicube sur le fonctionnement non seulement de Bing, mais aussi sur le fonctionnement général des moteurs de recherche.

Critères d’indexation du sur Bing

Fabrice est responsable de Bingbot Crawler, de la découverte et de la sélection d’URL, du traitement des documents et des outils Bing pour les webmasters.

C’est donc la bonne personne vers qui se tourner pour obtenir des informations sur les moteurs de recherche, en particulier l’exploration et la sélection de pages.

Fabrice Canel décrit dans un post le processus d’exploration et ce que je pense être le point important à retenir, c’est la façon dont il dit que Bing est pointilleux sur ce qu’il choisit d’indexer :

Beaucoup de gens pensent que chaque page de leur site mérite une chance d’être classée. Mais Google et Bing n’indexent pas tout.

Ils ont tendance à laisser derrière eux certains types de pages.

Ainsi, la première caractéristique d’une page que Microsoft Bing voudrait indexer est une page utile.

Fabrice Canel explique :

Nous sommes évidemment axés sur l’entreprise pour satisfaire le client final, mais nous devons sélectionner et choisir.

Nous ne pouvons pas tout explorer sur Internet, il existe un nombre infini d’URLs. Vous avez des pages avec des calendriers. Vous pouvez aller au jour suivant pour toujours.

Il s’agit donc vraiment de détecter ce qui est le plus utile pour satisfaire un client Microsoft Bing.

Bing et les domaines clés

Fabrice Canel parle ensuite du concept de domaines clés et de la façon dont ils sont guidés par des pages clés sur Internet pour leur montrer le de qualité.

Ce genre d’algorithme ressemble à un algorithme qui incorpore un ensemble de sites de confiance à partir desquels plus un site est éloigné des sites Web clés, plus il est susceptible d’être du spam ou inutile (Link Distance Ranking Algorithms).

Question de Jason :

« Diriez-vous que la plupart des contenus sur le web ne sont pas utiles ou est-ce exagéré ? »

Fabrice Canel a répondu :

Je pense que c’est un peu exagéré. Nous sommes guidés par des pages clés qui sont importantes sur Internet et nous suivons des liens pour comprendre ce qui va suivre.

Et si nous nous concentrons vraiment sur ces domaines clés (pages clés), cela nous guide vers un de qualité.

Donc, la vision que nous avons d’Internet n’est pas d’aller en profondeur pour toujours et d’explorer le inutile. Il s’agit évidemment de garder l’index frais et complet, contenant tout le contenu le plus pertinent sur le Web.

Ce qui fait que Bing crawle plus profondément dans les sites Web

Jason pose ensuite des questions sur les sites Web qui sont explorés en profondeur.

De toute évidence, il est important d’obtenir d’un moteur de recherche d’indexer toutes les pages d’un site.

Question :

« C’est vrai. Et puis je pense que c’est la clé. Vous préférez aller globalement et aller en profondeur.

Donc, si j’ai un site qui est au sommet de la pile, vous aurez tendance à vous concentrer davantage sur moi que sur le fait d’essayer de trouver de nouvelles choses que vous ne connaissez pas déjà ? »

Fabrice a fourni une réponse nuancée, reflétant la nature compliquée de ce qui est choisi pour l’exploration et l’indexation :

Cela dépend. Si vous avez un site spécialisé et qui couvre un sujet intéressant qui intéresse les clients, nous pouvons évidemment aller en profondeur.

Les machines choisissent ce qu’il faut explorer

On entend parfois des gens prononcer des phrases telles que : « Le moteur de recherche n’aime pas mon site ».

Mais en réalité, il n’y a rien dans les algorithmes qui consiste à aimer ou à faire confiance.

Les machines n’aiment pas. Les machines ne font pas confiance. Les moteurs de recherche sont des machines qui sont essentiellement programmées avec des objectifs.

Fabrice Canel explique comment Bing choisit d’explorer en profondeur ou de ne pas explorer en profondeur :

Ce n’est pas moi qui choisis où nous allons en profondeur et non en profondeur. Ce n’est pas non plus mon équipe. C’est la machine.

L’apprentissage automatique qui choisit d’aller en profondeur ou plus profondément en fonction de ce que nous pensons être important pour un client Bing.

Cette partie sur ce qui est important pour le client est quelque chose à prendre en compte. Le moteur de recherche, dans ce cas Bing, est réglé pour identifier les pages qui sont importantes pour les clients.

Lors de la rédaction d’un article ou même de la création d’une page e-commerce, il peut être utile de regarder la page et de vous demander : « Comment puis-je rendre cette page importante pour ceux qui visitent cette page Web ? »

Jason a poursuivi avec une question pour obtenir plus d’informations sur ce qui est impliqué dans la sélection de ce qui est important pour les visiteurs du site.

Jason a demandé :

Vous donnez juste à la machine les objectifs que vous voulez qu’elle atteigne ?

Fabrice Canel a répondu :

Absolument. Oui.

L’entrée principale que nous donnons aux algorithmes de Machine Learning est de satisfaire les clients Bing.

Nous examinons donc différentes dimensions pour satisfaire les clients Bing.

Encore une fois, si vous faîtes une requête sur Facebook. Vous voulez que le lien Facebook occupe la première place. Vous ne voulez pas que des blogs au hasard parlent de Facebook.

L’exploration de la recherche est interrompue et nécessite une mise à jour

Jason demande à Fabrice Canel de Microsoft Bing pourquoi IndexNow est utile.

Fabrice répond en indiquant ce qu’est le crawling aujourd’hui et comment cette méthode de recherche de contenu à indexer, qui a près de trente ans, a besoin d’une mise à jour.

L’ancienne et actuelle façon d’explorer est de visiter le site Web et de « récupérer » les données des sites Web, même si les pages Web sont les mêmes et n’ont pas changé.

Les moteurs de recherche doivent continuer à visiter l’ensemble du Web indexé pour vérifier si de nouvelles pages, phrases ou liens ont été ajoutés.

Fabrice Canel affirme que la façon dont les moteurs de recherche explorent les sites Web doit changer car il existe une meilleure façon de s’y prendre.

Il a expliqué le problème fondamental :

Donc, le modèle de l’exploration est vraiment d’apprendre, d’essayer de comprendre quand les choses changent.

Quand Jason publiera-t-il à nouveau ? Nous pourrons peut-être le modéliser. Nous pourrons peut-être essayer de le comprendre. Mais nous ne le savons vraiment pas.

Donc, ce que nous faisons, c’est que nous récupérons et récupérons, explorons et explorons pour voir si quelque chose a changé.

C’est un modèle de crawling aujourd’hui. Nous pouvons apprendre des liens, mais à la fin de la journée, nous allons à la page d’accueil et le comprenons. Ce modèle doit donc changer.

Fabrice Canel a ensuite expliqué la solution :

Nous devons obtenir l’avis du propriétaire du site Web, Jason, et Jason peut nous dire via une simple API que le contenu du site Web a changé, ce qui nous aide à découvrir ce changement – à être informé d’un changement, à envoyer le robot d’exploration et à obtenir le contenu le plus récent.

C’est un changement global de l’industrie de toujours crawler  pour découvrir si quelque chose a changé …

L’état actuel de la recherche

Google a tendance à les appeler « utilisateurs » les personnes qui utilisent son site.

Bing introduit le concept de personnes qui recherchent en tant que clients et avec cela, tous les petits aphorismes sur les clients qui sont implicites dans une approche axée sur le client, comme le client a toujours raison, donner au client ce qu’il veut.

 

Steve Jobs a déclaré à propos des clients en ce qui concerne l’innovation, ce qui est un peu lié à IndexNow de Bing, mais aussi aux éditeurs :

Vous ne pouvez pas simplement demander aux clients ce qu’ils veulent et ensuite essayer de leur donner cela.

Au moment où vous le ferez construire, ils voudront quelque chose de nouveau.

Le Push est-il l’avenir de la recherche ?

Microsoft Bing a déployé une nouvelle technologie Push appelée IndexNow.

C’est un moyen pour les éditeurs d’avertir les moteurs de recherche de venir explorer des pages Web nouvelles ou mises à jour sur leur site.

Cela permet d’économiser des ressources d’hébergement et de data centers (centre de données) sous forme d’énergie électrique et de bande passante.

Il est également plus facile pour les éditeurs de savoir que le moteur de recherche viendra et obtiendra le contenu plus tôt avec une méthode Push plutôt que plus tard comme dans la méthode d’exploration actuelle.

Source : Searchenginejournal

Auteur : Noel NGUESSAN

Je suis Noel Nguessan, fondateur du site Arobasenet.com qui existe depuis 2007 et a aujourd'hui plus de 6.800 articles. Pour ma part, j'ai intégré le monde de l'internet en 1997 en qualité de créateur de site internet, avant de devenir développeur web et multimédia au début de l'année 2000, avant de basculer naturellement vers le SEO en tant que Consultant.