Google BERT est déployé pour le classement et les featured snippets

GoogleBERTGoogle Search

Google déploie les modèles BERT

“faiblesse” aussi.

machine learning) appelée (Bidirectional Encoder Representations from Transformers).

BERT aide à déchiffrer vos requêtes de recherche en fonction du contexte de la langue utilisée, plutôt que des mots individuels. Selon Google, .

Découvrez BERT, une nouvelle façon pour de mieux comprendre la langue et améliorer nos résultats de recherche.

Qu\’est-ce que cela signifie pour les SEO et les propriétaires de sites ?

Google utilisant des modèles BERT pour comprendre les requêtes affectera à la fois les classements de recherche et les extraits optimisés (). Toutefois, BERT ne sera pas utilisé pour 100% des recherches.

C’est en fait les requêtes conversationnelles de type longue traîne qui seront impactées par BERT.

10%

Puisqu’il utilise le machine learning, BERT saura apprendre de lui-même et s’améliorera au fil du temps pour être plus performant et pertinent sur tout type de requêtes.

Les utilisateurs de recherche Google aux États-Unis devraient commencer à utiliser des informations plus utiles dans les résultats de recherche, comme le précise Google dans son post d’annonce :

Particulièrement pour les requêtes plus longues et plus conversationnelles, ou les recherches où les prépositions comme “pour” et “à” importent beaucoup au sens, Google Search sera en mesure de comprendre le contexte des mots dans votre requête

Pour les featured snippets, Google utilise déjà un modèle BERT pour améliorer les résultats dans deux douzaines de pays où des extraits optimisés sont disponibles.

Quelques exemples de BERT en action

Voici une recherche pour “2019 brazil traveler to usa need a visa”

Le mot « to » (aux , dans notre exemple

Et Google de reconnaître :

Avec BERT, Search est capable de saisir cette nuance et de savoir que le mot très commun \ »to\ » (à) compte en fait beaucoup ici, et nous pouvons fournir un résultat beaucoup plus pertinent pour cette requête.

Pour lancer ces améliorations, nous avons fait beaucoup de tests pour nous assurer que les changements sont réellement plus utiles et avons démontré la

Avec le modèle BERT, nous pouvons mieux comprendre que « for someone » (

Améliorer la recherche dans plus de langues

Google déclare également appliquer BERT pour améliorer la recherche pour les gens à travers le monde.

une langue où la grande majorité du contenu Web existe

Regard vers l\’avenir

Avec ce changement, Google vise à améliorer la compréhension des requêtes, à fournir des résultats plus pertinents et à habituer les internautes à .

Mais, comme dit plus haut, cela pourrait s’étendre à plus de requêtes, grâce à l’apprentissage automatique.

Découvrez ici l\’impact de Google BERT sur le référencement.

Auteur : Noel NGUESSAN

Je suis Noel Nguessan, fondateur du site Arobasenet.com qui existe depuis 2007 et a aujourd'hui plus de 6.800 articles. Pour ma part, j'ai intégré le monde de l'internet en 1997 en qualité de créateur de site internet, avant de devenir développeur web et multimédia au début de l'année 2000, avant de basculer naturellement vers le SEO en tant que Consultant.