img

Mise à jour de l’algorithme Google : BERT

26/12/2019

par Véronique Duong,
Fondatrice de Rankwell

Qu’est ce que Google BERT ?

BERT est un modèle de langage développé par Google dont les initiales signifient “Bidirectional Encoder Representations from Transformers”. 

Il a été diffusé pour la première fois en open source à la communauté scientifique en 2018. Par ailleurs, ce modèle va permettre une amélioration des algorithmes de traitement automatique des langues (TALN), et cela aura donc un impact direct vis à vis de la sémantique et les contenus textuels des sites web. C’est la mise à jour la plus importante depuis 5 ans.

 

A quoi sert BERT et comment fonctionne-t-il ?

BERT vise l’objectif d’améliorer les recherches formulées de manière naturelle par l’utilisateur. 

Même si l’algorithme de Google ne cesse de s’améliorer au fil des ans, il arrive que les requêtes ne renvoient pas au bon résultat. L’internaute, lui, même n’est pas toujours sûr de sa recherche et va utiliser Google dans l’optique d’apprendre quelque chose sur le sujet. 

Le but est de lui fournir des résultats plus précis car la manière de recherche des utilisateurs a beaucoup évolué au cours des dernières années. 

BERT est une mise à jour algorithmique de Google qui permet de mieux comprendre les requêtes de l’utilisateur qu’il recherche sous la forme de questions comme par exemple à travers une recherche vocale, ainsi que des combinaisons de longue traîne, c’est-à-dire plus de 3 ou 4 mots.
Ce phénomène est possible grâce à une analyse des résultats de recherche affinée qui répond pertinemment à tous les mots combinés ensemble formant la requête de l’utilisateur, et non pas seulement les mots-clés principaux. De ce fait BERT offre à l’utilisateur des résultats plus cohérents, pertinents et précis en réponse à sa requête.

 

L’amélioration du moteur Google grâce à BERT

En utilisant BERT, Google comprend mieux le contenu des pages qu’il indexe sur la toile et partage des résultats bien plus cohérents pour l’utilisateur.

En plus de s’adapter encore mieux qu’auparavant aux requêtes de l’utilisateur par le biais des recherches vocales, BERT permet également à Google de prédire la question/phrase suivante de l’utilisateur en fonction de la précédente, de répondre à des questions directement dans les SERP, de résoudre des problèmes d’homonymie et de polysémie afin de ne pas modifier le sens contextuel des mots de la recherche de l’utilisateur mais aussi de générer des featured snippets de façon automatique.

 

BERT et le SEO français

Si vous vous demandiez si BERT était utilisé en France, la réponse est oui ! 

Le modèle de langage est maintenant déployé dans à peu près 70 langues, dont le français depuis le 9 décembre 2019 dernier.

A noter que Bert privilégie les contenus de qualité au détriment des contenus légers ou superflus.

Il est donc impératif de proposer des textes informatifs (via des landing pages spécifiques par exemple) avec des réponses pertinentes afin de répondre aux requêtes des internautes, et espérer que ces dernières soient également sélectionnées en tant que définitions pour les featured snippets pour Google Home.

Autres articles

Contactez-nous pour un Pré-Audit

Je fais la demande