BERT (Bidirectional Encoder Representations from Transformers) aide Google à comprendre le contexte, et notamment la façon dont les mots sont liés entre eux au sein d'une phrase.

Elle se concentre sur les nuances linguistiques, et non sur les signaux de popularité.

Pourquoi BERT est important

Les systèmes traditionnels avaient du mal à :

  • Prépositions
  • Structure de la phrase
  • Des différences subtiles de sens

Exemple:

« Peut-on se procurer des médicaments pour quelqu'un en pharmacie ? » vs

« Peut-on acheter des médicaments en pharmacie pour quelqu'un d'autre ? »

Avant BERT, Google interprétait souvent mal ces distinctions.

Comment BERT améliore la compréhension de la recherche

BERT :

  • Interprète les requêtes de manière bidirectionnelle (contexte gauche et droit)
  • Comprend comment chaque mot modifie le sens
  • Améliore la pertinence des requêtes complexes ou conversationnelles

Google a confirmé que BERT a un impact sur plus de 10 % des recherches, en particulier les requêtes de longue traîne et les requêtes vocales.

Implications SEO de BERT

BERT ne récompense pas les astuces.

Il favorise :

  • Rédaction en langage naturel
  • Des explications claires
  • Réponses bien structurées

Si le contenu est bien lisible par les humains, BERT peut l'interpréter correctement.