BERT (Representaciones de codificador bidireccional de transformadores) ayuda a Google a comprender el contexto, especialmente cómo se relacionan las palabras entre sí dentro de una oración.

Se centra en los matices del lenguaje, no en las señales de popularidad.

Por qué es importante BERT

Los sistemas tradicionales tenían problemas con:

  • Preposiciones
  • Estructura de la oración
  • Diferencias sutiles en el significado

Ejemplo:

“¿Puedes conseguir medicamentos para alguien en una farmacia?” vs.

“¿Puedes conseguir medicamentos en una farmacia para otra persona?”

Antes de BERT, Google a menudo malinterpretaba estas distinciones.

Cómo BERT mejora la comprensión de las búsquedas

BERT:

  • Lee consultas de forma bidireccional (contexto izquierdo y derecho)
  • Entiende cómo cada palabra modifica el significado.
  • Mejora la relevancia para consultas complejas o conversacionales.

Google confirmó que BERT afecta a más del 10% de las búsquedas, especialmente las consultas de cola larga y de voz.

Implicaciones SEO de BERT

BERT no recompensa los trucos.

Favorece:

  • Escritura en lenguaje natural
  • Explicaciones claras
  • Respuestas bien estructuradas

Si el contenido es bien leído por los humanos, BERT puede interpretarlo correctamente.