3 cosas que Google nos dijo sobre BERT que pueden ayudar a su SEO

Cuando Google soltó por primera vez BERT en su motor de búsqueda hace un año, dijeron que afectaría a uno de cada 10 resultados de búsqueda. Eso significa que aproximadamente 120 mil millones de páginas de resultados de motores de búsqueda (SERP) se reorganizaron debido a BERT en los últimos 12 meses.

A pesar del efecto en tantos resultados de búsqueda, Google dijo originalmente que los SEO no necesitaban hacer nada para optimizar para BERT.

En caso de que se lo haya perdido, las representaciones de codificador bidireccional de Transformers (afortunadamente, BERT para abreviar) es una técnica de código abierto para el procesamiento del lenguaje natural que Google lanzó en 2018. Google aplicó BERT a las consultas de búsqueda en 2019. En términos simples, BERT ayuda La Búsqueda de Google comprende mejor la forma en que los humanos se comunican.

Desde su lanzamiento, los mensajes de Google sobre BERT han sido más matizados, revelando tres formas en que afecta el resultado de los resultados de búsqueda. Es por eso que, en esta publicación, le mostraremos cómo BERT está cambiando los resultados para ciertos tipos de consultas y qué puede hacer para obtener o mantener su contenido al día en las SERP.

BERT prefiere la escritura natural a la ubicación de palabras clave

En un Hangout para webmasters de Google en enero de 2020, se le preguntó al analista de tendencias de webmasters de Google, John Mueller, cómo optimizar el contenido para BERT. Su respuesta dejó en claro que BERT puso otro (¿último?) Clavo en el ataúd del relleno de palabras clave.

“Nuestra recomendación es esencialmente escribir de forma natural”, dijo Mueller. “Algo así como un humano normal sería capaz de entender. Entonces, en lugar de rellenar palabras clave tanto como sea posible, escriba con naturalidad “.

¿Cómo reduce BERT la necesidad de colocar palabras clave?

BERT lee el contenido de forma bidireccional, lo que ayuda a Google a comprender mejor la intención de una consulta de búsqueda completa y, al mismo tiempo, se basa menos en palabras clave individuales.

La clave es la “B” en BERT, que significa “bidireccional”. Significa que, con la ayuda de BERT, Google puede leer una consulta tanto de izquierda a derecha como de derecha a izquierda. Es uno de los mayores avances en la forma en que Google entiende las consultas.

Antes de BERT, Google leía las consultas en una dirección u otra. Un ejemplo de Google es la frase “Accedí a la cuenta bancaria”.

Sin la lectura bidireccional de BERT, Google contextualizaría “banco” en función de lo que viene antes de la palabra (“Accedí a”) y “cuenta”. Entonces, Google sabe que “banco” se trata de instituciones financieras y no del lado de un río.

En consultas complejas, la lectura bidireccional produce resultados de búsqueda que coinciden mejor con la intención. y depender menos de la ubicación de las palabras clave.

Aquí hay un ejemplo de consulta de búsqueda de Google para ilustrar cómo funciona.

Fuente

Antes de BERT, Google proporcionó resultados que incluían las palabras clave “esteticistas” y “destacan” de manera destacada, aunque el contenido no coincidía realmente con la intención de la consulta. Con BERT, es una historia diferente. Google devolvió contenido que responde directamente a lo que preguntó el buscador. Más importante aún, tenga en cuenta que el resultado principal no incluye las palabras clave de manera destacada (en el título o en el párrafo inicial). BERT ha ayudado a Google a igualar la intención sobre las palabras clave.

Conclusión: escriba contenido para humanos, no como andamiaje para palabras clave

BERT puede detectar la intención de la consulta sin buscar palabras clave. Para los creadores de contenido, eso significa que ya no es necesario incluir palabras clave de forma incómoda, especialmente las de cola larga, en su copia. En su lugar, concéntrese en escribir contenido que sea fácil de leer y comprender para un ser humano. Si lo hace, BERT ayudará a Google a comprender el significado de su contenido y lo llevará más arriba en las SERP.

A continuación, se ofrecen algunos consejos para escribir con naturalidad, para que BERT comprenda mejor el significado de su contenido:

  • Escriba para su público objetivo: Considere su tono, estilo y nivel de sofisticación, para que su contenido coincida con la forma en que hacen las preguntas.
  • Mantenga su contenido conciso: Dado que la densidad de palabras clave importa menos, puede transmitir el mensaje sin preocuparse de cuántas veces ha agregado palabras específicas.
  • Revisa bien la gramática y la simplicidad: Si su escritura confundiría a un humano, haría tropezar a BERT.

BERT comprende la intención de las palabras clave de cola larga

En otro Hangout para webmasters de Google en mayo de 2020, Mueller confirmó que la mayor fortaleza de BERT es buscar resultados relevantes para palabras clave de cola larga.

“Cuando se trata de las páginas en sí, tratamos de averiguar de qué se tratan realmente esas páginas y cómo se asignan esas páginas a las consultas específicas que tenemos”, dijo Mueller. “En particular, cuando se trata de consultas largas en las que necesitamos comprender cuál es el contexto aquí, qué es algo que las personas realmente buscan dentro de esta consulta”.

¿Cómo entiende BERT la intención de las palabras clave de cola larga?

BERT usa algo llamado “puntajes de atención”, junto con lectura bidireccional, para comprender mejor de qué se tratan las páginas web y cómo se asignan a palabras clave de cola larga.

Así es como funciona. BERT compara cada palabra de una oración con cualquier otra palabra. El resultado de esa comparación es un puntaje de atención.

Un puntaje de atención revela cuánta influencia deben tener todas las demás palabras de la oración en la palabra que se está revisando. Ese contexto ayuda a una máquina a comprender los significados previstos de palabras ambiguas.

Google explica esto con un ejemplo. Digamos que le dio a BERT estas dos oraciones:

“El animal no cruzó la calle porque estaba demasiado cansado” y “El animal no cruzó la calle porque era demasiado ancha”.

Los puntajes de atención le dicen a BERT que en la primera oración, “animal” es más importante en la representación de “eso”. Mientras que en la segunda oración, “calle” es más importante en la representación de “eso”.

Cuando Google probó esta capacidad en una consulta de búsqueda, sucedió algo interesante. BERT comprendió la importancia de las palabras que Google habría ignorado anteriormente.

Fuente

Originalmente, Google ignoraba la palabra “para”. Pero una vez que se implementó BERT, Google entendió que “a” cambió todo el significado de la consulta. BERT ayuda a Google a encontrar coincidencias más relevantes con palabras clave complejas y complejas.

BERT afecta específicamente a las SERP para consultas de búsqueda largas y complejas. Escuchamos eso de Mueller y lo vemos en las pruebas de Google. Por lo tanto, optimizar para BERT significa centrarse en su estrategia de cola larga.

Para mantener o mejorar su clasificación para las palabras clave de cola larga, necesitará contenido que responda de manera muy directa a la intención de esas consultas de nicho. BERT pasará por alto su contenido si es rico en palabras clave pero no específicamente relevante.

Aquí hay algunos consejos para escribir específicamente, por lo que BERT elige mostrar su contenido en SERP:

  • Dale a cada página un enfoque estricto: BERT recompensa las páginas que responden específicamente a preguntas de búsqueda.
  • Mantenga los subtítulos claros y en el camino correcto: Cada uno de sus H2 debe responder directamente a su título y, a su vez, a la palabra clave a la que se ha dirigido.
  • Tenga una idea por párrafo: BERT se utiliza para obtener fragmentos destacados, que requieren un párrafo para responder solo una pregunta.

Hay una ventaja adicional cuando crea contenido para BERT. Dado que las búsquedas por voz son más conversacionales e incluyen palabras clave de cola larga, la optimización para BERT también lo ayudará a optimizar para la voz.

BERT expone contenido inexacto

Google quiere ofrecer resultados que sean fiables y relevantes. El vicepresidente de búsqueda de Google, Pandu Nayak, señaló recientemente que están usando BERT para exponer contenido objetivamente incorrecto.

“También acabamos de lanzar una actualización utilizando nuestros modelos de comprensión del lenguaje BERT para mejorar la correspondencia entre las noticias y las verificaciones de hechos disponibles”, dijo Nayak.

¿Cómo mejora BERT la coincidencia de verificación de datos de los resultados de búsqueda?

BERT utiliza su capacidad para derivar el contexto del lenguaje para ayudar a Google a relacionar mejor los artículos con las fuentes de verificación de datos relevantes.

La verificación de hechos no es nueva para Google. Google lanzó la función de verificación de datos en 2016 y la expandió en 2017.

Para ser claros, Google en realidad no verifica los hechos. En cambio, Google relaciona artículos de verificación de hechos relevantes creados por editores como Snopes y PolitiFact con contenido y consultas.

Fuente

BERT mejora la capacidad de Google para hacer coincidir correctamente las publicaciones de verificación de datos con el contenido. Funciona de la misma manera que BERT hace coincidir la intención de la consulta de búsqueda con el contenido relevante.

Según los comentarios de Nayak, ahora solo están usando BERT para hacer coincidir las noticias con el contenido de verificación de datos. Pero Google tiene el objetivo de ofrecer resultados fiables. Y BERT continúa aplicándose a más funciones de búsqueda como imágenes. Por lo tanto, es una apuesta justa que BERT se utilizará para hacer coincidir todos los resultados de búsqueda con el contenido de verificación de datos disponible en algún momento.

Conclusión: redoble la verificación de hechos en todo el contenido

El número de organizaciones de verificación de datos sigue aumentando, y BERT ahora ayuda a mostrar mejor su contenido. Incluso si los resultados de la verificación de datos no afectan directamente los resultados de la búsqueda, no querrás que tu artículo esté junto a una publicación de verificación de datos que muestre por qué es inexacto.

Aquí hay algunos recursos para ayudarlo a verificar el contenido:

Google BERT no tiene como objetivo penalizar su contenido

Las actualizaciones anteriores de Google han buscado penalizar las técnicas de SEO de “sombrero negro”. Mueller dice que eso no es para lo que está diseñado BERT.

“Por lo tanto, no es necesariamente el caso de que debido a que Google entiende mejor las páginas, de repente decidimos penalizar un conjunto de páginas individuales”, explica. “Porque estamos tratando de comprender mejor estas páginas, no de comprender qué cosas están haciendo mal las personas”.

En cambio, dice que BERT se trata únicamente de ayudar a los buscadores a encontrar mejores respuestas a sus preguntas. Tenga en cuenta al buscador y su contexto previsto, y estará bien encaminado hacia la optimización para BERT.