Cómo funciona el algoritmo de imagen y video de Bing

El título oficial de Meenaz Merchant es Director Principal del Programa Líder, AI e Investigación, Bing.

Él dice simplemente: jefe del equipo multimedia.

Lo primero que aprendí es que el mismo equipo construye los algoritmos para imágenes y videos.

Eso significa que entender cómo abordar cada uno se vuelve un poco más simple: tendrán un enfoque similar y probablemente verán características similares de manera similar.

También ejecutan el algoritmo de búsqueda de cámara (búsqueda de imagen inversa). (Desafortunadamente, no tuvimos tiempo de hablar de eso).

¿Qué activa los cuadros de video e imagen?

Intención.

Obviamente con una intención muy explícita como "imágenes de …" o "videos de …", y una explicidad más ambigua (por así decirlo) como "muéstrame un …"

Pero también está implícito donde el usuario probablemente quiere y espera imágenes o videos en el SERP, por ejemplo, estrellas de cine.

¿Ambos aparecen uno al lado del otro en SERPS regularmente?

El comerciante menciona un 10% de superposición donde tanto el video como las imágenes son relevantes y útiles para satisfacer la intención del usuario.

Entonces, el 10% del tiempo cuando muestran uno, también mostrarán el otro.

De las comprobaciones puntuales de los SERP de marca que he recopilado en Kalicube.pro, me pareció que había un sesgo en los SERP para tender hacia una base de "uno u otro".

El comerciante me dice que esto no es así.

Realmente debería haber verificado mis datos de antemano. El crossover es bastante extenso.

Un buen tercio de las marcas que tienen imágenes en su SERP también tienen videos, y un buen cuarto que tienen videos también tienen imágenes.

Estas son estadísticas de los SERPs de Google, no de Bing, pero ilustran muy bien la duplicación de las menciones del comerciante.

Cómo funciona el algoritmo de imagen y video de Bing
Cómo funciona el algoritmo de imagen y video de Bing

Y esos datos respaldan lo que dijo Frédéric Dubut durante la entrevista que dio inicio a esta serie, y que Merchant reitera.

Algunas consultas tienen una intención implícita muy fuerte de imágenes y videos, personas famosas, especialmente en la esfera del entretenimiento. Dubut menciona a Beyoncé.

Cómo funciona el algoritmo de imagen y video de Bing

La tasa de clics afecta la posición donde aparecen estos elementos ricos

El comerciante es claro: con el tiempo, una mayor tasa de clics en uno de estos elementos lo empujará hacia arriba en la SERP.

Y mirando de nuevo el ejemplo de Beyonce anterior, los videos que se ubican por encima de las imágenes tienen aún más sentido.

En el quinto episodio de esta serie, Nathan Chalmers de todo el equipo de la página también afirma que el comportamiento del usuario en el SERP afecta la ubicación de los elementos ricos.

También señala que agregan datos y utilizan el aprendizaje automático en lugar de aplicar datos de clics por consulta o incluso por intención.

Este es un análisis que realmente necesito hacer sobre los datos SERP de la marca.

No solo qué elementos ricos están presentes para las marcas y las personas, sino también cuáles están en aumento en las clasificaciones, es decir, son más populares entre los buscadores.

¿Qué ayuda a clasificar las imágenes?

La relevancia es el factor más importante.

El comerciante dice: "La relevancia, esta es la imagen correcta para la consulta, supera todo".

Sí quieren diversidad, pero no diluirán la calidad de los resultados para expandirse a diferentes fuentes.

Si una fuente proporciona varias imágenes que se consideran relevantes, todas se clasificarán.

El comerciante utiliza el ejemplo de una consulta para “Ciudad de San Francisco de la isla de Alcatraz” que es muy específica.

Si tienen una imagen que muestra esa vista, esa es la más relevante.

La mejor página web con la mejor imagen SEO que contiene una imagen que se ve casi igual, pero en realidad está tomada desde una vista diferente, una imagen de la ciudad desde el puente Golden Gate, por ejemplo, no es relevante y el algo intentará descifrar eso y filtrar ese resultado.

Evaluar la relevancia depende de comprender lo que hay en la imagen.

Usan las señales "tradicionales":

  • Etiqueta Alt.
  • Etiqueta de título
  • Nombre del archivo.
  • Subtítulo.
  • El contenido alrededor de la imagen.

Pero resulta que la señal central para la relevancia es comprender lo que muestra la imagen mediante el análisis mediante el aprendizaje automático.

Progreso en el aprendizaje automático

Como Fabrice Canel señala en el episodio 2 de esta serie, el progreso que Microsoft (y Google) están haciendo con el aprendizaje profundo es exponencial.

Sus algoritmos están mejorando a una tasa exponencial.

Para las imágenes, en particular, los últimos tres años han sido el "despegue".

La capacidad de Bing para comprender el contenido alrededor de la imagen para comprender el contexto ha mejorado, pero también su capacidad para analizar la imagen en sí misma y comprender el contenido.

Comenzaron con un conjunto de cosas fácilmente identificables para las que tenían un montón de datos (imágenes etiquetadas con precisión).

Caras famosas, monumentos, animales, flores …

Tom Hanks, la torre Eiffel, los perros pastores alemanes y las rosas habrán formado parte del conjunto de entrenamiento hace tres años.

Cómo funciona el algoritmo de imagen y video de Bing

Progresivamente expandieron eso a conjuntos de datos menos etiquetados e incorporaron la identificación de elementos específicos en imágenes … hasta el punto de que ahora pueden ser muy sutil.

El ejemplo que utiliza el comerciante es comprender que una imagen de un horizonte es una ciudad.

Pero más que eso: ¿qué ciudad específica? (es decir, San Francisco)

Y aún más: que la imagen se toma desde un punto de vista específico (es decir, el horizonte de San Francisco desde la isla de Alcatraz).

Cómo funciona el algoritmo de imagen y video de Bing

Eso destaca cuán bueno es este análisis.

Como usuarios, hacemos uso de estas capacidades (y estamos comenzando a darlas por sentado) y, sin embargo, olvidamos como especialistas en marketing cuán inteligentes son estas máquinas.

Y vaya un paso más allá: su confianza de que han entendido correctamente aumenta exponencialmente.

Eso significa depender cada vez menos de todas esas señales tradicionales.

Las etiquetas Alt ya no son el indicador que alguna vez fueron.

Incluso el contenido alrededor de la imagen puede volverse bastante redundante si la máquina está muy segura de haber identificado correctamente lo que muestra la imagen.

Analizan cada imagen

Siempre supuse que pasar imágenes a través de sus algos tenía un costo financiero que significaba que el dinero dictaminaría que no podían analizar cada imagen que recopilan.

No es verdad.

El comerciante afirma que analizan cada imagen e identifican lo que muestra.

Eso significa que las pistas que ven en el nombre del archivo, etiquetas alt, títulos, subtítulos e incluso el contenido alrededor de la imagen son simplemente corroboración de lo que la máquina ha entendido.

Entonces alli esta verdaderamente ya no tiene sentido hacer trampa en esos aspectos.

Bing detectará el truco y lo ignorará.

Pero peor Confiar.

Tomando las etiquetas alt como ejemplo, Merchant afirma que el algoritmo aprenderá qué sitios son confiables y aplicará la confianza histórica a la clasificación.

Y eso parece confirmar las experiencias que he tenido al enviar páginas en mis sitios a Bing y Google.

Tanto las páginas como las imágenes se indexan muy, muy rápido (segundos). Otros sitios que he probado toman minutos, horas o incluso días.

La confianza construida históricamente parece ser un factor importante aquí.

Y Merchant sugiere que construir una reputación a lo largo del tiempo también se aplica a la autoridad. Miran muchas señales para evaluar la autoridad.

El comerciante se centra en contenido de calidad (imágenes en este caso), enlaces entrantes y clics desde el SERP.

Y eso ilustra muy bien cuán importante es E-A-T. Ellos están mirando:

  • Experiencia (contenido de calidad).
  • Autoridad (apoyo de grupo de pares).
  • Confianza (apreciación de la audiencia a través de la interacción en el SERP).

Tiene sentido.

Tanto la autoridad como la confianza se vuelven a evaluar en cada búsqueda.

El algo está constantemente micro-alterando su percepción de qué dominios son más confiables y autorizados.

Mantenerse honesto con el tiempo es crucial para su éxito futuro.

Los cuadros de imagen en el SERP principal son simplemente los mejores resultados de la imagen vertical

El comerciante habla sobre la imagen vertical y señala que pueden generar tantos resultados como los enlaces azules centrales.

Llegar a la parte superior de los resultados de la imagen no solo brinda visibilidad allí, sino también en los SERP centrales.

Para que lo vean en los enlaces azules SERP, simplemente necesita clasificar cerca de la parte superior de las imágenes para una consulta que muestre cuadros de imágenes en el SERP central.

Cómo funciona el algoritmo de imagen y video de Bing

Si la consulta está muy centrada en la imagen, se clasificará la docena superior ya que el cuadro de imagen es más grande.

Cómo funciona el algoritmo de imagen y video de Bing

¿Qué ayuda a los videos a clasificar?

Las señales son similares a las imágenes.

En primer lugar, la relevancia … pero luego también popularidad, autoridad, confianza, atractivo (en ese orden, parece).

¿Qué desencadena una caja de video en un núcleo SERP?

Al igual que con las imágenes, si un cuadro de video se muestra en el SERP central depende de su relevancia para la intención explícita o implícita de la consulta.

El comerciante cita dos ejemplos de intenciones implícitas que activarán el video: noticias y entretenimiento.

¿Hay un sesgo de dominio / plataforma?

La plataforma no importa tanto como producir videos relevantes (¡esa palabra otra vez!) Y de calidad con los que su audiencia se involucra. Alojándolo en YouTube, Twitter, Facebook, Vimeo son todas las opciones.

Pero piense en el tipo de consulta y su vertical.

Diferentes plataformas dominan en diferentes verticales.

YouTube es una gran fuente de instrucciones, pero las noticias tenderían a favorecer a la BBC u otro sitio de noticias.

Cómo funciona el algoritmo de imagen y video de Bing¡El primer resultado que no es de YouTube aquí fue aproximadamente 400º!

Cómo funciona el algoritmo de imagen y video de Bing

En una consulta en un nicho vertical / industria, las principales plataformas como YouTube o la BBC tienen pocas ventajas.

La autoridad en ese nicho puede jugar un papel importante. Entonces, un sitio web pequeño y especializado sería visto por Bing como una fuente perfecta para un video en una consulta de búsqueda muy específica.

Buscarían:

  • Calidad (también conocido como ser preciso y tener estándares de producción decentes).
  • Autoridad dentro de esa industria (también conocida como aprobación del grupo de pares).
  • Confiar el dominio se ha desarrollado a lo largo de los años (a.k.a., proporcionando resultados a Bing o Google que demuestran ser útiles para su audiencia: a.k.a. datos SERP).

Una vez más, todo esto se parece sospechosamente a E-A-T.

La importancia de E-A-T

A medida que avanzo en la redacción de las entrevistas en la Serie Bing, cuanto más se destaca E-A-T, y más estoy convencido de que E-A-T es una buena manera de abordar la creación y presentación de contenido para clasificar.

Mire el video de la entrevista en la que se basa este artículo.

Lea los otros artículos en la serie Bing

  1. Cómo funciona el ranking en Bing – Frédéric Dubut, director principal del programa, jefe, Bing
  2. Descubriendo, arrastrándose, extrayendo e indexando en Bing – Fabrice Canel Gerente principal del programa, Bing
  3. Cómo funcionan las preguntas y respuestas / Algoritmo de fragmento destacado – Ali Alvi, director principal del programa jefe de productos de IA, Bing
  4. Cómo funciona el algoritmo de imagen y video – Meenaz Merchant, Gerente Principal del Programa Líder, AI e Investigación, Bing
  5. Cómo funciona todo el algoritmo de página – Nathan Chalmers, Gerente de programa, Equipo de relevancia de búsqueda, Bing

Imágenes destacadas y publicadas: Véronique Barnard, Kalicube.pro