Google Mejora sus Búsquedas al Entender el Lenguaje Natural con BERT

Compartir:

Fecha: 28- Octubre – 2019

[Sassy_Social_Share]

Google anunció que están mejorando la forma en que el buscador entiende el lenguaje natural mediante la aplicación de modelos BERT, ayudando al motor de búsqueda a comprender el contexto de las palabras y ofrecer un resultado más útil para el usuario.

BERT (Bidirectional Encoder Representations from Transformers Representaciones de Codificador Bidireccional de Transformadores) es una técnica de código abierto de redes neuronales para el pre-entrenamiento del procesamiento del lenguaje natural (PNL), esta técnica permite a Google considerar el contexto completo de una palabra tomando en cuenta las palabras que vienen antes y después de esta al momento en que alguien está realizando una búsqueda.

 

Google está aplicando el modelo BERT a la clasificación de los resultados de búsqueda y en los fragmentos destacados (featured snippets) de búsqueda, logrando comprender mejor 1 de cada 10 búsquedas que se realizan en inglés en los EE. UU., y se espera que Google extienda el modelo BERT a otros idiomas, ya que una de las características de este sistema es que puede tomar los aprendizajes de un idioma y aplicarlos a otro.

 

Con BERT, Google puede comprender mejor los matices y el contexto de las palabras en una búsqueda y ofrecer resultados más relevantes para los usuarios; estos son algunos de los ejemplos que Google proporcionó que muestran la mejora en los resultados al usar BERT. 

 

Al buscar2019 brazil traveler to usa need a visa [2019 brasileño que viaja a EU necesita Visa], la relación de la palabra “to” con las otras palabras en la consulta es importante para comprender el significado de esta, ya que en este caso el usuario está tratando de buscar información sobre si un brasileño que viaja a los Estados Unidos necesita tramitar una Visa y no sobre un ciudadano estadounidense que viaja a Brasil.

En otro ejemplo, cuando se buscó Can you get medicine for someone pharmacy ¿Se pueden recoger medicamentos para alguien en farmacia?” sin usar BERT, Google NO entiende la importancia en la consulta de la frase for someone – para alguien”  mostrando resultados sobre el suministro de recetas en general, en comparación con los resultados donde se aplicó el modelo BERT donde Google comprende que lo que el usuario está preguntando es “si es posible que otra persona además del paciente recoja su receta”.

Como ejemplo final al buscar “Math practice books for adults  – libros de práctica de matemáticas para adultos”, los resultados sin BERT mostraron un libro en la categoría “Adulto joven”, y con BERT, Google comprendió que “adulto” corresponde a el contenido, mostrando un mejor resultado para el usuario.

Entonces, ¿es posible optimizar tu contenido para BERT? En realidad no es posible, como en el caso de RankBrain (el algoritmo de motor de búsqueda basado en aprendizaje, introducido hace unos 5 años, que ayuda a Google a proporcionar resultados relevantes para los usuarios), NO hay forma alguna de optimizar,  lo único que podemos hacer es mejorar el contenido de nuestros sitios y la forma en como está organizando, nunca hay que olvidar que el contenido lo estamos escribiendo teniendo en mente el beneficio de los usuarios y no para algún algoritmo.