Google: cómo funciona BERT, la mayor actualización del algoritmo del motor de búsqueda más usado en el mundo

Google Derechos de autor de la imagen Getty Images
Image caption Cerca de 3.000 millones de búsquedas se hacen diariamente alrededor del mundo.

"La curiosidad de las personas es infinita".

Si algo ha caracterizado al gigantesco y popularísimo Google ha sido el algoritmo en el que se basan las casi 3.000 millones de búsquedas que se hacen en su página todos los días.

Sin embargo, en los últimos meses -y de acuerdo al reporte de la propia empresa- ese algoritmo necesitaba ser optimizado para estar a la par con los objetivos del gigante de las búsquedas.

Por eso, de acuerdo a un comunicado publicado este mes por el propio vicepresidente de la compañía, Pandu Nayak, lanzaron el Bidirectional Encoder Representations from Transformers (BERT), que es la mayor actualización del buscador en años recientes.

Según Nayak, el 15% de los miles de millones de búsquedas que procesa Google cada día son sobre temas o asuntos que no habían visto antes.

"Así que estamos construyendo una mecanismo para responder a consultas que no podemos anticipar", explicó.

Como señala el propio Nayak, BERT funciona como un sistema que ha sido diseñado para entender mejor el lenguaje en el que hablamos todos los días.

"En su esencia, Google Search se basa en entender el lenguaje. Nuestro trabajo es descifrar qué es lo que quieres buscar en la red, sin importar cómo lo escribas o cómo combines la palabras en el teclado", anotó.

Derechos de autor de la imagen Getty Images
Image caption BERT funciona como una red neuronal que puede ser entrenada para procesar el lenguaje natural.

"Aunque continuamos mejorando la forma en que entendemos el lenguaje, lo cierto es que algunas veces no lo logramos", agregó.

Sistema neuronal

De acuerdo a Google, BERT es una red neuronal de código abierto que ha sido entrenada para procesar el lenguaje natural.

"Esta tecnología permite entrenar a su propio sistema para mejorar y aumentar la capacidad de responder a las preguntas en Google", explicó Nayak.

En síntesis, lo que hace distinto a BERT de lo que actualmente ofrece Google es que procesa las palabras en el contexto de una oración, en lugar de palabra por palabra.

"BERT puede considerar el contexto completo de una palabra al observar las que vienen antes y después, y esto es útil para comprender la intención que tienen las consultas que se hacen en el buscador", aclaró Nayak.

Derechos de autor de la imagen Getty Images
Image caption Google ha basado el éxito de su compañía en los algoritmos de búsqueda.

Pero un ejemplo vale más que mil palabras.

En la búsqueda "2019 turista brasileño a EE.UU. necesita visa", la preposición "a" es fundamental. Pero antes de BERT, era totalmente ignorada por el buscador, por lo que los resultados terminaban "entendiendo" que podía tratarse de alguien de EE.UU. que necesitaba a visa para Brasil.

Por eso los resultados de la búsqueda eran por lo general artículos de prensa que hacían reseñas de viaje de estadounidenses a Brasil.

"Con BERT, el buscador es capaz de entender el contexto que le aporta la preposición 'a' y de esa manera puede ofrecer unos resultados más óptimos, como por ejemplo la página del Departamento de Estado donde se da esa información", aclaró Nayak.

¿Si es más efectivo?

Por ahora BERT solo estará en uso en búsquedas en inglés, pero se anunció que pronto estará disponible para idiomas como coreano, hindi y portugués.

Sin embargo, varios analistas en tecnología han señalado que, a pesar de los avances que trae BERT, no se soluciona el problema de fondo a la hora de entender el lenguaje.

"Las preposiciones y los pronombres han sido muy problemáticos históricamente para los buscadores, pero BERT ayuda bastante con esto. El contexto mejora debido a la naturaleza bidireccional del nuevo algoritmo", explicó el experto en algoritmos Dawn Anderson a la revista Search Engine Journal.

Derechos de autor de la imagen Getty Images
Image caption BERT ha sido considerado un verdadero avance en temas de inteligencia artificial.

"Pero todavía queda mucho trabajo por delante. Por ejemplo, la palabra 'bajo' significa muchas cosas (puede ser un adjetivo o un instrumento musical). Hay muchos significados para una sola palabra. Por eso es vital que se entienda el contexto para poder entender el significado preciso del término", agregó.

Hasta ahora, de acuerdo a medios como The Verge y Wired, las búsquedas en Google después de BERT han mejorado hasta en un 10%, según los resultados presentados por los usuarios.

"Todos los que hacen dinero en el tráfico web deben tomar nota de este avance", señaló Dieter Bohn de la revista The Verge.

Y reseñó una frase del propio Payak: "Este es el cambio más grande, más positivo que hemos tenido en los últimos cinco años y quizás uno de los más grandes desde el principio".

Ahora puedes recibir notificaciones de BBC News Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.

Contenido relacionado