Búsqueda, mapas y traductor: así son las nuevas funcionalidades de Google

Mientras guarda en secreto su bot conversacional Bard, Google presenta la multibúsqueda con IA, la realidad aumentada en mapas y machine learning para convertir imágenes en palabras

Por

Barcelona, España — Mientras prepara el lanzamiento al público de Bard, su rival para disputarle a ChatGPT la carrera de Inteligencia Artificial (IA) conversacional, Google (GOOGL) anuncia hoy nuevas funcionalidades en tres de sus pilares de negocios principales: el motor de búsqueda, mapas y el traductor. El gigante tech presenta las novedades desde Paris en un evento transmitido en directo a nivel global.

Los anuncios llegan en un momento crucial para compañía de Alphabet. El lanzamiento de ChatGPT, que recibió recientemente de Microsoft (MSFT) una poderosa inversión de US$ 10.000 millones, ha puesto a OpenAI a la cabeza de los bots conversacionales e impulsado a otras empresas a anunciar sus propios sistemas.

La encrucijada de Google está en la preocupación de perder dinero de publicidad mientras se enfrenta a la amenaza de nuevos competidores y tecnologías disruptivas. Todos quieren saber cómo será la reinvención del grupo, sobre todo en lo que concierne a las búsquedas, la “gallina de los huevos de oro” de sus ingresos. Sería muy costoso para Google “canibalizar” una tecnología que le otorgó el liderazgo absoluto en el mercado de búsquedas - casi 84% de participación, contra menos de 9% de Bing/Microsoft, según datos de diciembre de 2022 recopilados por Statista.

De momento, en el evento de hoy, Google se ciñe en algunas funcionalidades de sus servicios de búsqueda, mapas y de traducción. Estos son los cambios más destacados:

1. Multibúsqueda: la IA potencia el mecanismo con la ayuda de Google Lens

Google hizo hincapié en que hace tiempo lleva apostando en la IA para refinar los resultados de su mecanismo de búsqueda y convertirlo en un proceso “natural e intuitivo”. En esta línea, anunció que va a reforzar su herramienta Lens, utilizada actualmente más de 10.000 millones de veces al mes. Divulgada inicialmente en 2017, Lens es una aplicación que reconoce objetos utilizando la cámara del móvil y que hace uso del Machine Learning (ML) para analizarlos.

Hoy por hoy se puede utilizar Lens para buscar, desde la cámara o de la galería de fotos, directamente en la barra de búsqueda. La actualización de ahora se extiende a la pantalla del móvil: el usuario podrá buscar buscar en fotos o vídeos que también estén los sitios web y en aplicaciones, incluso de mensajería instantánea, sin tener que dirigirse al buscador. La funcionalidad estará disponible en los próximos meses para Android, sistema operacional de Google.

“Digamos que tu amigo te envía un mensaje con un vídeo suyo explorando París. Si quieres saber más sobre el punto de referencia que ves en segundo plano, solo tienes que pulsar prolongadamente el botón de encendido o de inicio de tu teléfono Android, que activa el Asistente de Google, y a continuación pulsar “buscar pantalla”. Lens lo identifica como Palais du Luxembourg y puedes hacer clic para obtener más información”, explica Elizabeth Reid, vice-presidenta de SearchGoogle, en un comunicado.

2. Maps: Mejora experiencia con visión inmersiva y realidad aumentada

Las actualizaciones anunciadas hoy contemplan experiencias inmersivas gracias a la fusión de millones de imágenes aéreas y de Street View y también a actualizaciones del Live View, mecanismo de realidad aumentada. El grupo también saca a la luz nuevas funciones para conductores de vehículos eléctricos (VE).

Informaciones sobre el tiempo, el tráfico y el grado de ocupación de un lugar serán depuradas con el uso de la IA. “Digamos que estás planeando una visita al Rijksmuseum de Ámsterdam. Puedes sobrevolar virtualmente el edificio y ver dónde están, por ejemplo, las entradas. También puedes ver el aspecto de la zona a diferentes horas del día, cuándo suele haber más gente, qué tiempo hará. Si tienes hambre, vas hasta el nivel de la calle para explorar los restaurantes cercanos e incluso echar un vistazo al interior para decidir si reserva una mesa o no”, comenta el Vicepresidente y Director General de Geo, Chris Phillips.

El Immersive View empieza a funcionar hoy en Londres, Los Ángeles, Nueva York, San Francisco y Tokio. En los próximos meses se lanzará en más ciudades, como Ámsterdam, Dublín, Florencia y Venecia.

Por otra parte, la búsqueda con el Live View se apoyará en la IA y la realidad aumentada para encontrar cosas en el entorno del usuario, como cajeros electrónicos, restaurantes y parques, con el simple gesto de levantar el móvil en la calle. La herramienta permite saber cosas, por ejemplo, como cuándo está abierto un lugar, si hay mucha gente en ese momento y qué valoración tiene.

El servicio Search with Live View ya está operativo en Londres, Los Ángeles, Nueva York, París, San Francisco y Tokio. En los próximos meses se incorporan las ciudades de Barcelona, Dublín y Madrid.

Los conductores de vehículos eléctricos encontrarán nuevas funciones de Maps para los coches que llevan Google incorporado, como estaciones de recargas en los resultados de búsqueda y sugerencias de paradas de carga en función de factores como el tráfico actual, nivel de carga y el consumo de energía previsto.

3. Translate: Nuevos idiomas y expansión de las traducciones de imágenes

Google refuerza la posibilidad de, traducir imágenes en palabras, funcionalidad que estará disponible en teléfonos Android con más de 6 GB de RAM. “También hemos ampliado recientemente las opciones de traducción de contenido web basado en imágenes, independientemente de cómo se busque”, de acuerdo con la empresa.

Entre las nuevas funciones basadas en IA para el Google Translate, prometidas ya para este mes, están más opciones de traducción contextual, con descripciones y ejemplos variados en el idioma traducido para evitar errores como con los del tipo “falsos amigos”. “Este año, seguiremos experimentando con experiencias basadas en IA en Translate para traducciones más rápidas, precisas y dinámicas”, dice el comunicado.