Google incorpora su motor de búsqueda con IA en una experiencia ‘completamente renovada’

La empresa que se convirtió en un verbo está decidida a mantener su lugar como el motor de búsqueda más popular del mundo

PARIS, FRANCE - JUNE 08: In this photo illustration, the Google Chrome search engine home page is displayed on the screen of a computer on June 08, 2023 in Paris, France. Users of the Google Chrome search engine are advised to update the software on their web browser as soon as possible to ensure their security. The American giant has just released a security update to correct a computer flaw representing a high risk for Internet users. This is the third time since the beginning of the year that Google has spotted a "zero day" flaw, that is to say, a computer flaw not directly resolved, a favorite prey of hackers.(Photo illustration by Chesnot/Getty Images)
Por Davey Alba - Julia Love
14 de mayo, 2024 | 05:20 PM

Bloomberg — Durante casi dos años, Google ha estado compitiendo con OpenAI y otros para llevar la inteligencia artificial generativa, que puede responder preguntas complejas de manera conversacional, al público de una manera que la mayoría de los consumidores realmente adopten. El martes, Google lanzó un claro desafío a sus competidores, señalando que no tiene intención de perder su posición de liderazgo como el motor de búsqueda más popular del mundo.

Sundar Pichai, director ejecutivo de Alphabet Inc., está potenciando el motor de búsqueda de Google con inteligencia artificial.

El acto de “Googlear”, que ha sido sinónimo de búsqueda durante las últimas dos décadas, ahora se convertirá en una experiencia mejorada con la tecnología del poderoso modelo de inteligencia artificial de Alphabet Inc. (GOOGL), Gemini, dijo la compañía en su conferencia anual de desarrolladores en Mountain View, California.

“La búsqueda en Google es inteligencia artificial generativa a la escala de la curiosidad humana”, dijo Sundar Pichai, CEO de la compañía, al anunciar las nuevas funciones en la cumbre de I/O de la compañía.

PUBLICIDAD

Ante una audiencia en vivo, Google presentó lo que Pichai llamó una “experiencia de búsqueda completamente renovada” que se lanzará a todos los usuarios de Estados Unidos esta semana, y la nueva búsqueda con tecnología Gemini llegará a otros países “pronto”.

Lea más: Google pagó a Apple US$20.000 millones para ser el motor de búsqueda predeterminado en Safari

"Vemos muchas oportunidades por delante para creadores, desarrolladores, startups, para todos", dijo Pichai en una llamada con periodistas antes del evento.

PUBLICIDAD

El cambio más importante en la búsqueda de Google es que algunas búsquedas ahora vendrán con “resúmenes de IA”, una respuesta más narrativa que evita que las personas tengan que hacer clic en varios enlaces.

Un panel impulsado por inteligencia artificial aparecerá debajo de las consultas de las personas en la conocida barra de búsqueda de Google, mostrando información resumida extraída de los resultados de búsqueda de Google en la web. Google también anunció que lanzará una página organizada por IA que agrupa los resultados por tema o presenta, por ejemplo, un plan día a día para las personas que buscan en Google tareas específicas, como armar un plan de comidas para la semana o encontrar un restaurante para celebrar un aniversario. Google dijo que la IA no generará resúmenes impulsados por IA para ciertas consultas delicadas, como búsquedas de información médica o autolesiones.

Poco después de su fundación en 1998, Google superó a Yahoo! para convertirse en el motor de búsqueda global favorito, resultado de su algoritmo, que era más rápido y preciso que cualquier otro en ese momento. Su dominio ha sido tan inquebrantable que es objeto de una demanda federal por prácticas anticompetitivas (se espera un fallo en el caso más tarde este año.)

Sin embargo, la naturaleza de la búsqueda en línea está cambiando fundamentalmente, y los competidores de Google cada vez se están adentrando más en su territorio. El gigante de las búsquedas ha enfrentado una enorme presión por parte de OpenAI y Anthropic, cuyos chatbots alimentados por IA, ChatGPT y Claude, son fáciles de usar y se han adoptado ampliamente, amenazando la posición de Google en la búsqueda y poniendo en peligro todo su modelo de negocio.

El campus de Google en Bay View en Mountain View, California. Google ha sido sinónimo de búsqueda durante más de dos décadas.

En un anuncio estratégicamente en el tiempo el lunes, OpenAI, respaldada con miles de millones por Microsoft Corp. (MSFT), introdujo un modelo de IA más rápido y económico llamado GPT-4o que impulsará su popular chatbot. El nuevo modelo de IA permitirá a las personas hablar con ChatGPT o mostrarle una imagen, y OpenAI dice que puede responder en cuestión de milisegundos. Mientras Google presentaba sus últimos productos el martes, se enfrentó a un delicado equilibrio: demostrar que no se ha quedado atrás de OpenAI, sin canibalizar el negocio de publicidad de búsqueda, que sigue siendo su fuente de ingresos principal.

"Al mostrar sus últimos modelos y cómo potenciarán los productos existentes con un gran alcance entre los consumidores, Google está demostrando cómo puede diferenciarse eficazmente de sus competidores", dijo Jacob Bourne, analista de Emarketer. "Para mantener su ventaja competitiva y satisfacer a los inversores, Google deberá centrarse en convertir sus innovaciones en IA en productos y servicios rentables y a gran escala".

Si el año pasado Google mostró disposición para experimentar con funciones de IA generativa en sus principales productos y servicios, este es el año en que la compañía se está sumergiendo de lleno, con cambios fundamentales y notorios en su emblemática plataforma.

Lea también: Adición de ChatGPT al buscador Bing no ha impulsado su uso: Google sigue dominando

PUBLICIDAD

El cambio plantea desafíos para la economía del negocio principal de búsqueda de Google, que generó más de US$175.000 millones en publicidad de búsqueda el año pasado. Los inversores han señalado que proporcionar respuestas generadas por IA requerirá más potencia informática que producir una lista de enlaces, lo que podría reducir los márgenes de beneficio de la máquina de búsqueda altamente rentable de Google. En una entrevista con Bloomberg la semana pasada, Liz Reid, vicepresidenta de búsqueda de Google, dijo que la compañía ha avanzado en la reducción del costo de la búsqueda generativa de IA. Dijo que la compañía no tiene planes para que los agregados impulsados por IA estén vinculados a una suscripción, como se ha informado en la prensa.

Al llevar más IA generativa a su motor de búsqueda, Google espera reducir el tiempo y la carga mental que implica para los usuarios encontrar la información que buscan, dijo Reid.

"La búsqueda es una herramienta muy poderosa. Pero hay muchas ocasiones en las que tienes que hacer mucho trabajo duro para buscar", dijo Reid. "¿Cómo podemos quitar ese trabajo duro de la búsqueda para que puedas concentrarte en hacer las cosas?" Reid dijo que la nueva búsqueda de Google impulsada por IA podrá procesar miles de millones de consultas.

Pero Google también debe tener cuidado de no cambiar demasiado el panorama. Es posible que las personas hagan clic en menos anuncios si los resúmenes de IA abordan completamente sus preguntas. El ecosistema de sitios de noticias y otros sitios web que dependen del gigante de las búsquedas para obtener tráfico también pueden ver menos visitantes debido a los cambios de Google. Reid intentó transmitir una sensación de calma a los anunciantes y editores. Los anuncios seguirán apareciendo en espacios dedicados en los resultados de búsqueda de Google, con etiquetas para distinguir los artículos patrocinados de los resultados orgánicos, dijo. Las pruebas de la compañía, además, han demostrado que las búsquedas generadas por IA son un punto de partida hacia otros sitios web para los usuarios, no el final del recorrido, agregó.

PUBLICIDAD

Le puede interesar: Apple está trabajando en su propio chip de IA para centros de datos, según WSJ

Reid se negó a decir qué tan frecuentemente los usuarios verán los resúmenes, pero dijo que la compañía se enfocará en proporcionarlos cuando puedan ofrecer "valor significativo" además de la experiencia de búsqueda tradicional.

PUBLICIDAD

Sin embargo, los editores, en particular, están cautelosos. Raptive, una compañía que ayuda a los creadores digitales a construir marcas, estima que el 25% del tráfico de búsqueda a los sitios web de los editores desaparecerá si Google implementa ampliamente la “experiencia de búsqueda generativa”, o SGE, como el motor de búsqueda generativo de IA que Google presentó el martes. “Al crear una experiencia diseñada para retener más tráfico dentro de Google, menos personas visitarán sitios web individuales y los ingresos de los creadores se verán afectados”, escribió Marc McCollum, director de innovación de Raptive, en un correo electrónico. “Entonces, Google ganará participación y ganancias, mientras que las personas mismas que crearon el contenido que han utilizado para construir SGE se verán perjudicadas”.

Los ejecutivos de Google han enfatizado que la búsqueda seguirá siendo fundamental en la nueva era de la IA. Reid, por ejemplo, describió una nueva función de “búsqueda visual” que llegará pronto a Search Labs de Google, que permitirá a las personas grabar un video de un dispositivo defectuoso, como un tocadiscos, y pedirle a Google un resumen de IA para ayudar a solucionar los problemas.

En una llamada con periodistas el lunes, Demis Hassabis, CEO del laboratorio de IA de Google, DeepMind, fue aún más lejos al mostrar la capacidad de Gemini para responder a consultas. Hassabis presentó Project Astra, un prototipo de asistente de IA que puede procesar video y responder en tiempo real. En una demostración de video pregrabada, un empleado recorrió una oficina mientras el asistente usaba la cámara del teléfono para "ver", respondiendo preguntas sobre lo que aparecía en la escena. El programa respondió correctamente una pregunta sobre qué barrio de Londres se encontraba la oficina, basándose en la vista desde la ventana, y también le dijo al empleado dónde había dejado sus gafas. Hassabis dijo que el video se capturó "en una sola toma, en tiempo real".

PUBLICIDAD

"En un momento dado, estamos procesando un flujo de información sensorial diferente, dándole sentido y tomando decisiones", dijo Hassabis sobre la demostración de Project Astra. "Imagina agentes que puedan ver y escuchar lo que hacemos para comprender mejor el contexto en el que nos encontramos y responder rápidamente en una conversación, haciendo que el ritmo y la calidad de la interacción se sientan mucho más naturales". Pichai luego aclaró que Google está buscando "aspiracionalmente" llevar algunas funciones de Project Astra a los productos principales de la compañía, particularmente a Gemini, hacia la segunda mitad de este año.

Para seguir avanzando en la inteligencia artificial, Google también ha tenido que actualizar su conjunto de modelos de IA, y la compañía compartió más avances en ese aspecto el martes. Anunció Gemini 1.5 Flash, que Google dice que es el modelo de IA más rápido disponible a través de su interfaz de programación de aplicaciones, o API, que normalmente utilizan los programadores para automatizar tareas de alta frecuencia como resumir texto, subtitular imágenes o video, o extraer datos de tablas.

También presentó actualizaciones para Gemini Nano, el modelo de IA más pequeño de Google, que se expande más allá de las entradas de texto para incluir imágenes; presentó una versión más nueva de su familia de modelos abiertos, Gemma 2, con mayor eficiencia; y dijo que la compañía había logrado mejores resultados en su poderoso modelo de IA, Gemini 1.5 Pro.

El martes, Google confirmó que los desarrolladores pueden usar Gemini 1.5 Pro para procesar más texto, video y audio a la vez, hasta 2 millones de "tokens", o piezas de contenido. Eso equivale a aproximadamente 2 horas de video, 22 horas de audio o más de 1,4 millones de palabras. Google dice que esta cantidad de procesamiento supera con creces a otros modelos de IA de competidores, incluido OpenAI.

Google también destacó sus herramientas y servicios de medios generativos, presentando nuevos modelos y actualizando los existentes. Anunció un nuevo modelo de generación de video llamado Veo, que genera videos de alta calidad de más de un minuto, como respuesta a la herramienta de generación de video de moda de OpenAI, Sora. Google permite a los creadores registrarse en una lista de espera para probar el producto y dijo que llevaría algunas de las capacidades de Veo a YouTube Shorts y otros productos de video “en el futuro”.

Google anunció actualizaciones para Imagen 3, la tercera iteración de su modelo de IA de texto a imagen, que incluye mejoras como menos distorsiones de imagen. Y Google continúa experimentando con música generada por IA con un servicio llamado Lyria, así como con una suite de herramientas de IA musical conocida como Music AI Sandbox.

Gran parte de la batalla por la superioridad de la IA depende de tener semiconductores potentes que puedan manejar todos los datos que se están procesando. Con ese fin, Google anunció una nueva versión de su chip diseñado internamente para centros de datos, la sexta versión de su TPU o Unidad de Procesamiento Tensorial. La última versión será un 4,7 veces más rápido que su predecesor, tendrá acceso a más memoria y contará con conexiones más rápidas con otros chips, dijo Google.

En medio de crecientes preocupaciones sobre cómo las compañías deben lidiar con la oleada de contenido generado por IA y las preocupaciones sobre los derechos de autor, Google dijo que implementará un sistema de marca de agua creado por Gemini y el modelo de video Veo. El sistema, llamado SynthID, incrusta etiquetas digitales imperceptibles en imágenes, audio, video e incluso texto generado por IA para que las personas puedan rastrear la procedencia de una pieza de medios en particular. Google planea lanzar la tecnología en forma de código abierto este verano para que los desarrolladores externos puedan usarla.

Google también trató de presentar a Gemini como un poderoso agente que puede ayudar a los usuarios en su vida diaria. Los usuarios que pagan US$20 al mes por el plan de suscripción premium de IA de Google tendrán acceso a una versión de Gemini que puede procesar 1 millón de tokens, o alrededor de 700.000 palabras, a la vez, lo que Google dijo que es el más grande de cualquier modelo ampliamente disponible para el público en general. Esto significa que las personas pueden pedirle al modelo de IA que procese grandes volúmenes de datos por ellos, como resumir 100 correos electrónicos, dijo la compañía. Una nueva característica llamada Gemini Live permitirá a los suscriptores premium de Google hablar de manera natural con el software de IA de la compañía en sus dispositivos móviles, incluso pausando o interrumpiendo Gemini Live a mitad de una respuesta con preguntas.

Google dijo que los archivos de las personas seguirán siendo privados y no se utilizarán para entrenar modelos de IA. Los suscriptores podrán crear versiones personalizadas de Gemini, conocidas como Gems, para cumplir un propósito específico, como entrenarlos para correr.

-- Con la asistencia de Ian King.

Lea más en Bloomberg.com