Google despliega el nuevo modelo de IA Gemini 2.0: estas son sus características

El nuevo modelo, Gemini 2.0, puede generar imágenes y audio en varios idiomas, y puede ayudar durante las búsquedas en Google y en proyectos de codificación

La empresa además estrenó una nueva función web denominada “investigación profunda” quempermitirá a los usuarios de Gemini utilizar la IA para sumergirse en temas con informes detallados.
Por Julia Love - Davey Alba
12 de diciembre, 2024 | 04:11 PM

Bloomberg — Google estrenó una nueva versión de su modelo insignia de inteligencia artificial (IA) que, según dijo, es el doble de rápida que su versión anterior y potenciará a los agentes virtuales que asisten a los usuarios.

El nuevo modelo, Gemini 2.0, puede generar imágenes y audio en varios idiomas, y puede ayudar durante las búsquedas en Google y en proyectos de codificación, dijo la compañía el miércoles. Las nuevas capacidades de Gemini “hacen posible construir agentes que pueden pensar, recordar, planificar e incluso actuar en su nombre”, dijo Tulsee Doshi, director de gestión de productos de la empresa, en una reunión informativa con periodistas.

Vea también: ¿Qué son los chips cuánticos? La carrera de Google e IBM y el impactante valor de mercado

PUBLICIDAD

Google, de Alphabet Inc (GOOGL), ha estado trabajando para asegurarse de que la última oleada de herramientas de IA impulsada por OpenAI y otras startups no afloje su dominio sobre las búsquedas y la publicidad. La empresa ha mantenido hasta ahora su cuota de mercado en búsquedas, pero OpenAI está entretejiendo más funciones de búsqueda en ChatGPT, presionando al líder del sector. El objetivo último de ambas empresas es construir inteligencia general artificial, o software que pueda realizar tareas tan bien o mejor que los humanos.

“Queremos construir esa tecnología: ahí es donde está el valor real”, declaró en una entrevista Koray Kavukcuoglu, director tecnológico del laboratorio de IA Google DeepMind. “Y en el camino hacia eso, lo que estamos tratando de hacer es intentar elegir las aplicaciones adecuadas, intentar elegir los problemas adecuados para resolver”.

Más allá de los productos experimentales, Google incorporó más IA a su motor de búsqueda, que sigue siendo su alma. La empresa dijo que esta semana empezaría a probar Gemini 2.0 en la búsqueda y en los AI Overviews, los resúmenes impulsados por inteligencia artificial que aparecen en la parte superior de la búsqueda de Google. Eso mejorará la velocidad y la calidad de los resultados de búsqueda para preguntas cada vez más complejas, como las ecuaciones matemáticas avanzadas. El miércoles, la empresa también dio acceso a los desarrolladores a una versión experimental de Gemini 2.0 Flash, su modelo de IA rápido y eficaz, que, según Google, puede procesar mejor las imágenes y aproximarse a la capacidad humana de razonamiento.

PUBLICIDAD

Lea además: ChatGPT crece en visitas, pero el reinado de Google sigue vigente

Google estrenó una nueva función web denominada “investigación profunda”, que, según afirma, permitirá a los usuarios de Gemini utilizar la IA para sumergirse en temas con informes detallados. La función, anunciada como un asistente de investigación potenciado por la IA, está disponible desde el miércoles para los usuarios de Gemini Advanced, el producto de suscripción a la IA de pago de Google. Mientras tanto, los usuarios de Gemini de todo el mundo podrán acceder a una versión optimizada para chat del Flash Gemini 2.0 experimental en la web, según informó la empresa. El modelo llegará a más productos de Google en el nuevo año.

Los productos presentados el miércoles muestran cómo el principal laboratorio de IA de Google, Google DeepMind, está desempeñando un papel más fundamental en el desarrollo de productos. El laboratorio está ampliando las pruebas del Proyecto Astra, un agente de IA que utiliza la cámara de un smartphone para procesar entradas visuales. En un elaborado espacio que evocaba una biblioteca doméstica, con altísimas estanterías que contenían títulos sobre programación informática y viajes, los empleados de Google mostraron cómo Astra puede resumir la información de la página. Una puerta oculta entre las estanterías reveló una pequeña galería de arte, donde el agente reflexionó sobre cómo “El grito” del pintor noruego Edvard Munch captaba su propia ansiedad y la paranoia general de su época.

Pero el agente seguía mostrando algunas limitaciones. En una demostración en directo con un periodista de Bloomberg, fue incapaz de decir si había alguna novela en la estantería.

Vea también: Google presenta una nueva computadora cuántica: su velocidad es impresionante

El investigador de DeepMind Greg Wayne dijo que el agente había mejorado desde que se presentó por primera vez en la histórica conferencia de desarrolladores de Google a principios de este año y que ahora puede responder conversacionalmente a la misma velocidad a la que lo haría un humano. En una ocasión, el agente tuvo problemas con el nombre del CEO de DeepMind, Demis Hassabis, interpretándolo como una petición de información sobre la capital siria de Damasco, pero ahora maneja esa petición y otras con facilidad, dijo Wayne en una entrevista.

"El lema fundacional ha sido desarrollar una IA con ojos, oídos y voz, que le ayude en el mundo real o en el digital", dijo Wayne.

La empresa también está probando Mariner, un asistente web experimental diseñado para ayudar a los usuarios a llenar sus carritos de la compra en línea y organizar sus vidas digitales. En una demostración con un periodista de Bloomberg, la Directora de Gestión de Productos de Google, Jaclyn Konzelmann, utilizó Mariner, que es una extensión en el navegador Chrome, para añadir artículos de una receta a su cesta de la compra en el supermercado Safeway. Por ahora, Mariner no ofrece ningún ahorro de tiempo, ya que los usuarios observan cómo el asistente completa las tareas. La empresa quiere mantener a los usuarios al tanto de las decisiones clave, como hacer una compra, dijo Helen King, directora senior de responsabilidad de Google DeepMind, en una entrevista.

PUBLICIDAD

Lea además: Trump dice que se reunirá con Jeff Bezos, de Amazon, la próxima semana

“Mucha gente dice: ‘Sí, pero solo es un carrito de la compra’”, explicó. “Pero cuando 100 rollos de papel higiénico aparezcan en su puerta porque el agente se las arregló para omitir un cero en alguna parte, usted estará menos en plan: ‘Es solo un carrito de la compra’”.

Nuevos experimentos

En una reunión informativa con periodistas, la empresa hizo una demostración de otros dos agentes de IA con los que dijo estar experimentando internamente y con grupos de probadores de confianza. El primero, llamado Jules, es un agente de código impulsado por IA para ingenieros que se centra en la corrección de errores en el código de software y en la gestión de tareas rutinarias de programación.

Google también mostró un agente de IA aún sin nombre para videojuegos, que pretende ayudar a los jugadores razonando sobre el juego basándose en la pantalla y ofreciendo sugerencias en una conversación en tiempo real. La empresa calificó esta iniciativa de “fase experimental temprana” destinada a demostrar algunas de las experiencias de los agentes de IA posibles con Gemini 2.0.

PUBLICIDAD

Lea también: Apple adoptará pronto su propio chip Bluetooth y Wi-Fi para iPhone y dispositivos domésticos

Los inversores han expresado su preocupación por la posibilidad de que Google y sus rivales vean disminuir el rendimiento de sus costosas inversiones en IA. Pero Kavukcuoglu, el líder de DeepMind, trató de disipar cualquier noción de una ralentización del progreso.

PUBLICIDAD

"Comparo dónde estábamos hace un año con dónde estamos ahora", dijo Kavukcuoglu, añadiendo que el modelo flash que la empresa está lanzando es "mucho más capaz que todo lo que teníamos hace un año a una fracción del coste".

Lea más en Bloomberg.com