OpenAI lanza un modelo de IA más rápido y barato ¿Qué trae de nuevo GPT-4o?

El nuevo modelo lingüístico manejará mejor el texto, el audio y el vídeo en tiempo real

Según la empresa, si se hace una pregunta verbal, el sistema puede responder con un audio en milisegundos.
Por Rachel Metz - Shirin Ghaffary
13 de mayo, 2024 | 05:10 PM

OpenAI lanza una versión más rápida y económica del modelo de inteligencia artificial en el que se basa su chatbot ChatGPT, en un intento de mantener su liderazgo en un mercado cada vez más saturado.

Durante un evento retransmitido en directo este lunes, OpenAI presentó GPT-4o. Se trata de una versión actualizada de su modelo GPT-4, que ya tiene más de un año. El nuevo gran modelo lingüístico, entrenado a partir de grandes cantidades de datos de Internet, manejará mejor el texto, el audio y el vídeo en tiempo real. Las actualizaciones estarán disponibles en las próximas semanas.

Según la empresa, si se hace una pregunta verbal, el sistema puede responder con una respuesta de audio en milisegundos, lo que permite una conversación más fluida. Del mismo modo, si se le pide una imagen, el sistema puede responder con una imagen.

“Es la primera vez que damos un gran salto en la interacción y la facilidad de uso”, explica a Bloomberg News Mira Murati, directora de Tecnología de OpenAI. “Realmente estamos haciendo posible la colaboración con herramientas como ChatGPT”.

PUBLICIDAD

¿Las actualizaciones están diponibles para usuarios gratuitos?

La actualización pondrá a disposición de los usuarios gratuitos una serie de funciones que hasta ahora estaban limitadas a quienes tenían una suscripción de pago a ChatGPT, como la posibilidad de buscar respuestas a consultas en Internet, hablar con el chatbot y escuchar la respuesta en varias voces, y ordenarle que almacene detalles que el chatbot pueda recordar en el futuro.

El lanzamiento de GPT-4o está a punto de sacudir el panorama de la IA, en rápida evolución, donde GPT4 sigue siendo el estándar de oro. Un número cada vez mayor de nuevas empresas y grandes compañías tecnológicas, como Anthropic, Cohere y Google, de Alphabet Inc., han lanzado recientemente modelos de IA que, según afirman, igualan o superan el rendimiento de GPT-4 en determinadas pruebas de referencia.

Lea más: Apple cierra un acuerdo con OpenAI para poner ChatGPT en iPhone

PUBLICIDAD

El anuncio de OpenAI también se produce un día antes de la conferencia de desarrolladores Google I/O. Se espera que Google, uno de los primeros líderes en el ámbito de la inteligencia artificial, aproveche el evento para desvelar más actualizaciones de IA después de competir para seguir el ritmo de OpenAI, respaldada por Microsoft Corp (MSFT).

¿Cómo logra ChatGPT ser más rápido?

En lugar de basarse en distintos modelos de IA para procesar diferentes entradas, GPT-4o -la “o” significa omni- combina voz, texto y visión en un único modelo, lo que le permite ser más rápido que su predecesor. Según la empresa, el nuevo modelo es dos veces más rápido y mucho más eficaz.

“Cuando hay tres modelos distintos que funcionan juntos, se introduce mucha latencia en la experiencia y se rompe la inmersión en ella”, explica Murati. “Pero cuando tienes un modelo que razona de forma nativa a través de audio, texto y visión, entonces eliminas toda la latencia y puedes interactuar con ChatGPT más como estamos interactuando ahora”.

Pero el nuevo modelo tuvo algunos problemas. Durante la demostración, el audio se cortaba con frecuencia cuando hablaban los investigadores. El sistema de IA también sorprendió al público cuando, después de guiar a un investigador en el proceso de resolución de un problema de álgebra, intervino con una voz que sonaba coqueta: “Vaya, vaya traje que llevas”.

Vea también: Los grandes usuarios de inteligencia artificial temen convertirse en rehenes de ChatGPT

OpenAI está empezando a desplegar hoy las nuevas funciones de texto e imagen de GPT-4o a algunos usuarios de pago de ChatGPT Plus y Team, y pronto las ofrecerá a los usuarios empresariales. La empresa pondrá la nueva versión de su asistente “modo voz” a disposición de los usuarios de ChatGPT Plus en las próximas semanas.

Como parte de sus actualizaciones, OpenAI también permite a cualquiera acceder a su GPT Store, que incluye chatbots personalizados creados por los usuarios. Anteriormente, solo estaba disponible para clientes de pago.

PUBLICIDAD

En las últimas semanas, las especulaciones sobre el próximo lanzamiento de OpenAI se han convertido en un juego de salón en Silicon Valley. Un nuevo y misterioso chatbot causó revuelo entre los observadores de la IA después de que apareciera en un sitio web de pruebas comparativas y pareciera rivalizar con el rendimiento de GPT-4. El CEO de OpenAI, Sam Altman, hizo guiños al chatbot en X, alimentando los rumores de que su empresa estaba detrás de él.

La empresa está trabajando en una amplia gama de productos, como tecnología de voz y software de vídeo. OpenAI también está desarrollando una función de búsqueda para ChatGPT, según informó Bloomberg anteriormente.

Lea además: Microsoft abrirá una tienda de juegos móviles: competirá con Apple y Google

El viernes, la empresa acalló parte de la febril especulación diciendo que no lanzaría de forma inminente GPT-5, una versión muy esperada de su modelo que algunos en el mundo de la tecnología esperan que sea radicalmente más capaz que los actuales sistemas de IA. También dijo que no presentaría un nuevo producto de búsqueda, una herramienta que podría competir con Google. Las acciones de Google (GOOGL) subieron tras conocerse la noticia.

PUBLICIDAD

Sin embargo, tras el evento, Altman se apresuró a mantener la especulación. “Pronto tendremos más información”, escribió en X.

Lea más en Bloomberg.com