Bloomberg — OpenAI está dotando al chatbot ChatGPT de la capacidad de procesar y hablar con los usuarios sobre lo que observa en las secuencias de video en tiempo real, siete meses después de que se burlara por primera vez de esta función.
Con la nueva opción, desvelada en un evento retransmitido en directo, ChatGPT puede reconocer objetos a través de la cámara de un smartphone y reaccionar a lo que aparece en pantalla hablando. Por ejemplo, un usuario podría pedir ayuda para responder a un mensaje en una aplicación abierta u obtener instrucciones en tiempo real para preparar café.
Lea más: La startup de IA por voz de un exinvestigador de OpenAI se valora en US$200 millones.
La opción de video empezará a desplegarse tan pronto como ya para los suscriptores de pago de ChatGPT Plus y Pro. Los clientes empresariales y educativos de OpenAI obtendrán la función en enero, según informó la empresa.
OpenAI inició una oleada de inversiones en chatbots basados en texto con el lanzamiento de ChatGPT hace dos años. Desde entonces, OpenAI y sus rivales se han lanzado a las llamadas funciones multimodales que responden a audio, imágenes y video. En el proceso, estos servicios son capaces de proporcionar un asistente digital más dinámico y atractivo.
El anuncio se produjo durante lo que OpenAI ha dicho que serán 12 días de eventos de producto retransmitidos en directo. OpenAI ha aprovechado la serie de lanzamientos para presentar una nueva opción de suscripción ChatGPT Pro, más cara, y empezar a desplegar una herramienta de generación de videos de IA llamada Sora.
Lea más en Bloomberg.com