OpenAI le da a ChatGPT la capacidad de recordar hechos de tus chats

Un lanzamiento limitado permitirá que el chatbot recuerde algunos detalles sobre los usuarios indefinidamente

La pantalla de chat ChatGPT en un smartphone arreglado en el barrio de Brooklyn de Nueva York, EE.UU., el jueves 9 de marzo de 2023.
Por Rachel Metz
13 de febrero, 2024 | 04:55 PM

Bloomberg — La próxima vez que le digas a ChatGPT que eres alérgico a los aguacates o que prefieres que todas las notas de las reuniones estén en formato de viñetas, el chatbot podría recordar esos detalles indefinidamente.

VER +
OpenAI lanza una nueva tienda para que usuarios compartan chatbots personalizados

OpenAI está probando una opción para que los usuarios puedan pedirle al popular chatbot que retenga información específica de un intercambio a otro, dijo la startup de inteligencia artificial en una publicación de blog el martes. ChatGPT también podrá determinar automáticamente qué datos de las conversaciones de los usuarios deben recordarse.

OpenAI inicialmente pondrá estas características a disposición de cientos de miles de usuarios gratuitos y de pago de ChatGPT, con planes de revisar los comentarios antes de implementarlas más ampliamente, dijo la compañía a Bloomberg News. La nueva función de memoria marca el último intento de OpenAI de hacer su producto más conocido más útil y personalizado para sus 100 millones de usuarios semanales, ya que la startup enfrenta una creciente lista de competidores que ofrecen chatbots comparables. Si bien la creación de un historial más detallado para cada usuario podría plantear nuevas preocupaciones de privacidad, también es una forma efectiva para que las empresas de internet adapten la experiencia de cada persona y retengan clientes. OpenAI anteriormente le dio a las personas la capacidad de proporcionar instrucciones personalizadas a ChatGPT para evitar que los usuarios repitan sus preferencias en cada chat, pero la nueva función va más allá de eso.

PUBLICIDAD

Joanne Jang, líder de producto de OpenAI que se enfoca en cómo responden sus modelos de IA a las personas, demostró el potencial de la función al proporcionar a ChatGPT tres datos diferentes, uno en cada una de tres charlas diferentes. Jang escribió que tiene una niña pequeña llamada Lina que pronto cumplirá cinco años, que a Lina le encantan las medusas y que a Lina le gusta el color rosa. En una cuarta charla, Jang simplemente le pidió a ChatGPT que hiciera una tarjeta de cumpleaños para su hija. El chatbot utilizó el generador de imágenes DALL-E 3 de OpenAI para hacer una tarjeta rosa con medusas rosadas que decía: "Feliz quinto cumpleaños Lina".

VER +
Adios a Bard: Google rebautizó su chatbot de IA para competir con OpenAI

OpenAI notificará a las personas si tienen acceso a la función, dijo la compañía. Aquellos con la función podrán eliminar detalles individuales que se hayan guardado, eliminar todo a la vez o elegir apagar la opción por completo. Los usuarios también pueden preguntar a ChatGPT qué recuerda para obtener un resumen de cualquier información que haya retenido con el tiempo.

ChatGPT ya impide que los usuarios le ofrezcan información personal sensible, como contraseñas o números de pasaporte, y la nueva función está diseñada para rechazar guardar tales datos, dijo Jang. El ChatGPT del usuario trata la información guardada en su memoria como datos conversacionales normales, lo que significa que puede usarse para entrenar los modelos de IA de la compañía, a menos que los usuarios opten por retener sus charlas del entrenamiento.

PUBLICIDAD

Liam Fedus, un científico de investigación que trabaja en ChatGPT y GPT-4, uno de los modelos de IA que alimenta al chatbot, dijo que la función de memoria puede almacenar un par de miles de tokens de información escrita. El software de OpenAI descompone las palabras en segmentos que consisten en varias letras, llamados tokens, para procesar texto. Para ponerlo en contexto: 2.048 tokens equivalen aproximadamente a 1.500 palabras, que es aproximadamente tres veces la longitud de este artículo.

Lea más en Bloomberg.com