OpenAI ofrece nuevas opciones de privacidad para ChatGPT

La startup dejará que las personas decidan si la IA se entrenará con los datos que proporcionen al chatbot

Por

Bloomberg — Los usuarios de OpenAI pueden optar por no utilizar sus conversaciones de ChatGPT para entrenar los modelos de la empresa de inteligencia artificial. La medida podría ser una salvaguarda de la privacidad para las personas que a veces comparten información sensible con el popular chatbot de IA.

El martes, la startup informó de que los usuarios de ChatGPT pueden desactivar sus historiales de chat pulsando un interruptor en la configuración de su cuenta. Al hacerlo, sus conversaciones ya no se guardarán en la barra lateral del historial de ChatGPT (situada en la parte izquierda de la página web), y los modelos de OpenAI no utilizarán esos datos para mejorar con el tiempo.

OpenAI pretende que la gente se sienta más cómoda utilizando el chatbot para todo tipo de aplicaciones. Por ejemplo, durante una demostración de la función el lunes, la empresa utilizó el ejemplo de planificar una fiesta de cumpleaños sorpresa.

“Queremos avanzar más en esta dirección, en la que las personas que utilizan nuestros productos puedan decidir cómo se utilizan sus datos: si se utilizan para formación o no”, dijo Mira Murati, Directora de Tecnología de OpenAI.

En los meses transcurridos desde el lanzamiento público de ChatGPT, millones de personas han experimentado con él y con otros bots (como Bard, creado por Google, de Alphabet Inc). Esta nueva oleada de chatbots de IA ya se está aprovechando para todo, desde ayudar a planificar las vacaciones hasta actuar como terapeuta improvisado, lo que plantea interrogantes no sólo sobre cómo se pueden utilizar estos sistemas, sino también sobre cómo procesan las empresas las indicaciones que la gente escribe en ellos. OpenAI afirma que su software filtra la información de identificación personal que llega de los usuarios.

La startup con sede en San Francisco, que anunció los cambios en una entrada de blog el martes, seguirá entrenando por defecto sus modelos con los datos de los usuarios. Seguirá almacenando datos (incluidos los de conversaciones en las que los usuarios hayan desactivado el historial de chat) durante 30 días antes de eliminarlos, lo que hace para dete

ctar comportamientos abusivos, según la empresa.

Este mes, OpenAI también dijo que permite a los usuarios enviarse por correo electrónico una copia descargable de los datos que han producido al utilizar ChatGPT, que incluye las conversaciones con el chatbot.

La empresa tiene previsto lanzar en los próximos meses un plan de suscripción empresarial que, según dijo, no entrenará por defecto los datos de esos usuarios.

Lea más en Bloomberg.com