OpenAI dice que trabaja para reducir prejuicios y malos comportamientos

La tecnología OpenAI está reaccionando a los señalamientos de prejuicios, inexactitudes y conductas inapropiadas del mismo ChatGPT

Por

Bloomberg — La empresa de investigación OpenAI, que está detrás del chatbot ChatGPT, ha comunicado que está esforzándose por disminuir los defectos del sistema y ofrecerá a los usuarios la opción de personalizar su forma de actuar, a raíz de una oleada de denuncias sobre interacciones inaceptables y fallos en las respuestas.

“Invertimos en ingeniería e investigación para disminuir tanto los sesgos obvios como los discretos en la manera en que ChatGPT contesta a diferentes estímulos”, ha declarado la empresa en su blog. “En ocasiones, ChatGPT rehúsa actualmente salidas que no tendría por qué, y en otros casos, no lo hace cuando tendría que hacerlo”

La tecnología OpenAI está reaccionando a los señalamientos de prejuicios, inexactitudes y conductas inapropiadas del mismo ChatGPT y, más en general, a las acusaciones dirigidas a los nuevos servicios de búsqueda basados en el chat que están probando Microsoft Corp. (MSFT) y Google, de Alphabet Inc. (GOOGL). En una entrada de blog publicada este miércoles, Microsoft explica lo que ha descubierto sobre las distintas limitaciones del nuevo chat de Bing, que se basa en la tecnología de inteligencia artificial OpenAI, y Google ha instado a sus colaboradores a que mejoren de forma manual las respuestas ofrecidas por su sistema Bard, según la cadena de televisión CNBC.

La compañía OpenAI, basada en San Francisco, señaló además que está trabajando en una modernización de ChatGPT para adaptarla a los intereses, estilos y opiniones de cada persona. En Estados Unidos, los comentaristas derechistas mencionan lo que denominan liberalismo insidioso integrado en este sistema, suscitando una respuesta negativa frente a lo que llaman “WokeGPT”.

“Creemos que la IA debería ser una herramienta útil para personas individuales y, por lo tanto, personalizable por cada usuario hasta los límites definidos por la sociedad”, escribió OpenAI el jueves. “Esto significará permitir salidas del sistema con las que otras personas (incluidos nosotros mismos) pueden estar totalmente en desacuerdo. Lograr el equilibrio correcto aquí será un desafío: llevar la personalización al extremo correría el riesgo de permitir usos maliciosos de nuestra tecnología e inteligencia artificial aduladoras que amplifican sin pensar las creencias existentes de las personas. Por lo tanto, siempre habrá algunos límites en el comportamiento del sistema”.

Lea más en Bloomberg.com