Empleados de OpenAI quieren protección para hablar de los “graves riesgos” de la IA

Empleados actuales y antiguos de OpenAI y Google DeepMind dicen que los amplios acuerdos de confidencialidad les impiden expresar sus preocupaciones

Por

Bloomberg — Un grupo de empleados actuales y antiguos de OpenAI y Google DeepMind piden protección frente a represalias por compartir sus preocupaciones sobre los “graves riesgos” de las tecnologías que estas y otras empresas están construyendo.

Lea más: Michael Dell dice que los PC con IA serán “bastante comunes” en 2025

“Mientras no exista una supervisión gubernamental eficaz de estas corporaciones, los empleados actuales y antiguos se encuentran entre las pocas personas que pueden hacerlas responsables ante el público”, según una carta pública, firmada por 13 personas que han trabajado en las empresas, siete de las cuales incluyeron sus nombres. “Sin embargo, los amplios acuerdos de confidencialidad nos impiden expresar nuestras preocupaciones, excepto a las propias empresas que pueden estar fallando a la hora de abordar estas cuestiones”.

En las últimas semanas, OpenAI se ha enfrentado a la controversia sobre su enfoque para salvaguardar la inteligencia artificial después de disolver uno de sus equipos de seguridad de más alto perfil y verse afectada por una serie de salidas de personal. Los empleados de OpenAI también han expresado su preocupación por el hecho de que se pidiera a los miembros del personal que firmaran acuerdos de no distanciamiento vinculados a sus acciones en la empresa, lo que podría hacerles perder lucrativos acuerdos de capital si hablaban en contra de la startup de IA. Después de algunas protestas, OpenAI dijo que liberaría a los antiguos empleados de los acuerdos.

Jacob Hilton, uno de los antiguos empleados de OpenAI que firmaron la carta el martes, escribió en X que la empresa merece crédito por el cambio en la política de no desprestigio, “pero los empleados pueden seguir temiendo otras formas de represalia por revelar información, como ser despedidos y demandados por daños y perjuicios” En una declaración enviada a Bloomberg, un portavoz de OpenAI dijo que la empresa está orgullosa de su “historial proporcionando los sistemas de IA más capaces y seguros y cree en nuestro enfoque científico para abordar el riesgo”. El portavoz añadió: “Estamos de acuerdo en que un debate riguroso es crucial dada la importancia de esta tecnología y seguiremos comprometiéndonos con los gobiernos, la sociedad civil y otras comunidades de todo el mundo.”

Un representante de Google no respondió inmediatamente a una solicitud de comentarios.

En la carta, titulada Un derecho de advertencia sobre la inteligencia artificial avanzada, los empleados afirmaban estar preocupados porque las principales empresas de IA “tienen fuertes incentivos financieros para evitar una supervisión eficaz”. Por otra parte, las empresas tienen “sólo débiles obligaciones” para compartir los verdaderos peligros de sus sistemas de IA con el público, dijeron.

La carta argumentaba que las protecciones ordinarias de los denunciantes son insuficientes porque se centran en la actividad ilegal, mientras que muchos de los riesgos que preocupan a los empleados aún no están regulados.

En su conjunto de propuestas, los empleados piden a las empresas de IA que se comprometan a prohibir los acuerdos de no divulgación para las preocupaciones relacionadas con los riesgos y que creen un proceso anónimo verificable para que el personal pueda plantear sus problemas a los consejos de administración de la empresa, así como a los reguladores. Las propuestas también piden a las empresas que se abstengan de tomar represalias contra los empleados actuales y antiguos que compartan públicamente información sobre riesgos tras haber agotado otros procesos internos.

Le recomendamos: Líderes tecnológicos consideran que sus empresas no están preparadas para la IA

OpenAI dijo que celebra regularmente sesiones de preguntas y respuestas con la junta directiva, así como horas de oficina de la dirección para que los empleados expresen sus preocupaciones. La empresa también dijo que dispone de una "línea directa de integridad" anónima para empleados y contratistas.

Daniel Kokotajlo, un antiguo empleado de OpenAI que renunció a principios de este año, dijo que le preocupa si las empresas están preparadas para las implicaciones de la inteligencia artificial general, una versión hipotética de la IA que puede superar a los humanos en muchas tareas. Kokotajlo dijo que cree que hay un 50% de posibilidades de alcanzar la AGI en 2027.

"No hay nada que realmente impida a las empresas construir AGI y utilizarla para diversas cosas, y no hay mucha transparencia", dijo Kokotajlo, que se arriesgó a renunciar a su capital para evitar firmar un acuerdo de no descrédito. "Renuncié porque sentí que no estábamos preparados. No estábamos preparados como empresa, y no estábamos preparados como sociedad para esto, y necesitábamos realmente invertir mucho más en prepararnos y pensar en las implicaciones."

Lea más en Bloomberg.com