OpenAI crea comité evaluador de modelos de inteligencia artificial tras disolver su equipo de seguridad

La medida se produce tras las críticas condenatorias a la gobernanza de OpenAI publicadas por The Economist

Sam Altman, CEO de la compañía, será parte del nuevo comité.
Por Mark Bergen
28 de mayo, 2024 | 02:14 PM

Bloomberg — OpenAI ha creado un comité del consejo de administración para evaluar la seguridad de sus modelos de inteligencia artificial (IA), un cambio de gobernanza realizado semanas después de que su máximo responsable en la materia dimitiera y la empresa disolviera su equipo interno.

La medida también se produce tras las críticas condenatorias a la gobernanza de OpenAI publicadas el domingo en The Economist por dos exmiembros del consejo, Helen Toner y Tasha McCauley.

Lea también: Zuckerberg crea un consejo para asesorar a Meta sobre productos con inteligencia artificial

El nuevo comité pasará 90 días evaluando las salvaguardas de la tecnología de OpenAI antes de presentar un informe. “Tras la revisión del consejo en pleno, OpenAI compartirá públicamente una actualización de las recomendaciones adoptadas de una manera que sea coherente con la seguridad”, dijo la compañía en una publicación de su blog este martes.

PUBLICIDAD

OpenAI también dijo que recientemente ha empezado a entrenar su último modelo de IA.

Los recientes y rápidos avances de la empresa privada en el campo de la IA han suscitado inquietudes sobre cómo gestiona los peligros potenciales de la tecnología. Esas preocupaciones se intensificaron el otoño pasado cuando el director ejecutivo Sam Altman fue destituido brevemente en un golpe de la sala de juntas tras enfrentarse con el cofundador y científico jefe Ilya Sutskever sobre la rapidez con la que desarrollar productos de IA y las medidas para limitar los daños.

Esas preocupaciones volvieron este mes después de que Sutskever y un adjunto clave, Jan Leike, abandonaran la empresa. Los científicos dirigían el llamado equipo de superalineación de OpenAI, que se centraba en las amenazas a largo plazo de la IA sobrehumana. Leike, que dimitió, escribió después que su división estaba “luchando” por los recursos informáticos dentro de OpenAI. Otros empleados salientes se hicieron eco de sus críticas.

PUBLICIDAD

Lea además: Sam Altman, de OpenAI, regresa a la junta directiva después de ser absuelto en una investigación

Tras la marcha de Sutskever, OpenAI disolvió su equipo. La compañía dijo el martes que este trabajo en particular continuaría bajo su unidad de investigación y John Schulman, un cofundador con el nuevo título de Jefe de Ciencia de Alineación.

En ocasiones, la startup ha tenido problemas para gestionar las salidas de personal. La semana pasada, OpenAI anuló una política que cancelaba el capital de antiguos empleados si hablaban en contra de la empresa.

Toner y McCauley, que abandonaron el consejo de OpenAI después de que Sam Altman fuera restituido como CEO el año pasado, criticaron el liderazgo de Altman durante el fin de semana en un ensayo como invitados para The Economist y advirtieron de que las salidas de Sutskever y otros miembros del equipo centrados en la seguridad “son un mal presagio para el experimento de OpenAI de autogobierno.”

Vea más: OpenAI retira la voz de Sky, que sonaba como Scarlett Johansson, de ChatGPT

Un portavoz dijo que OpenAI era consciente de las críticas de los exempleados y preveía más, añadiendo que la empresa estaba trabajando para abordar las preocupaciones.

El nuevo comité de seguridad de OpenAI estará formado por tres miembros del consejo -el presidente Bret Taylor, el CEO de Quora Adam D’Angelo y la exejecutiva de Sony Entertainment Nicole Seligman- junto con seis empleados, entre ellos Schulman y Altman. La compañía dijo que seguiría consultando a expertos externos, nombrando a dos de ellos: Rob Joyce, asesor de Seguridad Nacional de Donald Trump, y John Carlin, ex funcionario del Departamento de Justicia bajo la presidencia de Joe Biden.

Lea más en Bloomberg.com