OpenAI apoya exigencia de licencias del gobierno para los sistemas avanzados de IA

Un memo interno de OpenAI reconocería el posible peligro que los sistemas de inteligencia artificial representan para los mercados de trabajo y la desigualdad

Sam Altman
Por Jillian Deutsch
21 de julio, 2023 | 03:01 AM

Bloomberg — Un memorando interno de OpenAI revela que la empresa respalda la idea de requerir licencias del gobierno a todo aquel que desee diseñar sistemas avanzados de inteligencia artificial (IA). También sugiere que la compañía es partidaria de hacer públicos aquellos datos que emplea para el entrenamiento de sus generadores de imagen.

La empresa responsable de ChatGPT y DALL-E expuso en su documento interno diversos compromisos relacionados con la IA tras una reunión celebrada el pasado 4 de mayo entre representantes de la Casa Blanca y ejecutivos del ámbito tecnológico, entre ellos el CEO de OpenAI, Sam Altman.

VER +
¿En qué consiste el marco europeo que regula la IA y por qué es controvertido?

“Estamos comprometidos a colaborar con el gobierno estadounidense y los responsables políticos mundiales para respaldar el desarrollo normativo en cuanto a licencias para generaciones venideras de modelos de base más competentes”, señalaba en su borrador la empresa establecida en San Francisco.

PUBLICIDAD

El concepto de un sistema gubernamental de concesión de licencias codiseñado por gigantes de la IA de la talla de OpenAI sienta las bases para un potencial choque con las startups y los desarrolladores de código abierto (open source), que lo podrían percibir como una maniobra para hacer más difícil que otros irrumpan en este campo. La idea no es nueva para OpenAI: En mayo, durante una audiencia ante el Senado de Estados Unidos, Altman apoyó la propuesta de crear una agencia que, en su opinión, emitiera licencias para productos de inteligencia artificial y las revocara si se incumplían las normas estipuladas.

Este documento de política se conoce justo en el momento en que se prevé que Microsoft Corp. (MSFT), Google de Alphabet Inc. (GOOGL) y OpenAI se comprometan en público este viernes a aplicar mecanismos de salvaguarda a la hora de elaborar dicha tecnología, en respuesta a una petición de la Casa Blanca. De acuerdo con personas conocedoras de los detalles, las compañías se comprometen a desarrollar y desplegar la inteligencia artificial de forma responsable.

VER +
Apple se apura para construir sus propias herramientas de IA y ponerse al día

OpenAI advirtió que las ideas establecidas en el documento de política interna serán diferentes de las que pronto anunciará la Casa Blanca, junto con las empresas tecnológicas. Anna Makanju, vicepresidenta de asuntos globales de la compañía, dijo en una entrevista que la compañía no está “presionando” para obtener licencias, sino que cree que otorgar permisos es una forma “realista” para que los gobiernos rastreen los sistemas emergentes.

PUBLICIDAD

“Es importante que los gobiernos estén al tanto de si están surgiendo sistemas superpoderosos que podrían tener impactos dañinos potenciales”, dijo, y hay “muy pocas formas en que puede asegurarse de que los gobiernos estén al tanto de estos sistemas si alguien no está dispuesto a autoinformarse como lo hacemos nosotros”.

Makanju dijo que OpenAI admite regímenes de licencias solo para modelos de IA más potentes que el actual GPT-4 de OpenAI y quiere garantizar que las nuevas empresas más pequeñas estén libres de demasiada carga regulatoria. “No queremos sofocar el ecosistema”, dijo.

OpenAI también señaló en el documento de política interna que está dispuesto a ser más abierto

VER +
Meta abre tecnología de chatbot de IA al uso comercial a través de Microsoft

sobre los datos que utiliza para capacitar a los generadores de imágenes como DALL-E, diciendo que se comprometió a “incorporar un enfoque de procedencia” para fin de año. La procedencia de los datos, una práctica utilizada para responsabilizar a los desarrolladores por la transparencia en su trabajo y de dónde proviene, ha sido planteada por los formuladores de políticas como fundamental para evitar que las herramientas de IA difundan información errónea y sesgada.

Los compromisos establecidos en el memorando de OpenAI siguen de cerca algunas de las propuestas de políticas de Microsoft anunciadas en mayo. OpenAI ha señalado que, a pesar de recibir una inversión de US$10.000 millones de Microsoft, sigue siendo una empresa independiente.

La firma reveló en el documento que está realizando una encuesta sobre marcas de agua, un método para rastrear la autenticidad y los derechos de autor de las imágenes generadas por IA, así como la detección y divulgación en el contenido creado por IA. Tiene previsto publicar resultados.

VER +
Nuevos productos corporativos de IA de Microsoft tendrán un precio elevado

La compañía también dijo en el documento que estaba abierto a equipos rojos externos; en otras palabras, permitir que las personas ingresen y prueben las vulnerabilidades en su sistema en múltiples frentes, incluido el contenido ofensivo, el riesgo de manipulación y la desinformación y el sesgo. La firma dijo en el memorando que apoya la creación de un centro de intercambio de información para colaborar en ciberseguridad.

En el memorando, OpenAI parece reconocer el riesgo potencial que los sistemas de IA representan para los mercados laborales y la desigualdad. La compañía dijo en el borrador que llevaría a cabo una investigación y haría recomendaciones a los legisladores para proteger la economía contra una posible “interrupción”.

PUBLICIDAD

--Con la asistencia de Anna Edgerton y Courtney Rosen.

Más en Bloomberg

Lee también

España, la punta de lanza del reglamento europeo para la inteligencia artificial