Así regulará la Unión Europea los modelos avanzados de IA como ChatGPT

Todos los desarrolladores de sistemas de IA de propósito general deben cumplir unos requisitos básicos de transparencia, a menos que se proporcionen de forma gratuita y de código abierto

Por

Bloomberg — La Unión Europea ha llegado a un acuerdo preliminar que limitará el funcionamiento del modelo avanzado ChatGPT, en lo que se considera un elemento clave de la primera normativa mundial exhaustiva sobre inteligencia artificial.

Todos los desarrolladores de sistemas de IA de propósito general -modelos potentes que tienen una amplia gama de posibles usos- deben cumplir unos requisitos básicos de transparencia, a menos que se proporcionen de forma gratuita y de código abierto, según un documento de la UE visto por Bloomberg.

Entre ellos figuran:

  • Disponer de una política de uso aceptable.
  • Mantener información actualizada sobre la formación de sus modelos.
  • Presentar un resumen detallado de los datos utilizados para entrenar sus modelos.
  • Respetar los derechos de autor

Según el documento, los modelos considerados de “riesgo sistémico” estarán sujetos a normas adicionales. La UE determinaría ese riesgo en función de la potencia de cálculo utilizada para entrenar el modelo. El umbral se fija en aquellos modelos que utilicen más de 10 billones (o septillones) de operaciones por segundo.

Actualmente, el único modelo que cumpliría automáticamente este umbral es el GPT-4 de OpenAi, según los expertos. El brazo ejecutivo de la UE puede designar otros en función del tamaño del conjunto de datos, de si tienen al menos 10.000 usuarios empresariales registrados en la UE o del número de usuarios finales registrados, entre otras métricas posibles.

Estos modelos altamente capacitados deberán firmar un código de conducta mientras la Comisión Europea elabora unos controles más armonizados y duraderos. Los que no firmen tendrán que demostrar a la Comisión que cumplen la Ley de IA. La exención para los modelos de código abierto no se aplica a los que se considera que plantean un riesgo sistémico.

Estos modelos también tendrían que:

  • Informar de su consumo de energía.
  • Realizar pruebas de confrontación, ya sean internas o externas.
  • Evaluar y mitigar los posibles riesgos sistémicos y notificar cualquier incidente.
  • Garantizar el uso de controles de ciberseguridad adecuados.
  • Comunicar la información utilizada para ajustar el modelo y la arquitectura del sistema.
  • Cumplir normas de mayor eficiencia energética si se desarrollan.

El acuerdo provisional aún debe ser aprobado por el Parlamento Europeo y los 27 Estados miembros de la UE. Francia y Alemania ya han expresado su preocupación por la excesiva regulación de los modelos de IA de uso general y el riesgo de acabar con competidores europeos como la francesa Mistral AI o la alemana Aleph Alpha.

Por ahora, es probable que Mistral no tenga que cumplir los controles de la IA de propósito general porque la empresa aún está en fase de investigación y desarrollo, según declaró a primera hora del sábado la Secretaria de Estado española, Carme Artigas.

Lee más en Bloomberg.com