¿En qué consiste el marco europeo que regula la IA y por qué es controvertido?

La ley propuesta - la primera del mundo que regula el uso de este tipo de tecnología - tiene una perspectiva más prudente que la de países como China e incluso EE.UU.

Por

Barcelona, España — Mientras los ejecutivos de las empresas más prominentes del sector tecnológico piden una pausa en el vertiginoso avance de la Inteligencia Artificial (IA), los gobiernos evalúan cómo prepararse para el impacto que esta nueva tecnología traerá a la sociedad. Sin embargo, ninguno avanza a mayor velocidad que la Unión Europea, que prepara un marco normativo para garantizar estándares éticos y derechos fundamentales de los ciudadanos en relación con estas tecnologías tras su irrupción. El bloque tiene previsto reunirse ahora en mayo para votar un acuerdo político que será vital para avanzar en la aprobación de esta ley.

España jugará un papel clave en este contexto: a partir del segundo semestre presidirá el Consejo de la Unión Europea y tendrá la misión de liderar el desarrollo de la primera normativa sobre IA a nivel global. Pero esta iniciativa no está exenta de polémica. Hay expertos qué, aunque aplauden un marco legal para que la IA se desarrolle de forma inclusiva, sostenible y centrada en el ciudadano, advierten de la existencia de vacíos legales que podrían limitar al sector y a la innovación.

Es el caso de Ricardo Baeza-Yates, director de investigación del Instituto de Inteligencia Artificial Experimental de la Northeastern University de Silicon Valley y profesor de la Universitat Pompeu Fabra (UPF) de Barcelona. “Es la primera vez en la historia de la humanidad que intentamos regular el uso de una tecnología”, afirma.

Según él, la regulación actual tiene demasiadas lagunas. “¿Tendremos que regular el blockchain, la computación cuántica y todas las tecnologías que inventemos en el futuro? Creo que eso es un error, necesitamos regular los problemas, independientemente de la tecnología utilizada para resolverlos, de la misma manera que ya hemos hecho con los alimentos, la medicina, el transporte y la privacidad”, afirma. El académico cree que la ley debería regular todos los sistemas algorítmicos, no sólo los que utilizan IA. De lo contrario, “dejaremos un agujero tremendo tremendo donde basta decir que no se usa IA para no cumplir la regulación”, opina. “Deberíamos regular mirando al futuro, como los derechos humanos.”

Sin embargo, Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, organismo vinculado al Ministerio de Economía, asegura que la normativa europea no regula la Inteligencia Artificial, sino los usos de riesgo de las aplicaciones que utilizan IA. Con ello, dice que el objetivo es velar por la ética y proteger los derechos fundamentales de los humanos. “Es una buena ley en el sentido de evitar el impacto del desarrollo de la IA en los derechos y libertades: trata de encontrar un equilibrio entre regular los riesgos, pero sin matar la innovación”, explica en una entrevista a Bloomberg Línea. “Por ejemplo, arroja luz sobre la discriminación que los algoritmos pueden hacer sobre colectivos e individuos: los requisitos de lo que son implementaciones de alto riesgo de IA deberían estar sujetos a estándares técnicos y guías de implementación.”

¿Cómo intenta la nueva ley frenar los abusos a medida que avanza la IA?

La propuesta de Ley de Inteligencia Artificial (IA), un documento de más de 100 páginas publicado en 2021 por la Comisión Europea y en el que se está trabajando para que entre en vigor a principios del 2024, se aplicaría en los ámbitos público y privado tanto dentro como fuera de la UE, en este último caso cuando el uso de sistemas de IA afecte a ciudadanos residentes en los 27 países miembros de la Unión Europea.

Pretende ser la primera ley sobre IA del mundo y clasifica su uso en función de su riesgo. “Cuanto mayor sea el riesgo que la inteligencia artificial puede aportar a nuestras vidas, más firme y estricta será la norma”, explicó la vicepresidenta de la Comisión, Margrethe Vestage, durante una presentación.

En la categoría de riesgo mínimo entran aquellos sistemas de IA que serían inofensivos y de fácil acceso para la población. En el siguiente nivel estarían las aplicaciones que clasifican la publicidad según gustos, sexo, nacionalidad o raza, y también los sistemas de IA que generan deepfakes - en este caso tendrían que dejar una “marca de agua” y asegurarse de que los usuarios son conscientes de que están ante una creación de una máquina. La clasificación de alto riesgo incluiría, por ejemplo, software de contratación automatizada y algoritmos para calcular la concesión de créditos.

Entre los riesgos inaceptables figuran, por ejemplo, la vigilancia biométrica masiva (cámaras de reconocimiento facial, por ejemplo) y los sistemas de puntuación social, como los utilizados en China, o los algoritmos que evalúan los “perfiles de riesgo” de los viajeros. Estas aplicaciones estarían prohibidas por atentar contra la privacidad y dar lugar a discriminaciones.

No obstante, habrá algunas excepciones que deberán ser autorizadas por las autoridades competentes, como el uso del reconocimiento facial para prevenir amenazas terroristas o buscar a un menor desaparecido. “No hay lugar para la vigilancia masiva en la sociedad europea”, sentenció Vestage, en un discurso público.

¿Qué pasa con tecnologías como ChatGPT?

Inicialmente, los bots de IA generativa como ChatGPT fueron etiquetados con el menor grado de riesgo. Pero el debate en torno a esta tecnología sigue candente, ya que la posibilidad de que estos bots consoliden sesgos y desinformación a gran escala también podría situar a esta herramienta en la categoría de alto riesgo, a menos que hubiera una supervisión editorial para mitigar estas distorsiones.

La falta de consenso sobre la regulación de sistemas de propósito general como ChatGPT hizo que la votación, prevista inicialmente para el 26 de abril, se pospusiera hasta mayo. La idea de los legisladores es que el texto esté aprobado a finales de ese mes y que las negociaciones entre las comisiones del bloque comiencen en junio.

Dudas sobre la propiedad intelectual de las empresas

Conforme la propuesta de la UE, la inteligencia artificial consiste en programas informáticos que utilizan una o varias de las siguientes técnicas, como estrategias de aprendizaje automático/profundo y metodologías estadísticas como la bayesiana (basada en la definición de probabilidad como grado de información). Con estas herramientas, la tecnología puede generar información como contenidos, predicciones, recomendaciones o decisiones.

Mientras que para algunos legisladores y agentes del mercado público y privado determinados usos de la IA pueden ser incompatibles con los derechos fundamentales, para otros esta categorización ofrece un enfoque muy amplio, como señala Gonzalo López-Barajas, responsable de Políticas Públicas e Internet del grupo Telefónica.

En una conferencia mediada por el Instituto de Desarrollo Digital de América Latina y el Caribe (IDD LAC), López-Barajas alabó la intención de la Unión Europea de proteger a los ciudadanos, pero señaló que, tal y como está expuesta ahora, la ley abarcaría una gran cantidad de software que quizá no debería encuadrarse como IA, lo que supone una barrera para las empresas. “Si tuvieran que cumplir la legislación, podrían tener que soportar una carga importante sin que ello represente una protección adicional.”

Entre los puntos más importantes que se están revisando, según el directivo de Telefónica, está el acceso a los algoritmos y datos de entrenamiento de las empresas. “Esto forma parte de la propiedad intelectual de las empresas y podría suponer un problema muy serio si se filtrara: la UE tendrá que analizar muy bien este punto para proteger la propiedad intelectual de las empresas.”

Un “Sello” de la UE

Para garantizar la protección de la ciudadanía, la Unión Europea quiere establecer quién es responsable de las acciones de un sistema de IA: qué empresas lo utilizan y quién lo ha diseñado. Con ello, las aplicaciones de IA consideradas de alto riesgo tendrían que demostrar que cumplen las normas antes de implantarse en la UE. La UE pretende ofrecer una certificación de “IA de confianza” para fomentar su cumplimiento y que no causen perjuicios a la sociedad. La infracción de las normas conlleva multas. Las sanciones por incumplimiento pueden alcanzar el 6% de la facturación anual en el caso de proveedores de servicios reincidentes.

No se sabe exactamente cuándo se aprobará la ley: de momento, los países miembros están en la fase de los trílogos: la Comisión Europea, el Parlamento Europeo y el Consejo de Europa tienen que llegar a una opinión común. España concluirá todas las negociaciones para tener el reglamento definitivo: la idea es que en 2024 se pueda aplicar la ley.

Lee también:

¿Quién debería rendir cuentas por los daños causados por la IA?

IA generativa aumentó productividad de trabajadores en 14%, según un nuevo estudio