Bloomberg — Este es un avance de la inteligencia artificial que nos beneficiará a todos: cada vez resulta más sencillo para los creadores de IA alertar al mundo sobre los perjuicios que pueden causar sus algoritmos, desde propagar información errónea y destruir puestos de trabajo hasta alucinar y ofrecer una nueva forma de supervisión.
Sin embargo, ¿a quién pueden recurrir estos aspirantes a denunciantes?
Se está gestando un cambio esperanzador hacia una mejor fiscalización, fruto de los cambios en las políticas de remuneración, un renovado impulso para la denuncia entre los ingenieros y la cada vez más poderosa influencia de un colectivo de seguridad apoyado por el gobierno del Reino Unido.
Los cambios de índole financiera son los más trascendentales.
Los trabajadores de la inteligencia artificial padecen el más reciente problema del Primer Mundo, ya que pueden ganar siete u ocho cifras en opciones sobre acciones si se mantienen en la empresa apropiada durante varios años, y si además callan sobre los problemas de ésta cuando se van.
Si se les descubre hablando, de acuerdo con un reciente reportaje de Vox, perderían la posibilidad de hacerse millonarios.
Eso ha hecho que muchos de ellos permanezcan en silencio, según se recoge en una carta abierta publicada este mes por trece exempleados de OpenAI y Google DeepMind, entre los que figuran seis que han permanecido en el anonimato.
La reacción de OpenAI ante este tipo de quejas ha sido esperanzadora. No solo ha pedido disculpas, sino que también ha dicho que liberará a la mayor parte de sus ex empleados de los requisitos de no divulgación.
Daniel Kokotajlo, un extrabajador de OpenAI que de forma admirable se negó a firmar la orden de silencio y se enfrentaba a la pérdida de US$1,7 millones, la mayor parte de su patrimonio neto, de acuerdo con el New York Times, ahora podrá liquidar sus acciones y recibir ese dinero, según me informa Lawrence Lessig, su abogado.
Lo más esperanzador no es que los científicos de inteligencia artificial, ya de por sí bien remunerados, obtengan más dinero o protejan sus lucrativas carreras, sino que desaparece una poderosa justificación para callar, al menos, en OpenAI.
Lessig, que a inicios del 2024 se reunió con más de media docena de extrabajadores de OpenAI para formular un conjunto de compromisos que deberían adoptar las empresas que crean inteligencia artificial, pretende que al menos una de ellas se comprometa a cumplirlos todos.
Probablemente sea una tarea difícil. Pero desvincular los acuerdos de no descrédito de la compensación es un primer paso prometedor, y uno que otras grandes empresas tecnológicas, que hoy emplean a más de 33.000 trabajadores centrados en la I , deberían seguir si aún no cuentan con una política de este tipo.
Es alentador que una portavoz de Anthropic, rival de OpenAI, diga que la compañía no cuenta con órdenes de silencio tan controvertidas.
Esas empresas deberían hacer más para facilitar que los denunciantes hagan sonar la alarma.
OpenAI ha dicho que tiene una “línea directa” disponible para sus ingenieros, pero eso no significa mucho cuando la línea sólo llega a los jefes de la empresa.
Una mejor configuración sería un portal en línea a través del cual los ingenieros de IA puedan presentar inquietudes tanto a sus jefes como a personas ajenas a la empresa que tengan la experiencia técnica para evaluar los riesgos.
En ausencia de reguladores oficiales de IA, ¿quién debería ser ese tercero? Por supuesto, existen organismos de control como la Comisión Federal de Comercio de EE.UU. y el Departamento de Justicia, pero otra opción es el Instituto de Seguridad de la IA de Gran Bretaña (AISI, por sus siglas en inglés).
Financiada por el gobierno del Reino Unido, es la única entidad respaldada por el estado del mundo que ha logrado obtener acuerdos de ocho de las principales empresas tecnológicas del mundo, incluidas Google de Alphabet Inc. (GOOGL), Microsoft Corp. (MSFT) y OpenAI, para probar de forma segura sus modelos de IA antes. y después de que se muestren al público.
Eso convierte al AISI británico en el equivalente más cercano a los inspectores de armas en un campo en rápida evolución. Hasta ahora, ha probado cinco modelos de IA de varias empresas líderes para detectar riesgos de seguridad nacional.
La organización cuenta con 30 miembros de personal y está en proceso de establecer una oficina en San Francisco.
Paga a algunos investigadores senior alrededor de £135.000 (alrededor de US$170.000) al año, según sus últimas ofertas de empleo, mucho menos de lo que pagaría un puesto aproximadamente equivalente en la sede de Google en Mountain View, California (más de US$1 millón en compensación total). Aun así, la organización ha conseguido contratar a exdirectores de OpenAI y Google DeepMind .
Puede parecer incómodo para los ingenieros de Silicon Valley acercarse a una organización en el extranjero, pero no se puede negar que los algoritmos que están diseñando tienen alcance global. En el corto plazo, el Reino Unido actúa como un práctico punto medio entre Estados Unidos y Europa, o incluso entre Estados Unidos y China, para mediar en las preocupaciones.
Los mecanismos para la denuncia de irregularidades todavía tienen mucho camino por recorrer en la IA, pero al menos es una opción más viable para el campo que nunca. Esto es motivo de celebración y, con suerte, un mayor impulso para que otros también hablen.
Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.
Lea más en Bloomberg.com