Bloomberg Opinión — Resulta difícil no preocuparse cuando el llamado padrino de la inteligencia artificial, Geoffrey Hinton, dice que deja Google y se arrepiente del trabajo de su vida.
Esta semana, Hinton, que contribuyó de forma decisiva a la investigación de la IA en la década de 1970 con su trabajo sobre las redes neuronales, declaró a varios medios de comunicación que las grandes empresas tecnológicas estaban avanzando demasiado deprisa en el despliegue de la IA al público. Parte del problema era que la IA estaba alcanzando capacidades similares a las humanas más rápidamente de lo que habían previsto los expertos. “Eso da miedo”, declaró al New York Times.
Sin duda, las preocupaciones de Hinton tienen sentido, pero habrían sido más eficaces si se hubieran manifestado varios años antes, cuando otros investigadores que no tenían jubilación a la que recurrir estaban haciendo sonar las mismas alarmas.
Resulta revelador que, en un tweet, Hinton tratara de aclarar la forma en que el New York Times caracterizó sus motivaciones, preocupado por que el artículo sugiriera que se había marchado de Google para criticarla. “En realidad, me fui para poder hablar de los peligros de la IA sin tener en cuenta cómo afecta esto a Google”, dijo. “Google ha actuado de forma muy responsable”.
Aunque la prominencia de Hinton en el campo podría haberle aislado de las represalias, el episodio pone de relieve un problema crónico en la investigación de la IA: Las grandes empresas tecnológicas ejercen tal dominio sobre la investigación en IA que muchos de sus científicos temen airear sus preocupaciones por miedo a perjudicar sus perspectivas profesionales.
Puedes entender por qué. Meredith Whittaker, antigua directora de investigación de Google, tuvo que gastar miles de dólares en abogados en 2018 después de ayudar a organizar la huelga de 20.000 empleados de Google por los contratos de la empresa con el Departamento de Defensa de EEUU. “Da mucho, mucho miedo enfrentarse a Google”, me dice. Whittaker, que ahora es presidenta de la aplicación de mensajería cifrada Signal, acabó dimitiendo del gigante de las búsquedas con una advertencia pública sobre la dirección de la empresa.
Dos años después, los investigadores de IA de Google Timnit Gebru y Margaret Mitchell fueron despedidos del gigante tecnológico tras publicar un artículo de investigación que ponía de manifiesto los riesgos de los grandes modelos lingüísticos, la tecnología que actualmente está en el centro de las preocupaciones sobre los chatbots y la IA generativa. Señalaban problemas como los prejuicios raciales y de género, la inescrutabilidad y el costo medioambiental.
A Whittaker le irrita el hecho de que Hinton sea ahora objeto de retratos elogiosos sobre sus contribuciones a la IA, después de que otros asumieran riesgos mucho mayores para defender lo que creían cuando aún eran empleados de Google. “Personas con mucho menos poder y posiciones más marginadas asumieron verdaderos riesgos personales para denunciar los problemas de la IA y de las empresas que la controlan”, afirma.
¿Por qué Hinton no habló antes? El científico no quiso responder a las preguntas. Pero parece que lleva tiempo preocupado por la IA, incluso en los años en que sus colegas abogaban por un enfoque más prudente de la tecnología. Un artículo del New Yorker de 2015 le describe hablando con otro investigador de IA en una conferencia sobre cómo los políticos podrían utilizar la IA para aterrorizar a la gente. Cuando le preguntaron por qué seguía investigando, Hinton respondió: “Podría darte los argumentos habituales, pero la verdad es que la perspectiva del descubrimiento es demasiado dulce”. Era un eco deliberado de la famosa descripción de J. Robert Oppenheimer del atractivo “técnicamente dulce” de trabajar en la bomba atómica.
Hinton afirma que Google ha actuado de forma “muy responsable” en su despliegue de la IA. Pero eso sólo es cierto en parte. Sí, la empresa cerró su negocio de reconocimiento facial por temor a un uso indebido, y mantuvo en secreto durante dos años su potente modelo lingüístico LaMDA para trabajar en hacerlo más seguro y menos sesgado. Google también ha restringido las capacidades de Bard, su competidor de ChatGPT.
Pero ser responsable también significa ser transparente y rendir cuentas, y el historial de Google de sofocar las preocupaciones internas sobre su tecnología no inspira confianza.
Es de esperar que la marcha de Hinton y sus advertencias inspiren a otros investigadores de grandes empresas tecnológicas a expresar sus preocupaciones.
Los conglomerados tecnológicos se han tragado a algunas de las mentes más brillantes del mundo académico gracias al atractivo de los altos salarios, las generosas prestaciones y la enorme potencia informática utilizada para entrenar y experimentar con modelos de IA cada vez más potentes.
Sin embargo, hay indicios de que algunos investigadores se están planteando al menos ser más explícitos. “A menudo pienso en cuándo abandonaría [la empresa de IA] Anthropic o dejaría la IA por completo”, tuiteó el lunes Catherine Olsson, miembro del personal técnico de la empresa de seguridad de IA Anthropic, en respuesta a los comentarios de Hinton. “Ya puedo decir que este movimiento me influirá”.
Muchos investigadores de IA parecen aceptar con fatalismo que poco se puede hacer para frenar la marea de la IA generativa, ahora que se ha desatado al mundo. Como me dijo el cofundador de Anthropic, Jared Kaplan, en una entrevista publicada el martes, “el gato está fuera de la bolsa”.
Pero si los investigadores actuales están dispuestos a hablar ahora, mientras importa, y no justo antes de jubilarse, es probable que todos salgamos beneficiados.
Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.