OpenAI rompe las promesas de un mundo mejor hechas por las grandes tecnológicas

Por

Recientemente, en un evento del sector tecnológico, un ingeniero de software se me acercó y me confesó que estaba buscando trabajo y necesitaba algo especial para la próxima compañía en la que trabajara: una misión.

Silicon Valley -y la industria tecnológica en general- mantiene desde hace mucho tiempo la ética de salvar el mundo.

Esta creencia está tan extendida que fue objeto de burla en el programa “Silicon Valley” de la HBO, en un montaje de fundadores de startups que prometían “hacer del mundo un lugar mejor” con su producto o servicio ultranicho.

Las más recientes noticias sobre la transformación de OpenAI, de un laboratorio de investigación sin fines lucrativos a una compañía comercial que genera beneficios para los inversores, son un claro recordatorio de que el lema de la «misión» no es duradero en una región repleta de dinero y dominada por las grandes compañías dominantes.

Ha llegado el momento de que los ingenieros que buscan trabajo y el resto de nosotros nos mostremos más recelosos ante estas declaraciones tan positivas.

La industria tecnológica siempre ha estado a la altura de los grandes argumentos que pretenden transformar el mundo. No se trata únicamente de que los productos tecnológicos hayan modificado nuestra forma de vivir y trabajar, sino también de que el veloz ritmo de esos cambios hace verosímiles las proclamaciones grandilocuentes.

Es sencillo rodear un producto abstracto como las redes sociales o la inteligencia artificial con mensajes amplios y aspiracionales. Pero con el paso del tiempo, sus efectos secundarios se hacen obvios.

Google, de Alphabet Inc. (GOOGL), se fundó con el lema “no seas malvado” y luego dominó el mercado de búsquedas en línea, recopiló niveles atroces de datos personales y marginó a los miembros de sus equipos de investigación de ética de inteligencia artificial.

La misión original de Meta Platforms Inc. (META) era “acercar al mundo”, pero Facebook ha permitido que se propaguen desinformación y teorías conspirativas, polarizándonos y atrapándonos en “cámaras de eco”, mientras que Instagram ha hecho mella en la salud mental de los jóvenes.

Twitter se autoproclamó como una plaza pública y un centro de libertad de expresión, pero bajo la propiedad de Elon Musk ha amplificado las opiniones extremistas al tiempo que ha destripado a sus equipos de confianza y seguridad .

Presentarse como una empresa “orientada a una misión” tiene ventajas obvias. El efecto halo de la benevolencia atrae a muchos científicos e ingenieros talentosos. El cofundador de OpenAI, Ilya Sutskever, escribió una vez en un correo electrónico de 2016 (publicado durante la disputa legal de la empresa con Musk) que la empresa solo debería ser realmente “abierta” con su investigación en sus inicios “con fines de reclutamiento”.

También resulta atractivo para la prensa, los inversores potenciales e incluso los reguladores.

Altman ha destacado a menudo en público la misión fundadora de la empresa para generar buena voluntad. “Nuestro objetivo es promover la inteligencia digital de la forma que tenga más probabilidades de beneficiar a la humanidad en su conjunto, sin estar limitados por la necesidad de generar un rendimiento financiero”, dice todavía la primera publicación del blog de la empresa, de 2015 .

“Desde el principio quedó claro que no iban a ser completamente abiertos a pesar de su nombre”, afirma Gary Marcus, profesor emérito de la Universidad de Nueva York y autor de Taming Silicon Valley (Domando a Silicon Valley), quien me dijo meses antes del lanzamiento de ChatGPT que OpenAI estaba siendo demasiado reservado sobre cómo entrenaba a sus modelos. “[Altman] les da a las personas lo que quieren oír, y lo que querían oír era: ‘Estamos en el interés público’”.

La semana pasada se informó que OpenAI pronto cambiará a una estructura más corporativa, en la que se cerrará su junta directiva sin fines de lucro, se eliminará un límite para las ganancias de los inversores y se le otorgará al propio Altman hasta un 7% del capital de la empresa, con un valor estimado de US$6.500 millones.

Hasta ahora, Altman ha declarado que no aceptaría acciones, enfatizando que OpenAI estaba destinada a beneficiar ampliamente a la sociedad. Mientras tanto, líderes como la directora de tecnología Mira Murati, junto con otros dos ejecutivos clave, han estado abandonando la empresa.

Nada de esto ha impedido que la empresa redoble su apuesta por la retórica de la “misión”. “Seguimos centrados en crear una IA que beneficie a todos y estamos trabajando con nuestra junta directiva para asegurarnos de que estamos en la mejor posición para tener éxito en nuestra misión”, dijo a Reuters un portavoz de OpenAI esta semana.

Pero vale la pena señalar que el cambio de rumbo de Altman no es una anomalía.

Es un tema recurrente en Silicon Valley: definirse a sí mismo con una misión elevada que finalmente se ve eclipsada por un crecimiento y ganancias rápidos. En un mundo ideal, estas empresas serían más explícitas sobre ese objetivo final: después de todo, tienen un deber fiduciario con sus inversores.

Pero mientras operen, al menos por ahora, en un vacío regulatorio, las empresas tecnológicas seguirán pintando un espejismo sobre sus objetivos, uno ante el cual todos deberíamos ser mucho más cautelosos. Si las últimas acciones de Altman lo hacen más evidente, mucho mejor.

Esta nota no refleja necesariamente la opinión del consejo editorial de Bloomberg LP y sus propietarios.

Lea más en Bloomberg.com