La inteligencia artificial es cada vez más barata, pero no lo solucionará todo

Por

Bloomberg — A pesar de ser una tecnología que promete ayudar a las empresas reduciendo costes, la IA tiene el grave problema de ser muy costosa.

De acuerdo con las leyes de ampliación de la inteligencia artificial, se requiere más potencia de procesamiento para crear modelos más potentes, por lo que las empresas de tecnología se han visto forzadas a destinar miles de millones de dólares a la creación de grandes centros de datos y a la adquisición de potentes chips, unos gastos que no pueden, sino trasladar a sus consumidores.

La herramienta de inteligencia artificial de Google para elaborar documentos o emails para los trabajadores de oficina no es nada barata. Supone un recargo de US$20 por empleado en su factura mensual de US$6 por el paquete Workspace de la empresa.

Por su parte, el asistente de inteligencia artificial de Microsoft Corp. (MSFT), Copilot, cuesta US$30 al mes por trabajador.

Al mismo tiempo, el coste de desplegar la inteligencia artificial directamente en los sistemas de una compañía puede suponer entre US$5 y US$20 millones, de acuerdo con la firma de investigación Gartner, que calcula que el 30% de los proyectos de IA generativa se abandonarán a finales de 2025, debido principalmente a todo ese gasto.

Sin embargo, lo bueno para estos clientes es que los costes de la inteligencia artificial parecen estar disminuyendo, lo que contribuye a cerrar la diferencia entre beneficios e inversión.

Lo malo: esto no soluciona el gran desafío de la utilidad, que todavía necesitará de algunos años más para ser solucionado.

La opinión predominante en Silicon Valley es que hay que seguir invirtiendo para afianzarse en el futuro.

El martes, Microsoft anunció que sus gastos de capital alcanzaron un récord de US$19.000 millones en el último trimestre, más del 80% más que el año pasado. El CEO Satya Nadella dijo que toda esa inversión seguiría “capturando la oportunidad de la IA”.

El CEO de Alphabet Inc. (GOOGL), Sundar Pichai, dijo lo mismo en una reciente conferencia telefónica sobre los resultados de Google: “el riesgo de invertir poco es mucho mayor que el riesgo de invertir demasiado para nosotros”. Los inversores no se lo creen del todo: las acciones de Microsoft han bajado un 2% desde su último anuncio de resultados, las de Google un 5%.

Pero, aunque el coste de la formación de la IA ha aumentado a lo largo de los años, como se muestra en el gráfico anterior, los servicios de IA de ambos gigantes tecnológicos parecen estar encaminándose hacia una dirección más barata.

Un portavoz de Google dice que el último modelo Gemini de la empresa (que las empresas pueden utilizar para automatizar sus operaciones de atención al cliente o resumir documentos internos) es más potente que el anterior, pero cuesta casi la mitad.

El último modelo de OpenAI, conocido como GPT-4o, es más rápido pero también un 50% más barato que su predecesor, GPT-4 Turbo. Una portavoz me dijo que el coste de acceso a sus modelos, que se mide por el procesamiento de tokens (esencialmente palabras según su modelo de lenguaje), se ha reducido un 99% desde 2022. “Estamos comprometidos a continuar con esta trayectoria”, añadió.

Entre los científicos de IA, la reducción de costos con técnicas como la “escasez” y la “cuantificación” ha sido un tema central en las últimas conferencias.

Neerav Kingsland, un ejecutivo de Anthropic, rival de OpenAI, me dijo que era plausible que sus modelos pudieran caer al 25% de su precio actual en los próximos uno o dos años, y que la compañía, que ha recaudado US$8.800 millones de inversores como Google y Amazon.com Inc. (AMZN), ya había reducido a la mitad el costo de construir un modelo reciente a través de nuevos métodos de investigación.

Hay otras señales de que los costos están bajando.

En China, las empresas de IA han estado enfrascadas en una guerra de precios que ha hecho bajar el precio del uso de IA generativa, gracias en parte a un entorno regulatorio más laxo, menores costos laborales y subsidios gubernamentales.

Una startup de IA allí llamada DeepSeek, por ejemplo, cobra US$0,14 por millón de tokens para usuarios comerciales, mientras que un modelo similar de OpenAI cuesta US$10.

Y la eficiencia de los costos también proviene de los usuarios comerciales. Muchos se están dando cuenta de que no necesitan la IA más poderosa para darle a su personal una ventaja de productividad, por lo que están experimentando con modelos de peso abierto de empresas como Meta Platforms Inc. (META) o modelos más pequeños que son más baratos o más lentos .

Un chatbot de servicio al cliente puede necesitar una herramienta de IA de última generación que pueda hacer inferencias en tiempo real, pero ¿analizar las llamadas de los clientes para mejorarlas? Eso se puede hacer con tecnología menos avanzada.

Man Group Plc, una firma global de gestión de activos, me dice que los modelos que está utilizando para resumir textos para sus gestores de cartera, o para reducir el trabajo diario a 30 minutos para el resto del personal, están efectivamente bajando de precio. Pero hay dudas persistentes sobre cuán sostenible será esa trayectoria de precios en el futuro.

Silicon Valley tiene un historial de subvencionar los precios, con plataformas de streaming (transmisión), aplicaciones de viajes compartidos y servicios en la nube que se ven afectados en sus márgenes para aumentar su participación de mercado. El objetivo es superar a la competencia y eventualmente aumentar los precios, volviéndose rentable.

Pero este es el punto de fricción para la IA generativa: todavía hay una amplia duda sobre cuán útil puede ser para los resultados de una empresa, lo que según Gartner es la razón principal de su predicción de que el 30% de los proyectos serán abandonados para fines del próximo año.

Si la tecnología se queda estancada en la distribución de chatbots y la síntesis de texto, es posible que ni siquiera valga la pena pagar el precio más bajo. Ese es el problema que las empresas tecnológicas deberían abordar más que otras, incluso el coste.

Esta nota no refleja necesariamente la opinión del consejo editorial de Bloomberg LP y sus propietarios.

Lea más en Bloomberg.com