Bloomberg Opinión — Todas las herramientas de IA generativa que utilizan los profesionales para ser más eficientes tienen un precio. No se trata sólo de una cuota de suscripción a OpenAI, Microsoft Corp. (MSFT) u otra empresa de IA, sino también de su privacidad.
Cada interacción con herramientas como ChatGPT requiere una conexión a Internet, y cada consulta se procesa en un servidor (esencialmente un ordenador mucho más potente que el que tienes en casa) en un vasto centro de datos. ¿Tu historial de conversaciones? A menudo se devuelve al modelo de IA para que lo siga entrenando, junto con tu información personal. Esto ha irritado a algunos empresarios preocupados por la seguridad de los datos.
Pero si el “cerebro” de una herramienta de IA viviera dentro de tu propio ordenador en lugar de reenviarse al de otra persona, la falta de privacidad podría no ser un problema tan grave. La gran esperanza para que esto ocurra es Apple Inc.
Apple es famoso por no ser el primero en llegar a la fiesta cuando se trata de nuevas tecnologías. Tardó en entrar en la carrera de los teléfonos inteligentes y no fue la primera en sacar un reloj inteligente, pero ahora domina el mercado de ambos porque se tomó el tiempo necesario para diseñar los dispositivos más fáciles de usar. Lo mismo ocurre con la IA. Construir la IA generativa más “inteligente” requiere chips potentes, y aunque Nvidia Corp. (NVDA) domina ese mercado para los servidores basados en la nube, Apple está bien posicionada para ser la primera en hacerlo con éxito en dispositivos más pequeños, aunque el auge de la IA generativa le haya pillado desprevenida. Porque aunque muchas empresas están intentando averiguar cómo procesar la IA en teléfonos y portátiles (sin tener que conectarse a un servidor en algún lugar), se están topando con limitaciones técnicas que pueden ser difíciles de superar sin los recursos de la empresa de hardware de Cupertino, valorada en US$3 billones.
Por un lado, Apple ya ha estado diseñando chips más potentes para sus teléfonos y portátiles, incluidos los avanzados chips de la serie M que proporcionan velocidades de procesamiento excepcionales. Los chips que Nvidia construye para procesar la IA en los servidores siguen siendo mucho más potentes, pero eso podría estar bien si los propios modelos de IA se hacen más pequeños y eficientes.
Esto apunta a otro fenómeno que impulsa la tendencia de los dispositivos: Mientras los principales creadores de IA, como OpenAI y Google, de Alphabet Inc. (GOOGL), se centran en hacer sus modelos lo más grandes posible, muchos otros intentan hacerlos más pequeños y más eficientes energéticamente. En los últimos años, OpenAI descubrió que podía hacer que sus grandes modelos lingüísticos sonaran mucho más fluidos y parecidos a los humanos si simplemente aumentaba los parámetros de sus modelos y la cantidad de potencia informática que utilizaban, lo que requería enormes servidores en la nube con potentes chips.
Para ponerlo en perspectiva, se rumorea que el GPT-4 de OpenAI tiene más de 1 billón de parámetros, mientras que Amazon está trabajando en un modelo lingüístico llamado Olympus que tiene 2 billones. Pero Mistral, una startup francesa de IA fundada por antiguos científicos investigadores de Google DeepMind y Meta Platforms Inc (META), está trabajando en modelos de lenguaje con una fracción de esa cifra: su último modelo de lenguaje de código abierto tiene poco más de 40.000 millones de parámetros, pero funciona igual de bien que la versión gratuita actual de ChatGPT (y su modelo subyacente GPT-3.5), según la empresa.
Algunos desarrolladores de software están aprovechando el trabajo de Mistral para poner en marcha más servicios privados de IA. Gravity AI, una startup con sede en San Francisco, por ejemplo, ha lanzado recientemente un asistente de IA que funciona en portátiles Apple y no necesita conexión a Internet. Está basado en el último y más pequeño modelo de Mistral y funciona de forma similar a ChatGPT.
“No deberías tener que sacrificar la privacidad por la comodidad”, dice Tye Daniel, cofundador de Gravity AI. “Nunca venderemos tus datos”. Ahora mismo Gravity es gratuito, pero la startup planea cobrar a los clientes una suscripción con el tiempo. Como modelo de negocio, la IA en el dispositivo promete mejores márgenes que los servicios de IA que necesitan estar vinculados a la nube. Eso se debe a que los desarrolladores tienen que pagar a proveedores de la nube como Amazon.com Inc. (AMZN) o Microsoft enormes sumas cada vez que un cliente utiliza su herramienta de IA, ya que eso requiere la potencia de procesamiento de los servidores de esas grandes empresas tecnológicas.
“Hablé con un fundador que está creando una herramienta [de IA] similar en la nube”, dice Daniel. “Me dijo: ‘La única forma que tenemos de ganar dinero es si la gente no utiliza el producto’”. Puede que suene contraintuitivo, pero incluso el director general de OpenAI, Sam Altman, se ha quejado de los dolorosos costes de funcionamiento de ChatGPT para sus clientes. “Nos encantaría que lo utilizaran menos”, dijo a los legisladores el año pasado. (Nada de eso es un problema para los gigantes de la nube como Google y Microsoft, por supuesto, porque no sólo crean servicios de IA, sino que alquilan los servidores que necesitan para alimentarlos).
Apple también está trabajando en hacer más pequeños los modelos de IA, al igual que la empresa francesa Mistral, para poder ejecutarlos en sus propios dispositivos. Esto está muy en consonancia con su enfoque de “jardín amurallado” de todo lo que construye. El pasado diciembre, sus investigadores de IA anunciaron un gran avance en la ejecución de herramientas avanzadas de IA en iPhones, mediante la racionalización de grandes modelos lingüísticos utilizando algo llamado optimización del almacenamiento flash.
Aquí es donde las cosas se ponen un poco técnicas, y donde una IA más privada podría seguir siendo una quimera durante muchos meses o incluso años. Los grandes modelos lingüísticos no sólo necesitan potencia de procesamiento, sino también memoria para funcionar bien, e incluso en los portátiles y teléfonos más robustos, estas herramientas de IA se topan con el llamado “muro de la memoria”. Esa es una de las razones por las que, cuando intenté ejecutar el asistente de IA Gravity en mi MacBook, tardó 30 segundos o más en procesar algunas de mis consultas, y las demás aplicaciones que se ejecutaban en mi máquina se congelaron mientras esperaba.
Todos los ojos están puestos ahora en Apple para ver si puede resolver este dilema técnico. Los modelos de IA no sólo son privados, sino más baratos de ejecutar y mejores para el medio ambiente, dado todo el carbono que las granjas de servidores arrojan al aire. Apple tiene que actuar con rapidez si quiere encoger potentes modelos de IA en sus teléfonos: Las ventas de teléfonos inteligentes se están estancando en todo el mundo, y su archirrival Samsung ya está consiguiendo reducir también los modelos de IA. Si Apple tiene éxito, podría iniciarse un cambio en el campo de la IA que beneficie a más partes que la de Cupertino.
Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.