Nvidia Corp. (NVDA) registró un incremento en su valor de mercado de US$207.000 millones dos días después de que la empresa estadounidense de desarrollo de chips comunicara el pasado 24 de mayo sus sorprendentes perspectivas de beneficios, justo después de una época de noticias negativas para la industria de los semiconductores. No obstante, existe un conjunto de otras compañías del sector tecnológico que podrían obtener aún más beneficios gracias al auge de la IA.
Son muchas las formas de contextualizar este pronóstico y su consiguiente reacción. El dato de ventas supone un 53% más de lo que preveían los analistas y un 33% superior al último récord de la compañía, obtenido en marzo del 2022. El alza del primer día constituyó el tercero mayor aumento en la historia estadounidense, en tanto que la subida de dos días sobrepasó la capitalización bursátil de todos los valores del mundo, salvo 48.
Algunas de las compañías eclipsadas por el fuerte aumento del valor de Nvidia (US$200.000 millones) se encuentran dos de las principales propulsoras de la revolución de la inteligencia artificial. Entre ellas, la coreana SK Hynix Inc. (000660)y Micron Technology Inc. (MU), basada en Boise, comandan el 52% del mercado global de memoria dinámica de acceso aleatorio. Juntas valen apenas US$140.000 millones. Su rival, Samsung Electronics Inc. (005930) representa el 43% de la industria de DRAM, tan solo 1 de los 4 sectores globales que encabeza, con un valor de US$317.000 millones.
Para que despegue el ramo de la inteligencia artificial generativa, como piensan Nvidia y sus clientes, es preciso que gigantes consolidados como Microsoft Corp. (MSFT) y nuevos actores como OpenAI se lancen a luchar contra Samsung, SK Hynix y Micron.
Las máquinas que procesan montones de datos, analizan patrones en video, audio y texto, y escupen réplicas de contenido creado por humanos, necesitarán chips de memoria. De hecho, es probable que las empresas de IA compren más DRAM que cualquier otra porción del sector tecnológico en la historia.
El motivo de esta demanda de chips de memoria es bastante sencillo: los chips de IA de Nvidia se diferencian de los procesadores estándar al inhalar grandes cantidades de datos de un solo trago, procesar números de una sola vez y luego escupir los resultados de una sola vez. Pero para que esta ventaja de poder se materialice, necesitan que la información se introduzca en la computadora rápidamente y sin demora. Ahí es donde entran los chips de memoria.
Los procesadores no leen los datos directamente desde un disco duro, eso es demasiado lento e ineficiente. La primera opción es mantenerlo en almacenamiento temporal dentro del propio chip. Pero no hay suficiente espacio para guardar mucho aquí: los fabricantes de chips prefieren dedicar este valioso espacio a funciones de procesamiento de números. Entonces, la segunda mejor opción es usar DRAM.
Cuando procesa miles de millones de piezas de información de una sola vez, necesita que los datos estén a mano y que se entreguen rápidamente. La falta de DRAM adecuada en un sistema ralentizará significativamente una computadora, neutralizando el valor de gastar US$10,000 en los mejores procesadores para ejecutar chatbots sofisticados. Lo que significa que por cada procesador de inteligencia artificial de gama alta comprado, se puede instalar hasta 1 terabyte de DRAM, eso es 30 veces más que una computadora portátil de gama alta.
Tal hambre de memoria significa que la DRAM vendida para su uso en servidores superará a la instalada en los teléfonos inteligentes en algún momento de este año, según el investigador TrendForce Corp. con sede en Taipei.
Estos sistemas también deben poder guardar grandes cantidades de su salida cerca para que se pueda leer y escribir rápidamente. Eso se hace en NAND Flash, los mismos chips que se usan en los teléfonos inteligentes y en la mayoría de las computadoras portátiles modernas. Samsung es el líder mundial en este espacio, seguido por Kioxia Holdings Corp. de Japón (una escisión de Toshiba Corp.) y SK Hynix.
Juntos, DRAM y NAND representaron US$8.900 millones de ingresos en Samsung el último trimestre, superando con creces los US$4.300 millones que obtuvo Nvidia de su negocio de centro de datos, que incluye productos utilizados para IA. Sin embargo, para poner eso en contexto, este fue el peor desempeño de la división de memoria de Samsung en siete años, y sus ventas de memoria relacionadas con IA son solo una fracción de los ingresos totales.
Ambas cifras están destinadas a crecer. Por cada chip de inteligencia artificial de gama alta vendido a los clientes, se enviará otra docena de chips DRAM, y eso significa más ingresos para Samsung, SK Hynix y Micron. A medida que Nvidia crezca, también lo harán estas tres empresas que controlan colectivamente el 95% del mercado de DRAM.
No hay duda de que la revolución de la IA está aquí, con los creadores de geniales chatbots, omnipresentes motores de búsqueda y procesadores de alta potencia entre los mayores ganadores. Pero tampoco se quedarán fuera aquellos que producen viejos y aburridos chips de memoria.
Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.
Lea más en Bloomberg.com