Bloomberg — La inteligencia artificial (IA) es hoy el nuevo y flamante juguete del sector tecnológico, que espera transformar sectores que manejan miles de millones de dólares, desde la venta al por menor hasta la salud. No obstante, la elaboración de cada nuevo chatbot y generador de imagen necesita mucha energía eléctrica, lo que implica que la tecnología podría ser la causante de una enorme y cada vez mayor cantidad de emisiones de carbono que calientan la Tierra.
Microsoft Corp. (MSFT), Google de Alphabet Inc (GOOGL). y OpenAI, creador de ChatGPT, emplean sistemas de computación en la nube que emplean miles de chips alojados en servidores de gigantescos en centros de datos distribuidos por todo el mundo para adiestrar algoritmos de inteligencia artificial llamados modelos, que analizan información con el fin de facilitarles el “aprendizaje” de tareas. Debido al gran éxito de ChatGPT, otras compañías se precipitan a sacar al mercado sus propios sistemas de inteligencia artificial y chatbots rivales, o a desarrollar nuevos productos que usen extensos modelos de inteligencia artificial para ofrecer funcionalidades a todo el mundo, desde los consumidores de Instacart a los internautas de Snap, o incluso a los directores de finanzas.
La inteligencia artificial utiliza más energía que otros tipos de informática, y el proceso de entrenamiento de un solo modelo puede requerir más energía eléctrica de la que emplean 100 familias estadounidenses durante un año. No obstante, el desarrollo del sector es tan acelerado y la transparencia tan escasa que no se conoce con precisión el consumo total de energía eléctrica y la cantidad de emisiones de carbono que pueden atribuírsele. Además, las emisiones también podrían diferir considerablemente en función de la clase de central que proporcione esa electricidad: por ejemplo, un centro de datos alimentado por una central de carbón o gas natural generará muchas más emisiones de carbón que uno que funcione con energía solar o eólica.
Aunque los especialistas han inventariado las emisiones derivadas de la elaboración de un solo modelo y ciertas compañías han facilitado información sobre su consumo energético, no disponen de estimaciones globales sobre el volumen energético total que utiliza esta tecnología. La investigadora Sasha Luccioni, de la empresa de IA Hugging Face Inc, elaboró un documento en el que calculaba el impacto en las emisiones de carbono de BLOOM, el competidor de GPT-3 creado por OpenAI. Asimismo, ha tratado de calcular lo mismo para el éxito viral de OpenAI, ChatGPT, partiendo de un volumen limitado de datos a disposición del público.
“Estamos hablando de ChatGPT y no sabemos nada al respecto”, dijo. “Podrían ser tres mapaches en una gabardina”.
Mayor transparencia
Investigadores como Luccioni dicen que necesitamos transparencia sobre el uso de energía y las emisiones para los modelos de IA. Armados con esa información, los gobiernos y las empresas pueden decidir que usar GPT-3 u otros modelos grandes para investigar curas contra el cáncer o preservar las lenguas indígenas, vale la pena la electricidad y las emisiones, pero escribir guiones rechazados de Seinfeld o encontrar a Waldo no lo vale.
Una mayor transparencia también podría traer más escrutinio; la industria cripto podría proporcionar una historia de advertencia. Bitcoin (XBT) ha sido criticado por su enorme consumo de energía, utilizando tanto anualmente como Argentina, según el Índice de Consumo de Electricidad de Cambridge Bitcoin. Ese apetito voraz por la electricidad llevó a China a prohibir la minería y a Nueva York a aprobar una moratoria de dos años sobre nuevos permisos para criptominería impulsada por combustibles fósiles.
El entrenamiento de GPT-3, que es un único programa de inteligencia artificial de propósito general que puede generar lenguaje y tiene muchos usos diferentes, tomó 1.287 gigavatios hora, según un artículo de investigación publicado en 2021, o casi tanta electricidad como consumirían 120 hogares estadounidenses en un año. Ese entrenamiento generó 502 toneladas de emisiones de carbono, según el mismo documento, o aproximadamente lo que emiten 110 automóviles estadounidenses en un año. Eso es solo para un programa o “modelo”. Si bien el entrenamiento de un modelo tiene un enorme costo inicial de energía, los investigadores encontraron, en algunos casos, que es solo alrededor del 40% de la energía consumida por el uso real del modelo, con miles de millones de solicitudes de programas populares. Además, los modelos son cada vez más grandes. GPT-3 de OpenAI utiliza 175.000 millones de parámetros, o variables, que el sistema de IA ha aprendido a través de su entrenamiento y reentrenamiento. Su predecesor usó solo 1.500 millones.
OpenAI ya está trabajando en GPT-4, además, los modelos deben volver a capacitarse regularmente para mantenerse al tanto de los eventos actuales. “Si no vuelve a entrenar a su modelo, tendrá un modelo que no sabría sobre el Covid-19″, dijo Emma Strubell, profesora de la Universidad Carnegie Mellon, quien fue una de las primeras investigadoras en analizar el problema energético de la IA.
Otra medida relativa proviene de Google, donde los investigadores encontraron que la inteligencia artificial representó del 10 al 15% del consumo total de electricidad de la empresa, que fue de 18,3 teravatios hora en 2021. Eso significaría que la IA de Google quema alrededor de 2,3 teravatios hora al año, casi la misma cantidad electricidad cada año que todos los hogares en una ciudad del tamaño de Atlanta.
Compromisos netos cero
Si bien los modelos son cada vez más grandes en muchos casos, las empresas de IA también trabajan constantemente en mejoras que los hagan funcionar de manera más eficiente. Microsoft, Google y Amazon (AMZN), las compañías de nube más grandes de EE.UU., tienen compromisos de carbono negativo o neutral. Google dijo en un comunicado que está buscando emisiones netas cero en todas sus operaciones para 2030, con el objetivo de operar su oficina y centros de datos completamente con energía libre de carbono. La compañía también ha utilizado IA para mejorar la eficiencia energética en sus centros de datos, con la tecnología controlando directamente el enfriamiento en las instalaciones.
OpenAI citó el trabajo que ha realizado para hacer que la interfaz de programación de aplicaciones para ChatGPT sea más eficiente, reduciendo el uso de electricidad y los precios para los clientes. “Nos tomamos muy en serio nuestra responsabilidad de detener y revertir el cambio climático, y pensamos mucho en cómo hacer el mejor uso de nuestra potencia informática”, dijo un portavoz de OpenAI en un comunicado. “OpenAI se ejecuta en Azure y trabajamos en estrecha colaboración con el equipo de Microsoft para mejorar la eficiencia y nuestra huella para ejecutar modelos de lenguaje grandes”.
Microsoft señaló que está comprando energía renovable y tomando otras medidas para cumplir con su objetivo previamente anunciado de ser carbono negativo para 2030. “Como parte de nuestro compromiso de crear un futuro más sostenible, Microsoft está invirtiendo en investigación para medir el uso de energía y el impacto del carbono de la inteligencia artificial mientras trabaja en formas de hacer que los sistemas grandes sean más eficientes, tanto en capacitación como en aplicación”, dijo la compañía en un comunicado.
“Obviamente, a estas empresas no les gusta revelar qué modelo están usando y cuánto carbono emite”, dijo Roy Schwartz, profesor de la Universidad Hebrea de Jerusalén, quien se asoció con un grupo de Microsoft para medir la huella de carbono de una gran modelo de IA.
Hay formas de hacer que la IA funcione de manera más eficiente. Dado que la capacitación de IA puede realizarse en cualquier momento, los desarrolladores o los centros de datos podrían programar la capacitación para momentos en que la energía sea más barata o haya un excedente, lo que hace que sus operaciones sean más ecológicas, dijo Ben Hertz-Shargel de la consultora de energía Wood Mackenzie. Las empresas de inteligencia artificial que entrenan a sus modelos cuando hay un excedente de energía podrían promocionar eso en su marketing. “Puede ser algo bueno para ellos demostrar que están actuando de manera responsable y ecológica”, dijo Hertz-Shargel.
“Va a ser una locura”
La mayoría de los centros de datos usan unidades de procesamiento de gráficos o GPU (por sus siglas en inglés) para entrenar modelos de IA y esos componentes se encuentran entre los que más consumen energía en la industria de chips. Los modelos grandes requieren decenas de miles de GPU, y el programa de capacitación dura de semanas a meses, según un informe publicado por analistas de Morgan Stanley (MS) a principios de este mes.
Uno de los mayores misterios de la IA, según el investigador Luccioni son las emisiones totales de carbono asociadas con las GPU. Nvidia (NVDA), el mayor fabricante de GPU, dijo que cuando se trata de tareas de IA, pueden completar la tarea más rápidamente, haciéndolas más eficientes en general.
“El uso de GPU para acelerar la IA es mucho más rápido y eficiente que los CPU: por lo general, 20 veces más eficiente energéticamente para ciertas cargas de trabajo de IA y hasta 300 veces más eficiente para los modelos de lenguaje grande que son esenciales para la IA generativa”, dijo la compañía en un comunicado.
Si bien Nvidia ha revelado sus emisiones directas e indirectas relacionadas con la energía, no ha revelado todas las emisiones a las que responde indirectamente, dijo Luccioni, quien solicitó esos datos para su investigación.
Cuando Nvidia comparta esa información, Luccioni cree que las GPU quemarán tanto como las emisiones totales de un país pequeño. Ella dijo: “Va a ser una locura”.
Lea también:
¿Cómo queda Google en la carrera de la inteligencia artificial?