Según la Agencia Internacional de la Energía (AIE), las infraestructuras de la Inteligencia Artificial (IA) representarán el 3% de las necesidades mundiales de electricidad para el 2030. Desde 2022, el consumo energético se incrementó significativamente con el uso de modelos de lenguaje de gran tamaño --como Chat GPT--. Frente a esto, empresas y especialistas buscan formas de sortear el problema.

La complejidad de los modelos actuales --que contienen billones de parámetros-- hace que el entrenamiento represente cerca del 40% del consumo energético total del ciclo de vida de un modelo de IA, mientras que la fase de inferencia --el uso cotidiano del sistema-- representa el 60% restante. De todos modos, esto se basa en estimaciones, ya que los sistemas comerciales --como Chat GPT y Gemini-- no presentan datos verificables sobre su consumo energético real. Mosharaf Chowdhury, profesor asociado de la Universidad de Michigan, sostuvo que "no publicaron cifras reales ni artículos académicos".

La consultora de negocios estadounidense McKinsey --que ofrece servicios a multinacionales y gobiernos-- habla de una "carrera" para construir suficientes centros para "hacer frente a la aceleración masiva en el uso de la IA", al tiempo que advierte que se avecinan tiempos de escasez. Por esto, algunos apuntan a invertir en tecnología relacionada --técnicas de refrigeración, chips "más potentes" y mejoras en la programación-- para reducir el impacto.

"Hay varias formas de resolver el problema del consumo energético", adelantó Chowdhury. Para él, hay dos vías: crear más fuentes de energía --opción que convoca a los grandes de la IA-- o "reducir la demanda" de electricidad a una capacidad equivalente. Postula que las "soluciones inteligentes" pueden encontrarse en todos los niveles de la cadena de la IA, desde los equipos físicos hasta los algoritmos. Desde la misma universidad se postuló la reducción de parámetros, preservando su calidad.

Según Gareth Williams, de la consultora Arup, la energía necesaria para mantener un centro de datos representa hoy el 10% de lo que consumen los propios servidores, frente al 100% de hace 20 años. Esta reducción se puede atribuir --entre otras cosas-- al uso generalizado de la refrigeración líquida o por agua en vez de la ventilación convencional, que hace circular fluidos directamente por el interior de los servidores.

"Todos los grandes están buscando usar la refrigeración por agua", considera Williams, pues se está "en un punto en el que no tienes opción de no hacerlo". A principios de julio, Amazon presentó un nuevo sistema de refrigeración líquida llamado IRHX, que puede instalarse en un centro de datos sin necesidad de integrarlo en la arquitectura inicial. De todas formas, cada consulta a una IA tiene un coste hídrico.

Este procedimiento es necesario porque los servidores de la IA que operan en centros de datos generan cantidades masivas de calor al realizar los miles de cálculos necesarios para cada respuesta. Para evitar sobrecalentamientos, el sistema requiere enfriamiento constante: si no se enfría con agua, se utilizan sistemas eléctricos con un costo energético mayor. 

Nvidia --empresa de chips y semiconductores-- multiplicó por más de 100 el consumo de energía de un abanico de servidores en comparación con hace 20 años. El director de marketing de esta empresa, Dion Harris, advirtió que están estudiando tecnologías --como la computación fotónica y los semiconductores 2D--, para "evaluar hasta dónde podemos llevarlas".

En el laboratorio de Chowdhury se desarrollaron algoritmos para evaluar con precisión la cantidad de electricidad que necesita cada chip para funcionar, con un ahorro potencial del 20% al 30%.

El equipo dirigido por Yi Ding, profesor de la Universidad Purdue, en Indiana, demostró que es posible alargar la vida de los chips de IA más potentes, las GPU o tarjetas gráficas, "sin sacrificar el desempeño". A su vez, señaló que "es muy difícil convencer a los fabricantes de chips de que ganen menos dinero" e incentiven a los consumidores a utilizar los mismos equipos durante más tiempo.

El martes, el presidente estadounidense Donald Trump anunció  una inversión de más de 90 millones de dólares para IA e infraestructuras energéticas en Pensilvania, estado del noreste del país. "Tenemos que ganar la batalla por la innovación en IA en Estados Unidos, y Pensilvania está en el centro de ella", aseguró el senador Dave McCormick.