NUEVA YORK.- Gracias a nuevas técnicas de refrigeración, chips más potentes y avances en programación, el sector de la inteligencia artificial (IA) trata de limitar su consumo de energía en un contexto de crecimiento frenético.
Las infraestructuras de IA se basan en centros de datos que, según las previsiones de la Agencia Internacional de la Energía (AIE), representarán en torno al 3% de las necesidades mundiales de electricidad de aquí a 2030, el doble de la proporción actual
NUEVA YORK.- Gracias a nuevas técnicas de refrigeración, chips más potentes y avances en programación, el sector de la inteligencia artificial (IA) trata de limitar su consumo de energía en un contexto de crecimiento frenético.
Las infraestructuras de IA se basan en centros de datos que, según las previsiones de la Agencia Internacional de la Energía (AIE), representarán en torno al 3% de las necesidades mundiales de electricidad de aquí a 2030, el doble de la proporción actual.
El martes, el presidente Donald Trump tiene previsto visitar Pensilvania para anunciar, según varios medios locales, unos 70.000 millones de dólares de inversión para IA e infraestructuras energéticas en este estado del noreste de Estados Unidos.
La consultora McKinsey habla de una "carrera" para construir suficientes centros para "hacer frente a la aceleración masiva en el uso de la IA", al tiempo que advierte que se avecinan tiempos de escasez.
"Hay varias formas de resolver el problema", adelanta Mosharaf Chowdhury, profesor asociado de la Universidad de Míchigan.
"Una es crear más fuentes de energía", una vía en la que también están embarcados los pesos pesados de la IA, otra es "reducir la demanda" de electricidad a una capacidad equivalente, explica.
Para el profesor, las "soluciones inteligentes" pueden encontrarse en todos los niveles de la cadena de la IA, desde los equipos físicos hasta los algoritmos.
Según Gareth Williams, de la consultora Arup, la energía necesaria para mantener un centro de datos representa hoy el 10% de lo que consumen los propios servidores, frente al 100% de hace 20 años.
Esta reducción se puede atribuir, entre otras cosas, al uso generalizado de la refrigeración líquida o por agua en vez de la ventilación convencional, que hace circular fluidos directamente por el interior de los servidores.
"Todos los grandes están buscando usar la refrigeración por agua", considera Williams, pues se está "en un punto en el que no tienes opción de no hacerlo".
Los nuevos chips del rey de la IA, el gigante de los semiconductores Nvidia, han multiplicado por más de 100 el consumo de energía de un abanico de servidores en comparación con hace 20 años.
Como consecuencia, el líquido puede alcanzar temperaturas mucho más altas que antes, indica Williams, pero paradójicamente esto facilita su enfriamiento al estar en contacto con el aire exterior, dada la diferencia de temperatura.
A principios de julio, Amazon presentó un nuevo sistema de refrigeración líquida llamado IRHX, que puede instalarse en un centro de datos sin necesidad de integrarlo en la arquitectura inicial.
Otro avance es que los centros de datos están ahora equipados con sensores que pueden ser utilizados por la IA para controlar la temperatura no a escala de todo el centro sino por "zonas muy pequeñas" y "optimizar el consumo de agua y electricidad" por adelantado, según Pankaj Sachdeva, socio senior de McKinsey.
El laboratorio de Mosharaf Chowdhury ha desarrollado algoritmos para evaluar con precisión la cantidad de electricidad que necesita cada chip para funcionar, con un ahorro potencial del 20% al 30%.
Asimismo, se ha avanzado en los propios microprocesadores.
"Con cada generación de chips y diseño de las GPU (unidades de procesamiento gráfico) a un nivel de semiconductores, estás comenzando a ser más eficiente en cuanto a poder", recordó Sachdeva.
El equipo dirigido por Yi Ding, profesor de la Universidad Purdue, en Indiana, demostró que es posible alargar la vida de los chips de IA más potentes, las GPU o tarjetas gráficas, "sin sacrificar el desempeño", indica a la AFP.
"Es muy difícil convencer a los fabricantes de chips de que ganen menos dinero" e incentiven a los consumidores a utilizar los mismos equipos durante más tiempo, añade.
La partida también se juega en la programación y entrenamiento de modelos generativos de IA a gran escala.
En enero, la empresa china DeepSeek presentó su modelo R1 de IA generativa, cuyo rendimiento es similar al de los principales actores estadounidenses, aunque está desarrollado con GPU menos potentes.
Los ingenieros de la start-up lo consiguieron al programar las tarjetas gráficas con mayor precisión. También se saltaron prácticamente una etapa de entrenamiento en el modelo, antes considerada indispensable.
Sin embargo, pese a estos avances tecnológicos, "no hay manera de reducir el consumo de energía debido a algo llamado la paradoja de Jevons", predice Ding.
El economista británico William Stanley Jevons (1835-1882) proclamó que el uso más eficiente de un recurso limitado aumenta mecánicamente la demanda pues su costo disminuye.
"Es altamente probable que siga incrementando", advierte Ding, a pesar de los esfuerzos para limitarlo, "pero quizás a una menor velocidad".
FUENTE: Con información de AFP