El director ejecutivo de Arm advierte que el apetito energético de la IA podría devorar el 25% de la electricidad de EE. UU. para 2030
El director ejecutivo de Arm, Rene Haas, advierte que si la IA continúa volviéndose más poderosa sin aumentar la eficiencia energética, los centros de datos podrían consumir cantidades extremas de electricidad.
Haas estima que, si bien el consumo de energía de los centros de datos de IA en EE. UU. se sitúa en un modesto cuatro por ciento, espera que la industria tienda a utilizar entre un 20 y un 25 por ciento de la red eléctrica de EE. UU. para 2030, según un informe del Wall Street Journal . En concreto, culpa a los populares modelos de lenguajes grandes (LLM, por sus siglas en inglés) como ChatGPT, que Haas describió como “insaciables en términos de su sed”.
El director ejecutivo de Arm no es el único que hace esta predicción. El informe Electricidad 2024 de la Agencia Internacional de Energía (AIE) [PDF] espera que el consumo de energía de los centros de datos de IA en todo el mundo sea diez veces mayor que en 2022. Parte del problema es que los LLM como ChatGPT requieren mucha más energía que los motores de búsqueda tradicionales. como Google. La AIE estima que una solicitud ChatGPT consume casi diez veces más energía que una búsqueda en Google.
Si Google cambiara su motor de búsqueda por completo a software y hardware de inteligencia artificial, aumentaría su consumo de energía diez veces según el informe, lo que requeriría 10 teravatios-hora (TWh) adicionales de electricidad por año. El informe Electricidad 2024 dice que será necesaria una regulación gubernamental para mantener bajo control el consumo de energía de los centros de datos (IA o no).
Es posible que algunos países, como Irlanda, incluso vean un tercio de su electricidad utilizada en centros de datos en 2026. Pero parece que la escasez de energía en Irlanda ya está comenzando. Los servidores de Amazon Web Service parecen verse obstaculizados por limitaciones de energía.
Aumentar la eficiencia, como sugiere Haas, es una posible solución a la crisis, ya que es difícil imaginar que los centros de datos reduzcan la energía al comprometer el rendimiento. Incluso si el hardware de IA y los LLM se vuelven más eficientes, eso no significa necesariamente que el uso de electricidad disminuirá. Después de todo, esa energía ahorrada podría usarse simplemente para ampliar la capacidad informática, manteniendo el mismo consumo de energía.
En cambio, aumentar la capacidad parece ser el camino a seguir para empresas como Amazon, que recientemente adquirió un centro de datos de energía nuclear en Pensilvania . Si bien el rápido aumento del consumo de energía a escala global probablemente no sea algo bueno y seguramente será muy costoso, al menos podría hacer que la energía sea más ecológica, tal vez, con suerte.
Fuente: theregister