Por Andy Lawrence, miembro fundador y director ejecutivo de investigación del Uptime Institute


El año pasado, Uptime Intelligence recibió más preguntas sobre la IA generativa y su impacto en el sector de los centros de datos que sobre cualquier otro tema. Las preguntas provienen de operadores empresariales y de coubicación, proveedores de una amplia variedad de equipos y servicios, reguladores y medios de comunicación.

La mayoría de las preguntas se refieren al consumo de energía. Los clústeres de cómputo, necesarios para la creación y el uso eficiente de modelos de IA generativos, consumen una enorme cantidad de energía, lo que genera un aumento en la demanda proyectada de capacidad y, para los operadores, desafíos en la distribución de energía y la refrigeración en el centro de datos.

Las preguntas sobre la energía suelen clasificarse en tres grupos. El primero se centra en "¿Qué significa la IA generativa para la densidad, la distribución de energía y la refrigeración en el centro de datos?".

Uptime Intelligence considera que las afirmaciones sobre la falta de densidad son exageradas. Si bien los sistemas de IA para entrenar modelos de IA generativos, equipados con aceleradores Nvidia, son mucho más densos de lo habitual, no son extremos y se pueden gestionar distribuyéndolos en más gabinetes.

Además, la IA generativa tiene un efecto indirecto en la mayoría de los operadores de centros de datos en forma de presiones adicionales en la cadena de suministro. Con los plazos de entrega de algunos equipos clave, como generadores de motores, transformadores y unidades de distribución de energía, la demanda imprevista de una mayor capacidad por parte de la IA generativa, que ya es anormalmente larga, ciertamente no ayudará.

El segundo conjunto de preguntas se relaciona con la disponibilidad de energía en una región o red determinada, y especialmente de energía baja en carbono. Este es también un problema crítico y práctico que los operadores y las empresas de servicios públicos están tratando de comprender. Los clústeres más grandes para entrenar grandes modelos de IA generativa comprenden cientos de nodos de servidor y consumen varios megavatios de energía a plena carga. Sin embargo, los problemas están en gran medida localizados y tampoco son el foco aquí.

La IA generativa y la potencia global

En cambio, el foco de este informe es la tercera pregunta típica: “¿Cuánta energía global utilizará o requerirá la IA?”

Si bien en términos prácticos inmediatos esto no es una preocupación clave para la mayoría de los operadores de centros de datos, las cifras principales darán forma a la cobertura de los medios y a la opinión pública, lo que en última instancia impulsará la acción regulatoria.

Sin embargo, algunas de las cifras sobre el poder de la IA que circulan en la prensa y en conferencias, citadas por personas influyentes clave y otras partes, son extremadamente altas. Si son exactas, estas cifras sugieren que se avecinan grandes desafíos en materia de infraestructura y regulación; sin embargo, cualquier pronóstico excesivamente alto puede incitar a los reguladores a reaccionar exageradamente.

Entre los pronósticos más altos se encuentra el del respetado equipo de investigación de Schneider Electric, que estimó la demanda de energía de IA en 4 GW, equivalentes a 35 TWh si se anualizan, en 2023, aumentando alrededor de 15 GW (131 TWh si se anualizan) en 2028. Lo más probable es que estas cifras incluyan todas las cargas de trabajo de IA y no solo los nuevos modelos generativos.

Además, Alex de Vries, de la plataforma de tendencias digitales Digiconomist, cuyos cálculos del uso de energía de Bitcoin han sido influyentes, estimó el uso de la carga de trabajo de IA en 85 TWh a 134 TWh para 2027. Estas cifras sugieren que la IA podría agregar entre un 30 y un 50 por ciento o más a la demanda global de energía de los centros de datos en los próximos años.

Hay dos razones por las que Uptime Intelligence considera que estos escenarios son demasiado optimistas. En primer lugar, las estimaciones sobre la potencia de todas las cargas de trabajo de IA son problemáticas tanto para la taxonomía (qué es la IA) como para la improbabilidad de realizar un seguimiento significativo de la misma. Además, la mayoría de las formas de IA ya están contempladas en la planificación de la capacidad, a pesar de que la IA generativa es inesperada.

En segundo lugar, las proyecciones que abarcan un horizonte más allá de 12 a 18 meses conllevan altos niveles de incertidumbre.

Algunas de las cifras citadas anteriormente implican un aumento de aproximadamente mil veces en la capacidad de cómputo de IA en 3 a 4 años a partir del primer trimestre de 2024, teniendo en cuenta la evolución de la tecnología de hardware y software. Esto no solo es algo sin precedentes, sino que también tiene fundamentos comerciales débiles si se consideran los cientos de miles de millones de dólares que se necesitarían para construir toda esa infraestructura de IA.

Uptime Intelligence adopta una visión más conservadora con sus estimaciones, pero estas estimaciones aún indican un uso de energía en rápido aumento por parte de los nuevos modelos de IA generativa de gran tamaño.

Para llegar a nuestras cifras, hemos estimado los envíos actuales y la base instalada de sistemas basados ​​en Nvidia hasta el primer trimestre de 2025 y el probable consumo de energía asociado con su uso. Los sistemas basados ​​en los aceleradores de centros de datos de Nvidia, derivados de las GPU, dominan el mercado de aceleradores de modelos de IA generativa y seguirán haciéndolo hasta al menos mediados de 2025 debido a una ventaja arraigada en la cadena de herramientas de software.

Hemos considerado una variedad de factores técnicos y de mercado para calcular los requisitos de energía de la infraestructura de IA generativa: perfiles de carga de trabajo (actividad de carga de trabajo, utilización y simultaneidad de carga en un clúster), el equilibrio cambiante entre entrenamiento e inferencia, y la PUE promedio del centro de datos que alberga los sistemas de IA generativa.

Estos datos respaldan nuestra opinión anterior de que el impacto inicial de la IA generativa es limitado, más allá de unas pocas docenas de sitios grandes. Para el primer trimestre de 2024, estimamos que el uso anualizado de energía por parte de los sistemas Nvidia instalados será de alrededor de 5,8 TWh. Sin embargo, esta cifra aumentará rápidamente si Nvidia cumple con sus objetivos previstos de ventas y envíos. Para el primer trimestre de 2025, la infraestructura de IA generativa instalada podría representar 21,9 TWh de consumo anual de energía.

Esperamos que estas cifras cambien a medida que surja nueva información, pero son indicativas. Para ponerlas en perspectiva, el consumo total de energía de los centros de datos a nivel mundial se ha estimado de diversas formas entre 200 TWh y 450 TWh por año en los períodos de 2020 a 2022. (Las metodologías y los términos de los distintos estudios varían ampliamente y sugieren que los centros de datos utilizan entre el 1 % y el 4 % de toda la electricidad consumida). Al tomar una cifra media de 300 TWh para el consumo anual de energía de los centros de datos a nivel mundial, Uptime Intelligence sitúa la energía anualizada de la IA generativa en alrededor del 2,3 % del consumo total de energía de la red por parte de los centros de datos en el primer trimestre de 2024. Sin embargo, esto podría alcanzar el 7,3 % en el primer trimestre de 2025.

Panorama

Estas cifras indican que, actualmente, el consumo de energía de la IA generativa no tiene un impacto disruptivo, dado el crecimiento explosivo del sector de los centros de datos en los últimos años. La proporción de consumo de energía de la IA generativa en relación con su espacio es descomunal, dada su probable utilización muy alta. La proporción de la capacidad de los centros de datos por energía caerá en un dígito bajo o medio incluso para fines de 2025.

Sin embargo, se trata de un aumento espectacular que sugiere que la IA generativa podría representar un porcentaje mucho mayor del consumo total de energía de los centros de datos en los próximos años. Inevitablemente, el aumento debe desacelerarse, también en gran parte porque los sistemas de IA más nuevos construidos en torno a aceleradores mucho más eficientes desplazarán en masa a la base instalada en lugar de agregar nueva infraestructura neta.

Si bien Uptime Intelligence cree que algunas de las estimaciones sobre el uso de energía de la IA generativa (y del centro de datos) son demasiado altas, el marcado aumento (y la concentración de la demanda en ciertas regiones) aún serán lo suficientemente altos como para atraer y estimular la atención regulatoria.


Este artículo fue escrito junto con Daniel Bizo.