“La IA generativa es la tecnología que define nuestro tiempo”, declaró el CEO de Nvidia, Jensen Huang, sin darse cuenta de que no se le da importancia, en la conferencia para desarrolladores GTC de su empresa en marzo. “Las GPU Blackwell son el motor que impulsa esta nueva revolución industrial”.

Huang habló en el lanzamiento de Blackwell, la última arquitectura de GPU diseñada por Nvidia para entrenar y ejecutar sistemas de inteligencia artificial. Como es habitual, ofrece mejoras importantes en rendimiento y eficiencia en comparación con su predecesora, la serie Hopper.

NVIDIA Blackwell Architecture Image
Las GPU Blackwell de Nvidia son los primeros chips refrigerados por líquido directo de la compañía – Nvidia

Pero incluir cada vez más transistores (la GPU B100 tiene 208 mil millones, en comparación con los 80 mil millones de la generación anterior H100) en un solo chip tiene un precio. Nvidia dice que los primeros dispositivos de la serie Blackwell requieren de 700W a 1.200W de potencia cada uno, hasta un 40 por ciento más que el H100, y cuentan con capacidad de refrigeración líquida directa por primera vez.

Para los operadores de centros de datos, la creciente demanda de servidores de alta densidad con procesadores centrados en IA de Nvidia y otros proveedores presenta un desafío: cómo mantener fríos los racks llenos de GPU a medida que aumentan sus requisitos de energía y generan cada vez más calor.

Para muchas empresas, esto significa rediseñar sus sistemas para que puedan utilizar racks preparados para IA, utilizando técnicas de refrigeración líquida emergentes, que están demostrando ser más eficaces que la refrigeración por aire tradicional. Queda por ver si la IA generativa se convertirá en la tecnología definitoria de la era actual o si será un triunfo de la publicidad sobre la sustancia, pero sin duda está redefiniendo la forma en que los centros de datos abordan el enigma de la refrigeración.

Patatas fritas calientes

Si bien en la industria se habla mucho de racks de hasta 100 kW de densidad, la realidad en la mayoría de los centros de datos es algo más liviana. El informe 2024 Data Center Global Outlook de JLL, publicado en enero, muestra que la densidad promedio en todos los racks de los centros de datos es de 12,8 kW, cifra que aumenta a 36,1 kW si solo se tienen en cuenta las instalaciones a hiperescala, donde se ejecutan la mayoría de las cargas de trabajo de IA.

Sin embargo, el informe espera que esta cifra aumente a un promedio de 17,2 kW en todos los centros de datos para 2027, llegando a 48,7 kW para las instalaciones de hiperescala.

La tecnología evoluciona a un ritmo acelerado y los operadores de centros de datos deben afrontar el desafío de estar preparados para un futuro de alta densidad y, al mismo tiempo, satisfacer las necesidades diarias de sus clientes. “Tenemos que ser todo para todos”, afirma Tom Kingham, director sénior de diseño en CyrusOne.

“Hemos visto los anuncios recientes de Nvidia sobre los chipsets Blackwell, que están refrigerados por líquido y tienen densidades increíbles. Así que sabemos que eso está por venir, y el desafío para nosotros es que los centros de datos que estamos diseñando ahora no entrarán en funcionamiento hasta dentro de tres años.

“Necesitamos tener la flexibilidad para saber que podemos hacer frente a un requisito del cliente ahora y poder hacerlo dentro de tres años, cuando el proyecto esté en marcha. Y como queremos un plazo de arrendamiento de entre 10 y 15 años, nos gustaría que al menos fuera algo relevante también al final de ese plazo”.

CyrusOne, que se centra en proporcionar servicios de centros de datos al mercado de hiperescala y cuenta con el respaldo de KKR y Global Infrastructure Partners, ha presentado una solución que denomina Intelliscale, un enfoque modular para la construcción de centros de datos. La empresa afirma que podrá alojar racks de hasta 300 kW de densidad.

Para hacer frente a las demandas de refrigeración de estos bastidores, el sistema puede equiparse con una combinación de tecnologías de refrigeración líquida, que abarcan la refrigeración líquida directa al chip (DLC), la refrigeración por inmersión y el intercambio de calor de la puerta trasera, así como la refrigeración por aire tradicional. Esta es una "progresión natural" de lo que la empresa ya estaba haciendo, dice Kingham. "Hemos estado utilizando salas de plantas eléctricas modulares, enfriadores empaquetados y productos de refrigeración que forman bloques de 1,5 MW", explica. "Juntamos tantos de esos bloques como necesitamos para alcanzar la capacidad del centro de datos.

“Todo lo que hemos hecho con Intelliscale es agregar algunos componentes adicionales que nos brindan la flexibilidad para que el centro de datos se enfríe por líquido o por aire, o para usar cosas como enfriamiento por inmersión”.

Kingham afirma que CyrusOne está cubriendo sus apuestas en lo que respecta a qué tipos de tecnología de refrigeración preferirán los clientes y los proveedores de equipos. “En este momento, tenemos que ofrecer de todo”, afirma. “Pero parece que el DLC es el método preferido en este momento. Con eso, viene un elemento de una configuración híbrida donde el chip se enfriará con líquido, pero otros componentes, como la unidad de fuente de alimentación, aún necesitarán algo de aire”.

Un futuro líquido

Otros proveedores también están recurriendo a la refrigeración líquida en un intento de hacer frente a la demanda de alta densidad. Equinix anunció en diciembre que estaba poniendo a disposición soluciones de refrigeración líquida en más de 100 de sus centros de datos en todo el mundo, sin especificar el tipo de densidades que podía manejar.

Stack Infrastructure lanzó una oferta de alta densidad en enero y afirmó que podría admitir hasta 30 kW por rack con refrigeración por aire tradicional, hasta 50 kW por rack con intercambiadores de calor de puerta trasera y hasta 100 kW por rack con DLC. La empresa afirmó que tiene la intención de admitir 300 kW o más por rack con refrigeración por inmersión en el futuro.

Aligned está promocionando un producto similar, conocido como DeltaFlow, que dice puede soportar requisitos de computación de alta densidad y supercomputadoras, y puede enfriar densidades de hasta 300 kW por rack.

Digital_Realty -- Digital Loyang ii SIN12 -- Singapore.jpg
Digital Realty se centra en la refrigeración de racks de alta densidad en sus centros de datos – Digital Realty

La solución de alta densidad de Digital Realty llegó al mercado el año pasado, con capacidad para hasta 70 kW. En mayo, la empresa reveló que duplicaría esta capacidad hasta los 150 kW y que añadiría DLC a la combinación. Ahora está disponible en 170 centros de datos de la empresa, lo que representa casi la mitad de su cartera.

“Ya tenemos una demanda muy fuerte de cargas de trabajo de IA y HPC en una variedad de segmentos comerciales”, dice Scott Mills, vicepresidente sénior de ingeniería y soluciones para clientes en Digital Realty. “Eso abarca desde sectores como minerales y minería hasta farmacéuticos y servicios financieros. A nivel de gabinetes, estamos viendo que las densidades aumentan de 30 gabinetes a 70, y dentro de esos 70 gabinetes puede haber 500 kW o puede haber 10 MW”.

Mills afirma que para que la plataforma de Digital pueda hacer frente a todas estas densidades diferentes de forma eficaz, es importante poder "conectar" nuevos sistemas de refrigeración como DLC. Afirma que la empresa tiene intención de seguir ampliando su oferta: "Seguiremos haciéndolo y el plan es ampliar la plataforma a medida que estén disponibles nuevas tecnologías", afirma.

Encima del tejado

Poner a disposición nuevas tecnologías de refrigeración es una cosa, pero adaptarlas a los centros de datos existentes es un desafío totalmente diferente.

Kingham, de CyrusOne, afirma que la empresa se enfrenta actualmente al reto de adaptar sus unidades Intelliscale a un centro de datos que diseñó hace apenas un año. “Ya estamos viendo demandas de los clientes para convertirlo en una instalación refrigerada por líquido”, afirma. “Básicamente, no es muy difícil, porque ya estábamos instalando un sistema de agua de circuito cerrado en el edificio, pero las densidades son mucho más altas que nuestro desafío es conseguir suficiente equipo de rechazo de calor en el edificio”.

Los sistemas de rechazo de calor suelen instalarse en el techo del centro de datos, lo que está muy bien a menos que el espacio del techo se esté reduciendo. “Nuestra hipótesis inicial era que podíamos hacer los centros de datos más pequeños porque los racks se están volviendo más densos, por lo tanto, podríamos hacer las salas más pequeñas”, dice Kingham.

“Pero eso significa que no tenemos suficiente espacio en el techo para colocar toda la planta de rechazo de calor. Y no necesariamente tenemos suficiente espacio en el edificio para coordinar toda la distribución de energía para esos bastidores, porque ahora la distribución de energía es mucho más grande. Por lo tanto, en realidad estamos descubriendo que las salas no necesariamente se están haciendo más pequeñas, pero ahora el enfoque está en tratar de sacar el calor del edificio de manera eficiente”.

CyrusOne Intelliscale.jpg
El sistema Intelliscale de CyrusOne se está instalando en sus centros de datos – CyrusOne

Por otra parte, Kingham afirma que lograr que la refrigeración líquida sea rentable (“hay muchos más equipos en este tipo de diseño”) también es un desafío para su equipo, al tiempo que surgen nuevos peligros. “Estamos acercando la refrigeración a donde está el calor, por lo que hay menos margen de seguridad y, si algo saliera mal, saldrá mucho peor que antes”, añade Kingham. “Y, por otro lado, si el agua no llega al chip, se calentará rápidamente”.

Desde un punto de vista operativo, la presencia de refrigeración líquida está cambiando la forma en que funcionan los centros de datos, afirma Mills de Digital Realty. “Hay nuevos acuerdos de nivel de servicio y nuevas cosas que tenemos que controlar y gestionar”, afirma. “Algo como la detección de fugas tiene que convertirse en algo fundamental para la oferta, mientras que antes ni siquiera se hablaba de ello porque era una herejía siquiera pensar en introducir líquido en el entorno del centro de datos.

“Nuestro equipo de operaciones globales está desarrollando nuevos métodos y procedimientos en torno al monitoreo, tanto para nuestros equipos como para poder enviar alertas directamente a nuestros clientes. Mejoraremos en eso y también la industria en su conjunto mejorará a medida que estas cosas se estandaricen”.

El viaje de la refrigeración líquida

Mills dice que muchos de los clientes de Digital Realty también están en un proceso de comprensión de cómo la refrigeración líquida es relevante para las cargas de trabajo de sus centros de datos. "Contamos con un grupo de clientes que tienen experiencia en esto, que vienen a nosotros y saben lo que quieren y cómo lo quieren", explica. "Por lo que depende de nosotros trabajar con ellos para que eso suceda."

“Hay un segundo grupo que dice que están aprendiendo y quien que la experiencia les ayude, y es ahí donde tenemos que brindar más apoyo a través de nuestros programas globales”.

En CyrusOne ocurre algo similar. “Todos estamos aprendiendo juntos”, afirma Kingham. “Para nosotros, como operadores, es fácil frustrarnos porque ahora tenemos que dejar claras las cosas que se implementarán en 2027. Pero cuando se observa cuánto ha cambiado en el último año, incluso con los productos anunciados solo por Nvidia, ¿cómo será el panorama dentro de tres años? Podría ser totalmente diferente.

“Creo que el verdadero desafío llegará en el próximo ciclo de renovación tecnológica, a principios de la década de 2030. Lo que estamos diseñando ahora puede quedar completamente obsoleto para entonces”.

Independientemente de lo que depare el futuro, Kingham cree que la llegada de la IA ha acelerado la adopción de la refrigeración líquida y que el cambio es permanente.

"Veremos cómo evoluciona el mercado con el tiempo, pero, desde mi punto de vista, todo el debate gira en torno a la refrigeración líquida", afirma. "Ya no parece que se trate de una palabra de moda, y parece que prácticamente todo lo que hagamos a partir de ahora va a seguir ese camino".

Y añade: “Me pregunto cuánto tiempo nos llevará aceptar desde el principio que todos nuestros proyectos serán centros de datos refrigerados por líquido”.