Por Simon Brady, gerente de productos de refrigeración líquida y de alta densidad de Vertiv


A medida que las densidades de chips, servidores y racks continúan aumentando, la demanda de soluciones de refrigeración más efectivas se ha convertido en una de las principales prioridades cuando se trata de infraestructura digital.

En los últimos años, los métodos de refrigeración líquida han logrado un avance significativo en la disipación eficiente del calor, especialmente para aplicaciones de computación de alto rendimiento (HPC) e inteligencia artificial (IA).

Dado que uno de cada cinco centros de datos ya adopta refrigeración líquida y un 61 por ciento adicional considera su adopción, es evidente que esta tecnología se está generalizando y los sistemas de refrigeración híbridos están en aumento.

Sin embargo, persisten desafíos, particularmente en la implementación de sistemas que dependen de mecanismos de enfriamiento externos ubicados fuera del rack del servidor, lo que requiere la circulación de refrigerante a través de una red de tuberías para llegar a los componentes que generan calor.

La refrigeración líquida directa al chip surge como una solución convincente. Este enfoque innovador implica la interacción directa con los componentes que generan calor a nivel del chip, lo que promete una eficiencia térmica incomparable y una disipación del calor dirigida.

En esencia, el enfriamiento líquido directo al chip implica la aplicación directa de un refrigerante, generalmente agua o un fluido dieléctrico, a los componentes que generan calor del hardware informático.

Este proceso integra componentes de enfriamiento especializados, como placas frías o sistemas de inmersión, directamente sobre la superficie de las unidades centrales de procesamiento (CPU), unidades de procesamiento gráfico (GPU) u otros componentes de alta potencia.

Estas soluciones de enfriamiento vienen en varias formas, incluidas placas frías monofásicas y unidades de evaporación bifásicas: cada una tiene beneficios únicos en términos de rendimiento térmico y compatibilidad con diferentes configuraciones de hardware.

Consideraciones técnicas y beneficios

La refrigeración líquida directa al chip ofrece varias ventajas técnicas clave. Al interactuar directamente con los componentes que generan calor, los sistemas de refrigeración líquida pueden mantener temperaturas de funcionamiento más uniformes y bajas, lo que mejora la fiabilidad y la longevidad del hardware crítico.

Además, la refrigeración líquida permite que los centros de datos admitan mayores densidades de procesamiento sin correr el riesgo de limitación térmica o sobrecalentamiento, lo que permite alcanzar nuevos niveles de rendimiento y escalabilidad.

Una de las principales ventajas de la refrigeración líquida directa al chip es su excepcional eficiencia térmica. Los sistemas de refrigeración líquida pueden lograr coeficientes de transferencia de calor elevados, lo que da como resultado una disipación térmica más eficiente.

Esta mayor eficiencia se traduce en temperaturas de funcionamiento más bajas y un menor consumo de energía de refrigeración, lo que genera importantes ahorros de costos y beneficios ambientales.

Al eliminar la necesidad de mecanismos de intercambio de calor intermedios, el enfriamiento líquido directo al chip minimiza la resistencia térmica, lo que mejora la eficiencia de la transferencia de calor y permite un control de temperatura más preciso a nivel del chip, lo que lo distingue de los métodos de enfriamiento líquido convencionales.

Además, la proximidad del refrigerante a la fuente de calor permite una rápida disipación del calor, mitigando el riesgo de puntos calientes y permitiendo el manejo de mayores densidades de calor con mayor facilidad.

Además, la refrigeración líquida directa al chip ofrece una mayor flexibilidad en el diseño y la implementación del sistema. Se puede integrar sin problemas en los diseños de servidores existentes, lo que minimiza las interrupciones en las operaciones y agiliza el proceso de implementación.

Desafíos y consideraciones de implementación

Las redes de fluidos secundarios, como el uso de agua para enfriar el centro de datos, no son nuevas: la industria de enfriamiento de centros de datos ha estado implementando soluciones de agua helada durante años.

El agua helada, así como el refrigerante, han circulado por debajo de los pisos elevados de los centros de datos desde el desarrollo de las primeras minicomputadoras. Lo que ha sido menos común es el fluido directo a los racks de TI. Aquí es donde la implementación de racks de alta densidad enfrentará nuevos desafíos.

En los primeros tiempos de la HPC, la tecnología de placas frías se utilizaba para suministrar líquido refrigerante directamente al chip mediante microcanales en el rango de 100 µ. En los últimos años, este valor se ha reducido a 50 µ y ahora, con la última generación de GPU, las placas frías utilizan microcanales de 27 µ. Esto significa que tenemos que filtrar partículas a 25 µ. Por lo tanto, al implementar refrigeración líquida directa al chip, se debe tener mucho cuidado para garantizar que la red de fluido secundario esté microscópicamente limpia.

Esto plantea una serie de otros desafíos:

¿Qué líquido se debe utilizar y cómo se garantiza que esté limpio y libre de contaminantes?

Los principales contendientes son el agua purificada, PG25 o EG25. Todos tienen sus pros y sus contras: propiedades anticorrosivas, pruebas, costos iniciales, costos de reemplazo, almacenamiento y manipulación.

¿De qué materiales debe estar hecha la red de fluidos secundaria?

El debate entre el metal y el plástico es un tema muy candente en este ámbito. El acero inoxidable es el principal contendiente. Ofrece muchas ventajas con respecto al plástico, pero es costoso y requiere una fabricación especializada. El plástico es más económico y más fácil de trabajar, pero existen dudas sobre su resistencia, en particular cuando hay cambios rápidos en el flujo.

¿Cómo evitar que la contaminación ingrese a la red de fluidos secundaria durante la instalación de equipos desde el primer día hasta el mantenimiento regular del equipo?

Aquí es donde la industria tendrá que adaptarse más. En un centro de datos refrigerado por aire, instalar un servidor u otro equipo es muy sencillo. Una vez que se ha completado la configuración inicial, generalmente en un área de prueba, solo es cuestión de encontrar un espacio, conectar la energía y la red y listo. Este es prácticamente el mismo procedimiento si está instalando uno o 1.000 servidores.

En el caso de los servidores directos a chip, aunque son muy similares (solo una conexión adicional), todo el proceso es más complicado.

El área de prueba debe tener la capacidad de ofrecer una conexión fluida a los servidores antes de que se instale en el centro de datos principal. Al instalar un solo servidor refrigerado por líquido, se debe tener cuidado para garantizar que haya suficiente líquido de recarga en las unidades de refrigeración por líquido y que el aire se purgue correctamente.

Cuando se instalan varios equipos, especialmente en sistemas nuevos, será necesario purgar más fluido y aire. Además, en instalaciones más grandes, se deben realizar varios lavados y limpiezas periódicas de los filtros para eliminar los residuos y la contaminación de la construcción.

¿Cómo se realizan pruebas de sistemas integrados?

En la actualidad, no existen bancos de carga a gran escala para probar instalaciones directas al chip. Muchos proveedores de CPU y GPU utilizan un TTV (vehículo de prueba térmica) para simular la carga de potencia/calor de un chip, lo que puede resultar costoso.

Explorando el futuro de la refrigeración líquida directa al chip

Un área de particular interés es el desarrollo de formulaciones de refrigerantes avanzadas adaptadas a los requisitos específicos del hardware informático moderno.

Estos refrigerantes de próxima generación ofrecen una conductividad térmica mejorada, una resistencia mejorada a la corrosión y un impacto ambiental reducido, allanando el camino para una eficiencia y sostenibilidad aún mayores en las operaciones de los centros de datos.

La integración de inteligencia artificial y algoritmos de aprendizaje automático tiene el potencial de mejorar la gestión y optimización de los sistemas de refrigeración de alta densidad.

Al aprovechar el análisis de datos en tiempo real y las técnicas de modelado predictivo, los operadores de centros de datos pueden ajustar dinámicamente los parámetros de enfriamiento y optimizar el rendimiento en función de la demanda de carga de trabajo y las condiciones ambientales, mejorando aún más la eficiencia y la confiabilidad.

Además de los avances técnicos, la adopción de refrigeración líquida directa al chip está impulsando la innovación en el diseño y la arquitectura de los centros de datos. Las soluciones de refrigeración modulares, los diseños de infraestructura escalables y las opciones de implementación flexibles permiten a los operadores de los centros de datos adaptarse rápidamente a los requisitos de carga de trabajo y las necesidades empresariales en constante evolución, lo que facilita la rápida implementación y expansión de las capacidades de refrigeración de alta densidad.

La trayectoria del enfriamiento líquido directo al chip representa un cambio fundamental en la gestión térmica del centro de datos, ofreciendo niveles sin precedentes de eficiencia, rendimiento y escalabilidad.