Por Billy Durie, responsable del sector global de centros de datos en Aggreko


No es ningún secreto que nuestra sociedad depende cada vez más de los datos. En tan solo diez años, la cantidad de datos que se procesan cada año se ha multiplicado por diez, pasando de apenas nueve zettabytes en 2013 a 120 zettabytes en 2023. Se prevé que esta cifra alcance los 147 zettabytes en 2024, antes de volver a aumentar a 181 zettabytes en 2025, lo que indica un viaje singular.

Naturalmente, la creciente demanda digital tiene un impacto físico muy real, ya que los centros de datos del mundo consumen más recursos que nunca. La industria, en su conjunto, reconoce plenamente este hecho y lleva mucho tiempo a la vanguardia en el impulso de prácticas sostenibles para garantizar que el impacto ambiental de este crecimiento sea mínimo.

Esto se ha manifestado en forma de numerosas innovaciones, incluidos servidores de alta eficiencia, sistemas de refrigeración líquida, sistemas de recuperación de calor residual y más. Entre todos estos desarrollos, sigue habiendo un tema común: la eficiencia energética. Al igual que muchas industrias, el sector de los centros de datos ha perseguido esto por encima de todo, y el valor crucial de la Efectividad del Uso de la Energía (PUE) se considera el parámetro principal para medirla.

Sin embargo, es importante reconocer que no solo aumenta el uso de datos, sino también la forma en que se utilizan. Esto nos lleva de nuevo a un tema que parece ineludible en la actualidad: la Inteligencia Artificial.

Aceleración de la IA

Como bien sabe cualquier profesional de centros de datos, las cargas de trabajo computacionales cada vez más intensas tienen mayores requisitos de enfriamiento, lo que plantea desafíos inmediatos en lo que respecta a la IA.

Un artículo del Telegraph de principios de este año detalla la magnitud de este problema, utilizando como caso de estudio al chatbot más popular del mundo, ChatGPT. Por cada comando que se le da al chatbot, ChatGPT "bebe" el equivalente a un sorbo de agua. Si bien esto no parece mucho al principio, 20 tareas consumen el equivalente a medio litro de agua, lo que demuestra la velocidad a la que esto puede pasar de ser una consideración menor a un desafío ambiental.

Este impacto, si bien ya es significativo, llega en un momento en que la IA todavía está en su infancia. Las proyecciones del Fondo Monetario Internacional indican que hasta el 40 por ciento de los trabajadores tienen empleos que se verán afectados por la IA, y esta cifra aumenta al 60 por ciento en las economías más avanzadas del mundo. En este sentido, podemos asumir con seguridad que tanto la adopción como la complejidad de esta tecnología aumentarán, lo que solo agravará aún más este desafío.

Para agravar este problema, la tasa a la que el mundo está experimentando escasez de agua también parece estar aumentando: el WWF proyecta que dos tercios de la población mundial enfrentarán escasez de agua para 2025. Si bien es importante reconocer que la IA y los centros de datos no son los culpables de esto, la conclusión es que su apetito por este recurso se está disparando en un momento en que es más escaso que nunca.

Cerrando el círculo

No existe una solución única para este desafío, pero un punto de partida para los centros de datos debería ser la efectividad del uso del agua (WUE), una métrica que debe equilibrarse con la tradicionalmente dominante PUE.

Al poner esto en práctica, los operadores de centros de datos pueden desear reevaluar su elección de sistema de enfriamiento para encontrar la solución óptima para las necesidades de su sitio. Una torre de enfriamiento de centro de datos tradicional, por ejemplo, experimenta pérdidas de agua significativas por evaporación y por la necesidad de purga, lo que compromete la WUE en beneficio de la PUE.

En cambio, los centros de datos en áreas con escasez de agua, como Italia y España, pueden considerar un sistema de enfriamiento de circuito cerrado. En este caso, un enfriador forma el sistema de enfriamiento principal, con aire enfriado por agua distribuido a través de un circuito de enfriamiento que consta de un compresor, evaporador, válvula de expansión, condensador y múltiples controladores de aire de la sala de computadoras (CRAH), cada uno de los cuales suministra aire enfriado a los racks.

Desde aquí, el aire caliente expulsado se dirige a un intercambiador de calor y se enfría nuevamente, antes de volver a circular. Fundamentalmente, este método produce poca o ninguna pérdida de agua, ya que el sistema utiliza un volumen fijo de líquido que recircula. Un especialista en energía y refrigeración descentralizado puede ayudar a cubrir la brecha mientras se realiza el cambio entre los dos sistemas, proporcionando energía vital y control de temperatura para mantener el sitio en funcionamiento.

Si bien esta puede no ser la mejor solución para todos los sitios, la conclusión clave es que el consumo de agua de los centros de datos solo aumentará a partir de este punto. Por lo tanto, es hora de abrir el debate sobre la WUE y considerarla junto con preocupaciones más tradicionales como la PUE, para garantizar que el sector continúe creciendo de manera sostenible.