En un centro de datos típico, aproximadamente la mitad de la energía suministrada a la instalación se pierde en la conversión y distribución de energía o se utiliza para administrar el calor liberado por estas pérdidas y el equipo de TI en sí. A medida que aumenta la densidad de potencia del rack, también lo hace el desafío de enfriamiento. Los centros de datos también están bajo una presión creciente para reducir el impacto ambiental de sus operaciones. La convergencia de la presión externa y los mandatos comerciales ha llevado a la industria a explorar nuevas tecnologías y nuevos principios de diseño.

DC es el nuevo negro (de nuevo)

Durante años, la industria ha coqueteado con la noción de pasar a la corriente continua para la distribución de energía dentro del centro de datos. La lógica es sencilla: cada vez que la energía se convierte de CA a CC y viceversa (por ejemplo, para colocar un UPS con batería de respaldo en el sistema de distribución), se pierde energía, principalmente en forma de calor. Cuantas menos conversiones sufra la fuente de alimentación, menores serán las pérdidas y generará menos calor. Una mayor eficiencia conduce a menores costos, tanto en capital como en O&M.

DC también ofrece otros beneficios, que cubriremos en un momento, pero es instructivo entender primero un poco de su historia. La Guerra de las Corrientes enfrentó el sistema DC de Thomas Edison contra el diseño AC de Nicola Tesla y su socio comercial George Westinghouse para convertirse en el estándar sobre el cual se construiría la red eléctrica de los Estados Unidos. AC ganó el día, en gran parte porque en ese momento era más fácil transmitir energía a distancias más largas usando AC a un voltaje más alto.

DC volvería a mediados de la década de 1950 con el advenimiento de la transmisión de energía de corriente continua de alto voltaje (HVDC), que irónicamente era la más adecuada para enviar grandes cantidades de energía a largas distancias. Hoy, los sistemas HVDC hacen exactamente eso.

También se utilizan para vincular redes de CA asíncronas, lo que permite a los sistemas de energía vecinos enviar energía de un lado a otro de manera controlada. El cable de sonido cruzado que une Nueva York con la red de Nueva Inglaterra permitió a Long Island recuperarse más rápidamente después del apagón del noreste de 2003 gracias a la capacidad del sistema de CC de controlar la dirección y la velocidad del flujo de corriente eléctrica. Nueva York "importó" 330 MW de energía de la red de Nueva Inglaterra.

La transmisión HVDC comparte muchos de los mismos beneficios de la distribución de energía de CC a una escala menor: tiene una huella más pequeña que un sistema de CA comparable, opera con pérdidas más bajas y también ofrece varios beneficios de confiabilidad.

Veamos la propuesta de valor de DC en el contexto de un centro de datos. El caso de uso del centro de datos

ABB

La distribución de energía de CC usa menos cobre que un sistema de CA comparable (ABB ha observado hasta un 40 por ciento menos en aplicaciones marinas), y no requiere el uso de rectificadores y transformadores, lo que se traduce en un menor costo de instalación. La eficiencia operativa también es mejor que la CA debido a las menores pérdidas y la menor carga de enfriamiento, como se señaló anteriormente. Cuanto mejor las estimaciones varían, pero un estudio de Lawrence Berkeley Lab en 2006 con equipos de CA contemporáneos mostró que DC tenía una eficiencia del 5 al 7 por ciento mayor. El equipo de CA ha evolucionado, por supuesto, pero aquí yace otro desafío. Incluso las fuentes de alimentación más eficientes siguen siendo considerablemente menos eficientes que las UPS líderes en el mercado, por lo que es importante que los propietarios / operadores de centros de datos tengan una visión integral del consumo de energía de sus instalaciones.

La distribución de energía de CC ocupa menos espacio que la de CA, lo que significa más espacio en el piso para racks de servidores y / o equipos de enfriamiento; importante, ya que muchos centros de datos modernos están limitados por su capacidad de enfriar el equipo que ya tienen. Finalmente, está bien documentado que un sistema de CC facilita la integración de fuentes de energía en el sitio, como las células solares o de combustible, o dispositivos de almacenamiento de energía, que producen energía de CC. Incluso si estas opciones solo cubren una pequeña porción de la carga total de la instalación, pueden volverse cada vez más atractivas a medida que los centros de datos buscan ecologizar sus operaciones.

Además del argumento de la eficiencia y el costo, DC también ofrece beneficios en términos de calidad de energía y confiabilidad del sistema. El diseño de un sistema de alimentación de CC es más simple, con menos componentes (y, por lo tanto, menos puntos de falla) que la alternativa de CA, y elimina los armónicos, el equilibrio de carga de fase y otros problemas asociados con la CA. La industria de las telecomunicaciones ha utilizado sistemas de 48 V CC durante décadas con excelentes resultados. El NTT de Japón, por ejemplo, informó una mejora 10 veces mayor en confiabilidad usando CC en comparación con un sistema de CA que usa un solo UPS por ruta, una configuración común.

Los dispositivos de almacenamiento de energía se pueden colocar directamente en el bus de CC y se pueden agregar cargas según sea necesario sin tener que rediseñar la red eléctrica. Esto se suma a una instalación más rápida y actualizaciones más rápidas a medida que crece la instalación.

Finalmente, hay seguridad. La electrónica de potencia moderna nos permite limitar la corriente de falla a través del diseño en sistemas de CC, y eso es clave para reducir el riesgo para el personal y el equipo.

Algunos obstáculos

Por supuesto, hay algunos obstáculos que se interponen en el camino de una adopción más amplia de la distribución de energía de CC en los centros de datos. Primero, hay una selección limitada de fuentes de alimentación de CC para servidores, y la falta de unidades de aire acondicionado, equipo de protección contra incendios y controles de construcción que funcionan con CC, que serán necesarios para que CC sea una opción viable.

También hay una falta de estándares, por ejemplo, para arco eléctrico y conexión a tierra, por lo que cada sistema debe diseñarse individualmente, y eso aumenta sustancialmente el costo de elegir DC. IEC está trabajando actualmente en un estándar de enchufe y zócalo bajo TS 62735; se necesita más trabajo en este sentido para hacer de DC una opción realista para los centros de datos.

Quizás el mayor desafío, sin embargo, es simplemente la falta de experiencia entre los propietarios, operadores y contratistas de centros de datos. Hay preguntas de diseño como dónde colocar la conversión de CA a CC y cómo diseñar un dispositivo de almacenamiento de energía en el bus de CC que ofrezca el mismo rendimiento que un UPS. Claramente, tendrá que haber un proceso educativo para aumentar la familiaridad con los sistemas de CD y disminuir la resistencia al cambio.

Un enfoque podría ser que los centros de datos intenten construir un caso para DC a nivel de servidor donde la mayoría de los ahorros son de todos modos. Eliminar las fuentes de alimentación ineficientes y pasar a un equipo que pueda recibir alimentación de CC obtendría una victoria temprana para la eficiencia y generaría la confianza del personal del centro de datos para trabajar con sistemas de CC.

Hoy en día, la base global instalada de centros de datos de CC ronda los 10 MW, una pequeña fracción de la industria para estar seguro. Aún así, el argumento comercial para DC sigue siendo convincente. Si incluso un operador hiperescala hiciera una inversión sustancial en DC, podría crear una demanda de la noche a la mañana que luego impulsaría el desarrollo de los equipos y estándares necesarios para llevar la distribución de DC al siguiente nivel.


Por Dave Sterlace, el jefe de tecnología de Data Center Solutions en ABB