Durante el Evento Virtual DCD>España 2021, contamos entre otros muchos profesionales del sector, con la presencia de Isidro Ramos, Socio Director de Aeon Ingeniería, quien habló sobre las nuevas tendencias en las herramientas de software de operación y el papel de la ingeniería, analizando desde esta perspectiva no solo las soluciones, sino los trabajos de ingeniería necesarios para sacar provecho de estas herramientas.

A lo largo de la conferencia se habló sobre las nuevas herramientas de software de centros de datos, especialmente las relacionadas con la operación: tanto para la organización y gestión, como las nuevas herramientas que usan la I.A., y los modelos predictivos para la mejora de la eficiencia, y se analizó no solo las soluciones, sino los trabajos de ingeniería necesarios para sacar provecho de estas herramientas.

La ponencia suscitó nuevas preguntas, que hemos querido trasladar a Isidro Ramos, con quien nos pusimos en contacto recientemente.

En tu conferencia de este año DCD 2021 has hablado de herramientas de software para operación. ¿Por qué crees que son necesarias?

La operación en general y las herramientas en particular son las grandes desconocidas del sector y, en el fondo, tal y como nos indican los organismos de certificación como Uptime Institute o TÜV, es la operación donde se termina garantizando la disponibilidad y la eficiencia proyectadas.

Pero además, nos sirven para gestionar la capacidad que en la actualidad es una incógnita en la mayor parte de los casos: veremos cómo en los próximos años va a ser necesario revisar la capacidad de casi todos los centros de datos.

¿A qué te refieres?

Hay dos motivos por los que la capacidad tiene que ser revisada: el primero tiene que ver con la manera como han sido comisionados – cómo se ha hecho el commissioning y el segundo, porque es una magnifica medida de sostenibilidad y ahorro energético el alargar la vida útil de los centros, especialmente con alta ocupación.

¿Crees que se han hecho mal los commissioning?

No, no digo que se hayan hecho mal: se han hecho de acuerdo con el estado del arte, solo que no siempre se han utilizado las herramientas necesarias.

Hasta hace muy poco, se rechazaba la utilización de bancos de carga enracables e inteligentes: es verdad que eran caros, pero no se entendía su utilidad.

Por otro lado, tanto en el commissioning, como en otras disciplinas, el sector evoluciona y en España, la llegada de los grandes del sector que lo exigen tiene como consecuencia que los costes de estos elementos sea más asequible y como consecuencia los hacen viables para otros centros.

¿Qué otras herramientas crees que son necesarias?

Además de los bancos de carga citados, también las herramientas de software de las que hablamos, esto es de monitorización , I.A. y M.L. en tiempo real, como Ekkosense, Nlyte o TycheTools.

Para hacer estos estudios de capacidad, se han hecho auditorías ¿Cómo es el proceso de auditoría de un proyecto de centro de datos y qué elementos entran en juego?

Nosotros hemos hecho cientos de auditorías en estos años y podemos afirmar que la manera de hacer las auditorías ha cambiado radicalmente en los últimos años y la utilización de sensores e IA en estos procesos se ha impuesto de tal manera que, en nuestra opinión, una auditoría tradicional ya no tiene sentido.

¿Qué otros desafíos hay que enfrentar?

Sin duda, un desafío importante es la calibración y verificación de los sensores: debemos pensar que el elemento que determina la calidad del servicio de centro de datos sea, la mayor parte de las veces, unos sensores que no se calibran nunca y esto impacta, no solo en los acuerdos de nivel de servicio, sino también en la eficiencia energética.

Ya hemos propuesto estos servicios – que no son triviales, pero sí necesarios.

¿Cuál sería el cambio ideal a nivel regulatorio más esperado para que se hagan?

Yo no creo que sea necesaria regulación: es un tema de calidad y estoy seguro que la adopción será rápida. Si no es por propia iniciativa, la demanda vendrá por los clientes.