Se viven tiempos de cambios constantes, los cuales se ven todavía más acentuados si se habla del ámbito de la tecnología. Específicamente en el data center el almacenamiento se está moviendo rápidamente de los tradicionales discos duros hacia las memorias flash, que ofrece ventajas significativas en términos de rendimiento, eficiencia energética, confiabilidad y reducción de espacio físico, además de las necesidades de refrigeración.

La llegada de la IA que está teniendo el protagonismo absoluto en las conversaciones actuales, viene de la mano de demandas de almacenamiento mayores y más complejas. En este contexto, los data centers enfrentan desafíos relacionados con el consumo de energía y prepararse para tener la capacidad de cómputo necesaria para procesar la inteligencia artificial. Para adaptarse a estas nuevas necesidades, los data centers están actualizando sus infraestructuras invirtiendo en tecnologías más eficientes desde el punto de vista energético y espacial. Una vez más, las soluciones de almacenamiento basadas en tecnología flash ayudan a abordar estos retos.

En esta entrevista, DCD charla con Adela de Toledo, Country Manager de Pure Storage Iberia, quien ahonda en todos estos aspectos, además de compartir unos datos que reflejan la presente realidad del último estudio realizado por Pure Storage y Wakefield Research.

Si hablamos de almacenamiento en el data center, ¿de qué hablamos? ¿Qué componentes principales tratamos?

La conversación clave al hablar de almacenamiento en el centro de datos es elegir entre almacenamiento HDD o flash, lo que se traduce en hablar del pasado o del futuro, respectivamente. Las ventajas de la tecnología flash frente al almacenamiento heredado basado en disco son bien conocidas, nos referimos al aumento del rendimiento, la fiabilidad, la eficiencia energética, la reducción de la huella física o la disminución de los requisitos de refrigeración y mantenimiento.

Hasta ahora, el principal obstáculo para la implantación de la tecnología flash era su coste de adquisición; sin embargo, en la actualidad, el precio por bit de la tecnología flash NAND está disminuyendo a un ritmo mucho más rápido que el de los discos duros nearline. Por este motivo, se prevée que los discos duros queden obsoletos antes del final de esta década. Y es que, con módulos flash que ya alcanzan los 75 TB y precios por GB tan bajos, es probable que las unidades de disco duro queden excluidas de los casos de uso en los que se han mantenido hasta el momento. Entre ellos se incluyen los casos de uso de nivel 1, como el almacenamiento de archivos y objetos para datos no estructurados, que han ganado importancia a medida que las organizaciones desean un acceso rápido para el análisis y el procesamiento de IA/ML, y los casos de uso nearline, como las copias de seguridad. A medida que los tamaños de las unidades flash alcanzan capacidades de cientos de TB, es más probable que resulte convincente cambiar los HDD por otros casos de uso de almacenamiento secundario.

¿Qué retos enfrenta actualmente el almacenamiento de datos en los data centers?

Hoy en día, una de las grandes preocupaciones de todos los directivos de TI y de nivel C es cumplir los objetivos y normativas de sostenibilidad internos y externos. La infraestructura de los centros de datos representa más del 1% del consumo energético mundial, un porcentaje que va en aumento. Las organizaciones están examinando sus emisiones de carbono mucho más de cerca y muchas necesitan encontrar fórmulas para reducir su huella de carbono y cumplir la normativa. El flash desempeña un papel fundamental en esta reducción energética, ya que algunas de las tecnologías flash pueden ofrecer hasta un 85% más de eficiencia energética en comparación con otras alternativas.

Pero también existen otros problemas de incertidumbre empresarial que afectan a los centros de datos. Por ejemplo, tras sufrir un incidente de ransomware, el disco puede tardar un plazo excesivo en restaurar los datos. Sin embargo, los sistemas basados en flash cuentan con un rendimiento de restauración más rápido, lo que significa volver a poner en marcha el negocio mucho antes que con las arquitecturas heredadas basadas en disco, evitando los posibles daños financieros y de reputación que pudiera causar el tiempo de inactividad.

Por último, hay que tener en cuenta la fiabilidad. Comparada con las unidades de disco mecánicas, la tecnología flash es sencillamente más fiable; los dispositivos fallan con menos frecuencia, lo que conlleva menos sustituciones y, por tanto, menos costes, menos tiempo a la hora de sustituir los componentes averiados, menos riesgos y ningún coste de mantenimiento desorbitado durante 3-5 años de propiedad.

¿Qué innovaciones tecnológicas se están produciendo en el ámbito del storage que benefician al data center?

En un ámbito tan cambiante como el del almacenamiento de datos la innovación y la adaptación a las nuevas necesidades y demandas resulta clave. Una de estas innovaciones es el almacenamiento como servicio (STaaS), un modelo de consumo flexible para la adquisición de almacenamiento que permite a las organizaciones aprovisionar la capacidad y el rendimiento que necesitan en sus propias instalaciones, en la nube o en cualquier otra combinación, y pagar por ello en función del servicio.

STaaS es una gran opción para quienes necesitan una infraestructura flexible para satisfacer necesidades cambiantes, respaldada por acuerdos de nivel de servicio eficientes. Elimina gran parte de la complejidad y el riesgo asociados al almacenamiento de datos y reduce la fricción, los costes y las complicaciones asociadas al uso compartido de datos en toda la empresa. También es importante tener en cuenta que STaaS no requiere el mismo desembolso sustancial de CapEx que la infraestructura de TI tradicional.

Otra tendencia que no puede ignorarse es la inteligencia artificial. Sin duda, la implantación de la IA está teniendo un gran impacto en el centro de datos. Es destacable mencionar que Pure Storage fue pionera en el almacenamiento optimizado para la IA con el lanzamiento de FlashBlade en 2017 y AIRI en 2019, la arquitectura de referencia desarrollada conjuntamente con NVIDIA. En la actualidad, con la arquitectura de referencia NVIDIA DGX BasePOD para IA y aprovechando la última plataforma de almacenamiento FlashBlade//S, AIRI acelera y simplifica el escalado y la implementación de IA ya que se escala rápida y fácilmente para que la empresa siga centrada en proporcionar conclusiones valiosas en lugar de en gestionar la TI.

Además estamos observando una tendencia emergente que tiene un creciente interés por la adopción de soluciones de infraestructura modernas que permitan una gestión sencilla e inteligente del almacenamiento a escala como es Storage as Code. Con Storage as Code, los equipos de operaciones de TI pueden gestionar, supervisar y aprovisionar automáticamente el almacenamiento en lugar de hacerlo mediante procesos manuales, lo que resuelve muchas de las complejidades asociadas a la gestión de entornos de TI en expansión.

Las plataformas Storage as Code integran experiencias de TI de autoservicio y soluciones escalables, además bajo demanda, que superan las limitaciones de la arquitectura física. Esto permite a las organizaciones adoptar un modelo operativo similar a la nube sobre su infraestructura para ofrecer una experiencia ágil a los equipos de TI, potenciando a los desarrolladores, lo que resulta muy atractivo para muchas empresas, por lo que estamos observando cómo evoluciona esta tendencia.

En cuanto a las plataformas de gestión de datos, las organizaciones buscan aprovechar las plataformas de gestión de almacenamiento SaaS basadas en IA que les ayuden a planificar las necesidades futuras de rendimiento y capacidad, optimizar su eficiencia energética a la vez que protegen sus datos críticos sin coste adicional.

¿Qué nuevas necesidades de almacenamiento surgen con la llegada de la IA?

Con la irrupción de la IA, existe una necesidad urgente de soluciones de almacenamiento que sean más sostenibles. Los enormes conjuntos de datos asociados a la inteligencia artificial plantean importantes retos a unos centros de datos ya de por sí sobrecargados. Las implementaciones modernas de IA pueden demandar densidades de potencia de 40 a 50 kilovatios por rack, superando con creces las capacidades de muchos centros de datos existentes. Por ello, la IA está reconfigurando los requisitos energéticos y de red de los centros de datos.

En este sentido, la utilización del almacenamiento de datos basado en tecnología flash puede resolver eficazmente estos retos, ya que ofrece una mayor eficiencia energética y de espacio en comparación con el almacenamiento tradicional en disco duro, al tiempo que requiere una menor refrigeración y mantenimiento. Las demandas de energía y refrigeración de los proyectos de IA alcanzan niveles muy elevados que se agravan por la escalada de los costes de electricidad para el funcionamiento y la refrigeración de los centros de datos, a lo que se suman las crecientes limitaciones para construir nuevos centros de datos.

En este contexto, las organizaciones deben dar prioridad a adoptar las tecnologías de mayor eficiencia energética disponibles, adaptadas para minimizar su huella medioambiental.

¿Cómo están actualizando los data centers sus infraestructuras para adaptarse a estas nuevas necesidades que surgen con la IA? ¿Cuáles serían los pasos para garantizar que estamos preparados?

La inteligencia artificial es una tecnología muy novedosa y en pleno cambio. Por ello, existen retos comunes para las compañías que pretenden implementarla, independientemente de la fase en la que se encuentren, desde la escasez de personal cualificado, el consumo energético, los problemas en la cadena de suministro o las limitaciones presupuestarias. La realidad demuestra que no todo el mundo está preparado para las exigencias de la inteligencia artificial.

Esta es la conclusión a la que ha llegado el estudio que hemos realizado entre Pure Storage y Wakefield Research: las organizaciones no están preparadas para las inmensas demandas de energía y datos que requiere la IA. Según esta encuesta realizada a 500 compradores de TI de empresas con más de 500 empleados en EE.UU. y Europa, el 89% considera que los objetivos de ESG son más difíciles de conseguir debido a la infraestructura necesaria que precisa la adopción de la IA.

Por otro lado, esta investigación también refleja que existe un aumento espectacular de la necesidad de potencia informática, ya que el 88% de los que adoptaron la IA experimentaron un incremento sustancial de las necesidades de capacidad computacional. Y, curiosamente, el 73% de los compradores de TI no estaban completamente preparados para los requisitos energéticos de la IA.

En base a estos resultados, es fundamental que cualquier organización que esté planificando implementar la IA invierta en los recursos y tecnologías adecuados desde el inicio del proyecto para evitar problemas futuros. Para empezar, resulta clave que las compañías inviertan en las tecnologías más eficientes desde el punto de vista energético y de espacio para conseguir sus objetivos de IA y, como hemos comprobado, sustituir los discos duros por almacenamiento flash es un paso fundamental en este proceso.


icone-de-courrier-electronique-rouge (1).png

Reciba las últimas noticias sobre la industria Data Center directamente en su bandeja de entrada