Un estudio realizado por Cast AI ha puesto al descubierto que, de media, las empresas solo utilizan alrededor del 13 por ciento de las CPU que aprovisionan y el 20 por ciento de la memoria.

El análisis se basa en 4.000 clústeres que se ejecutan en Amazon Web Services (AWS), Google Cloud Platform y Microsoft Azure entre el 1 de enero y el 31 de diciembre de 2023.

Los clústeres incluidos en el informe son aquellos de 50 CPU o más. Se encontró poca diferencia entre los proveedores de la nube: AWS y Azure promediaron tasas de utilización del 11 por ciento, aunque Google fue ligeramente mejor, con un 17 por ciento.

La utilización de la memoria dividida entre los tres grandes proveedores de la nube fue del 18 por ciento para Google, el 20 por ciento para AWS y el 22 por ciento para Azure.

La tasa de utilización mejoró ligeramente para los clústeres más grandes: aquellos que contienen 1.000 o más CPU tuvieron un promedio de utilización del 17 por ciento.

Cast AI sugiere que las razones principales detrás de esto son que los clientes asignan más recursos informáticos de los necesarios, los clientes son reacios a usar "instancias puntuales" debido a la inestabilidad percibida y un uso insuficiente de tamaños de instancias personalizados donde se puede seleccionar la proporción de CPU y memoria.

"El informe de este año deja claro que las empresas que ejecutan aplicaciones en Kubernetes todavía se encuentran en las primeras etapas de su proceso de optimización y están lidiando con la complejidad de gestionar manualmente la infraestructura nativa de la nube", afirmó Laurent Gil, cofundador y director de producto de CAST AI.

"La brecha entre las CPU aprovisionadas y solicitadas se amplió entre 2022 y 2023 del 37 al 43 por ciento, por lo que el problema sólo empeorará a medida que más empresas adopten Kubernetes".

Para los resultados finales de los proveedores de la nube, esto reduce la necesidad de energía y de ejecutar la computación, al tiempo que les permite obtener ingresos en función del uso hipotético.

Sin embargo, aumenta la necesidad de invertir en más computación y memoria de la que realmente es necesaria, ya que cada elemento del hardware de TI tiene una huella de carbono durante su producción e implementación. Además, debido al aprovisionamiento excesivo de las empresas, otros no pueden acceder a esa computación mientras dure.

No son sólo las empresas las que sobreaprovisionan. A principios de este año, una investigación de TechInsights descubrió que en 2023, 878.000 aceleradores fueron responsables de producir siete millones de horas de trabajo de GPU, con un gasto de ingresos estimado de 5.800 millones de dólares.

Según TechInsights, si los clústeres de GPU funcionaran cerca de su capacidad, la cifra de ingresos sería mucho mayor.

Por ejemplo, los clústeres UltraScale de AWS se componen cada uno de 20.000 GPU Nvidia H100 que se pueden alquilar por 98,32 dólares la hora. La utilización completa generaría ingresos sólo para Amazon de alrededor de 6.500 millones de dólares.

Cast AI proporciona una plataforma de automatización de Kubernetes para las principales organizaciones en la nube, utilizando IA para analizar y optimizar automáticamente los clústeres en tiempo real.