Um estudo conduzido pela Cast AI revelou que, em média, as empresas utilizam apenas cerca de 13% da capacidade de processamento (CPU) e 20% da memória disponibilizada. Essa análise foi realizada em 4.000 clusters hospedados nos serviços Amazon Web Services (AWS), Google Cloud Platform e Microsoft Azure, no período de 1 de janeiro a 31 de dezembro de 2023.

Os clusters considerados no estudo possuíam 50 CPUs ou mais, e observou-se uma pequena variação entre os provedores de nuvem. Tanto AWS quanto Azure apresentaram uma taxa média de utilização de 11%, enquanto o Google teve um desempenho ligeiramente melhor, com 17%. A distribuição de uso de memória entre esses provedores foi de 18% para o Google, 20% para a AWS e 22% para o Azure.

Para clusters maiores, com 1.000 ou mais CPUs, a taxa de utilização média aumentou para 17%. A Cast AI sugere que as principais razões para isso incluem a alocação excessiva de recursos pelos clientes, a hesitação em usar "instâncias pontuais" devido à instabilidade percebida e a subutilização de tamanhos de instância personalizados, que permitem a escolha da proporção de CPU e memória.

Laurent Gil, cofundador e diretor de produto da Cast AI, afirmou que as empresas que executam aplicações em Kubernetes ainda estão nas primeiras etapas de otimização e enfrentam desafios ao gerenciar manualmente a infraestrutura nativa da nuvem.

O relatório destaca que a lacuna entre a capacidade de CPU fornecida e a solicitada aumentou de 37% para 43% entre 2022 e 2023, indicando um problema crescente à medida que mais empresas adotam o Kubernetes.

Embora essa prática reduza a necessidade de energia e custos operacionais para os provedores de nuvem, ela também implica em investir em mais recursos computacionais e memória do que realmente necessários, contribuindo para pegadas de carbono maiores durante a produção e implementação de hardware de TI. A pesquisa destaca a importância de abordagens mais eficientes para evitar o excesso de oferta, pois isso não apenas impacta o meio ambiente, mas também limita o acesso de outras empresas a recursos computacionais.

Além disso, a TechInsights descobriu que, em 2023, 878.000 aceleradores produziram sete milhões de horas de trabalho de GPU, com um gasto estimado de 5,8 bilhões de dólares. Se esses clusters de GPU operassem perto de sua capacidade total, as receitas potenciais seriam consideravelmente maiores. Por exemplo, os clusters UltraScale do AWS, compostos por 20.000 GPUs Nvidia H100, poderiam gerar receitas de aproximadamente 6,5 bilhões de dólares se utilizados em sua capacidade máxima.