No ano passado, a Uptime Intelligence recebeu mais perguntas sobre IA generativa e seu impacto no setor de Data Centers do que qualquer outro tópico. As perguntas vêm de operadores empresariais e de colocation, fornecedores de uma ampla variedade de equipamentos e serviços, reguladores e mídia.

A maioria das questões diz respeito ao consumo de energia. Os clusters computacionais – necessários para a criação e o uso eficientes de modelos de IA generativos – precisam de muita energia, criando um aumento na demanda projetada por capacidade e, para os operadores, desafios na distribuição de energia e resfriamento no Data Center.

As perguntas sobre energia normalmente se enquadram em um dos três grupos. A primeira é centrada em torno de: “O que a IA generativa significa para densidade, distribuição de energia e resfriamento no Data Center?”.

A visão da Uptime Intelligence é que as alegações de problemas de densidade são exageradas. Embora os sistemas de IA para treinamento de modelos de IA generativa, equipados com aceleradores Nvidia, sejam muito mais densos do que o normal, eles não são extremos e podem ser gerenciados espalhando-os em mais gabinetes.

Além disso, a IA generativa tem um efeito indireto na maioria dos operadores de Data Centers na forma de pressões adicionais na rede de suprimentos. Com os prazos de entrega em alguns equipamentos essenciais, como geradores de motores, transformadores e unidades de distribuição de energia, já anormalmente longos, a demanda imprevista por ainda mais capacidade por IA generativa certamente não ajudará.

O segundo conjunto de questões diz respeito à disponibilidade de energia em uma determinada região e rede — e especialmente de energia de baixo carbono. Também é uma questão crítica e prática que os operadores e as empresas de serviços públicos tentam compreender. Os maiores clusters para treinamento de grandes modelos de IA generativa compreendem muitas centenas de nodos de servidor e consomem vários megawatts de energia com carga total. No entanto, as questões são em grande parte localizadas, e também não são o foco aqui.

IA generativa e energia global

Em vez disso, o foco do relatório é a típica terceira pergunta: “Quanta energia global a IA usará e exigirá?”.

Embora em termos práticos imediatos, essa não seja uma preocupação fundamental para a maioria dos operadores de Data Centers, os números das manchetes moldarão a cobertura da mídia e a opinião pública, o que, em última análise, impulsionará a ação regulatória.

No entanto, alguns dos números sobre a energia da IA que circulam na imprensa e em conferências, citados por influenciadores importantes e outros partidos, são extremamente altos. Se precisos, esses números sugerem grandes desafios de infraestrutura e regulamentação à frente – no entanto, quaisquer previsões excessivamente altas podem levar os reguladores a reagir exageradamente.

Entre as previsões na parte superior está a da respeitada equipe de pesquisa da Schneider Electric, que estimou a demanda de energia de IA em 4GW, equivalente a 35TWh se anualizada, em 2023, subindo para cerca de 15GW (131TWh se anualizada) em 2028. Muito provavelmente, esses números incluem todas as cargas de trabalho de IA e não apenas novos modelos generativos.

Além disso, Alex de Vries, da plataforma de tendências digitais Digiconomist, cujos cálculos de uso de energia Bitcoin foram influentes, estimou o uso de carga de trabalho de IA em 85TWh a 134TWh até 2027. Esses números sugerem que a IA pode adicionar de 30% a 50% ou mais à demanda global de energia de Data Centers nos próximos anos.

Há duas razões pelas quais a Uptime Intelligence considera esses cenários excessivamente otimistas. Primeiro, as estimativas de poder para todas as cargas de trabalho de IA são problemáticas tanto para a taxonomia (o que é IA) quanto para a improbabilidade de rastreá-la significativamente. Além disso, a maioria das formas de IA já é contabilizada no planejamento de capacidade, apesar da IA generativa ser inesperada.

Em segundo lugar, projeções que vão além de um horizonte de 12 a 18 meses trazem altos níveis de incerteza.

Alguns dos números citados acima implicam um aumento de aproximadamente mil vezes na capacidade de computação de IA em 3 a 4 anos a partir do primeiro trimestre de 2024, quando se contabiliza a evolução da tecnologia de hardware e software. Isso não é apenas sem precedentes, mas também tem fundamentos de negócios fracos ao considerar as centenas de bilhões de dólares que seriam necessários para construir toda essa infraestrutura de IA.

A Uptime Intelligence tem uma visão mais conservadora com suas estimativas – mas essas estimativas ainda indicam uma rápida escalada no uso de energia por novos grandes modelos de IA generativa.

Para chegar aos nossos números, estimamos as remessas atuais e a base instalada de sistemas baseados na Nvidia até o primeiro trimestre de 2025 e o provável consumo de energia associado ao seu uso. Os sistemas baseados nos aceleradores de Data Center da Nvidia, derivados de GPUs, dominam o mercado de aceleradores de modelos de IA generativa e continuarão a fazê-lo até pelo menos meados de 2025 graças a uma vantagem arraigada na rede de ferramentas de software.

Consideramos uma série de fatores técnicos e de mercado para calcular os requisitos de energia da infraestrutura de IA generativa: perfis de carga de trabalho (atividade de carga de trabalho, utilização e simultaneidade de carga em um cluster), o equilíbrio de mudança entre treinamento e inferência e o PUE médio do Data Center que abriga os sistemas de IA generativa.

Esses dados apoiam nossa visão declarada anteriormente de que o impacto inicial da IA generativa é limitado, além de algumas dezenas de grandes sites. Para o primeiro trimestre de 2024, estimamos que o uso anualizado de energia pelos sistemas da Nvidia instalados seja de cerca de 5,8 TWh. Esse número, no entanto, aumentará rapidamente se a Nvidia cumprir suas metas de vendas e remessas previstas. Até o primeiro trimestre de 2025, a infraestrutura de IA generativa em vigor pode representar 21,9 TWh de consumo anual de energia.

Esperamos que esses números mudem à medida que novas informações surgirem, mas são indicativos. Para colocar esses números em perspectiva, o uso global total de energia do Data Center foi estimado entre 200TWh e 450TWh por ano nos períodos de 2020 a 2022. (As metodologias e os termos de vários estudos variam muito e sugerem que os Data Centers usam entre 1% e 4% de toda a eletricidade consumida.) Ao tomar um valor médio de 300TWh para o consumo global anual de energia do Data Center, a Uptime Intelligence coloca a energia anualizada de IA generativa em cerca de 2,3% do consumo total de energia da rede por Data Centers no primeiro trimestre de 2024. No entanto, isso pode chegar a 7,3% até o primeiro trimestre de 2025.

Perspectiva

Esses números indicam que o uso de energia da IA generativa não é, atualmente, impactante de maneira disruptiva, dado o crescimento explosivo do setor de Data Centers nos últimos anos. A participação da IA generativa no consumo de energia em relação à sua pegada é descomunal, por sua provável enorme utilização. Uma parcela da capacidade do Data Center por energia cairá na casa de um dígito baixo a médio até o final de 2025.

No entanto, é um aumento dramático e sugere que a IA generativa pode ser responsável por uma porcentagem muito maior do uso geral de energia do Data Center nos próximos anos. Inevitavelmente, o aumento precisa desacelerar, também em grande parte porque os sistemas de IA mais recentes construídos em torno de aceleradores muito mais eficientes deslocarão a base de instalação em massa em vez de adicionar uma nova infraestrutura líquida.

Embora a Uptime Intelligence acredite que algumas das estimativas de uso de energia de IA generativa (e uso de energia de Data Center) sejam muito altas, o aumento acentuado – e a concentração da demanda em certas regiões – ainda será alto o suficiente para atrair e estimular a atenção regulatória.

Este artigo foi escrito em parceria com Daniel Bizo.