Todos nós ouvimos, de centenas de maneiras, que a IA, especialmente a generativa, transformará o mundo. Até agora, todos nós já usamos várias ferramentas. Lemos sobre as dezenas e centenas de casos de uso que a IA pode permitir. Sabemos que a IA pode desbloquear novas maneiras de transformar a natureza do trabalho e o impacto que as empresas podem proporcionar.

Uma esperança, alardeada por muitos, é que a IA forneça novos recursos para melhorar os objetivos de sustentabilidade, eficiência e desempenho, seja para corporações e países. Esperamos que a IA possa melhorar a eficiência energética, reduzir o desperdício, tornar os produtos mais sustentáveis e reduzir as emissões da rede de suprimentos.

A IA certamente tem o potencial de auxiliar esses objetivos, mas há um estranho paradoxo em torno da IA e da sustentabilidade.

A IA generativa é uma tecnologia sem precedentes; será aplicada a muitas iniciativas e provavelmente impactará significativamente as metas ambientais. Ao mesmo tempo, a IA generativa tem o potencial de bloquear e limitar o progresso em direção a esses objetivos.

O problema potencial é fácil de entender. O hardware necessário para a IA generativa consumirá tantos recursos que as organizações se veem sem metas de sustentabilidade? O crescimento maciço de novos Data Centers aumentará as emissões e utilizará recursos escassos a ponto de as metas ambientais não poderem ser cumpridas?

Isso pode parecer improvável, mas o Synergy Research Group relata que a capacidade do Data Center em hiperescala quase triplicará nos próximos seis anos, impulsionada pela IA. Esse crescimento, é claro, não inclui os fornecedores de colocation e as empresas que estão rapidamente reformulando, adaptando e buscando novas construções de Data Centers para se posicionarem para um futuro de IA.

Ainda é cedo para discernir quanto impacto ambiental veremos com a construção acelerada de Data Centers. Mas é fácil ver alguns possíveis impactos de um esforço para apoiar a IA generativa em escala. Alguns desses impactos podem ser:

  • Utilização maciça de energia: o Gartner acredita que a IA consumirá mais energia do que a força de trabalho humana até 2025. Em nossas discussões com um único líder de colocation, eles preveem a necessidade de mais 5 GW de capacidade de energia até 2027, acima dos atuais 2,7 GW.
  • Geração e distribuição de energia: As redes elétricas já estão no limite e os reguladores estão disparando alarmes. Na Virgínia, a Dominion Power anunciou que não poderia fornecer energia para Data Centers planejados. Já estamos vendo a demanda por novas usinas de energia e linhas de distribuição de energia para lidar com o crescimento dos Data Centers, que chegam com seus próprios conjuntos de consumo de recursos e aumento de emissões.
  • Uso da terra, uso da água e uso de material de construção: Terrenos em áreas favoráveis são escassos, a utilização da água está sob pressão política e os materiais de construção muitas vezes produzem grandes quantidades de gases de efeito estufa.
  • Construção em si: limpeza de terras, transporte de materiais, equipamentos de construção e montagem consomem recursos, e Data Centers ecologicamente conscientes estão repensando seus projetos para reduzir as emissões de carbono.
  • Novo hardware: não apenas servidores, armazenamento e rede, mas GPUs e DPUs, cabeamento, novos racks e distribuição de energia. Os clusters de IA exigem milhares de servidores, e a fabricação de servidores cria emissões desde a mineração dos minerais necessários para a produção até a distribuição.

Felizmente, há uma tecnologia comprovada que permite que as organizações lidem com a expansão do servidor e o consumo de energia sem precedentes dos Data Centers. Ele reduz o uso da terra, o uso de material de construção e o uso de água, ao mesmo tempo em que acelera o tempo de conclusão de novos Data Centers. Essa tecnologia é o resfriamento líquido, e você já ouviu falar dela, especialmente nos dias de hoje.

O resfriamento líquido está se tornando o tópico mais quente na indústria porque, para simplificar, é necessário se as organizações quiserem aumentar sua infraestrutura de IA generativa em escala sem comprometer suas metas ambientais diretas e indiretas.

Com o resfriamento líquido, as organizações têm uma nova ferramenta que reduz algumas das emissões críticas e os desafios de recursos que enfrentarão nos próximos anos.

  • Estrutura de resfriamento líquido.
  • Aumenta a eficiência do resfriamento, um recurso necessário, já que os servidores de IA consomem atualmente 3kW ou mais. O resfriamento a ar convencional é altamente ineficiente e requer muito mais eletricidade e água do que o resfriamento líquido. O resfriamento líquido reduz o desperdício de energia.
  • Lidar com densidades de rack sem precedentes de 80kw de servidores por rack ou mais. Essa mudança simples tem uma coleção de efeitos dominó, incluindo a redução do número de racks, da quantidade de cabeamento e do espaço necessário.
  • Permitir que os fornecedores de Data Centers construam Data Centers menores sem comprometer a capacidade de computação, reduzindo o volume de material de construção e minimizando o tempo de construção.

É nossa visão que o resfriamento líquido é uma necessidade para cargas de trabalho de IA generativas e que se tornará um elemento fundamental para atender aos objetivos de sustentabilidade no futuro, à medida que as organizações constroem cada vez mais Data Centers para apoiar as oportunidades que a IA pode oferecer.

Para saber mais sobre a perspectiva da Nautilus sobre resfriamento líquido, confira nosso blog em https://nautilusdt.com/news-updates/.

Mais sobre a Nautilus Data Technologies