A Oracle não tem planos de desenvolver seus próprios chips personalizados para inteligência artificial (IA).

Durante um painel de discussão da Oracle AI esta semana com a presença da DCD, Jason Rees, vice-presidente sênior de tecnologia e engenharia de nuvem para EMEA da Oracle, confirmou a estratégia de IA da empresa.

Questionado se a Oracle estava explorando a possibilidade de desenvolver seus próprios chips personalizados, seguindo os passos do Google, Microsoft e Amazon Web Services (AWS), Rees disse: “Não, não agora. Estamos trabalhando com a Nvidia, com a AMD e com todos os outros fabricantes de chips. Nossa parceria é com essas empresas”.

Vale destacar que o Google, além de usar chips Nvidia, cria suas próprias “Unidades de Processamento Tensor” (TPUs) para cargas de trabalho de IA. O gigante da nuvem lançou seu TPU de sexta geração, apelidado de Trillium, em maio de 2024.

A AWS tem suas ofertas de chips Trainium e Inferetia. A última geração do primeiro deve consumir 1 kW de energia.

A Microsoft também desenvolveu sua própria CPU baseada em Arm e seu próprio acelerador de IA.

A Oracle oferece acesso a GPUs Nvidia H100 desde setembro de 2023 e, em outubro, lançou um supercomputador Nvidia DGX Cloud por meio do mercado Oracle Cloud. No início do ano, foi confirmado que a Oracle também ofereceria as GPUs Blackwell da Nvidia.

Rees expandiu o relacionamento da Oracle com a Nvidia, afirmando: “Temos um relacionamento com a Nvidia, e isso significa que a maneira como projetamos a Oracle Cloud Infrastructure (OCI) significa que a malha de rede de nossa nuvem nos permite obter a escala maciça necessária. Se olharmos para os modelos de treinamento, por exemplo, temos a capacidade de agrupar diferentes regiões”.

“Temos um conceito de superclusters que podem ser dimensionados para até 32.000 GPUs: Nvidia H100, H200, Nvidia Grasshopper. Todos eles estão agrupados em nossa infraestrutura”.

A Oracle também oferece chips baseados em Arm para seus clientes e tem um relacionamento próximo com a Ampere, desenvolvedora de CPUs voltadas especificamente para o mercado de Data Centers com base na arquitetura Arm. A empresa de nuvem investiu 40 milhões de dólares (226 milhões de reais) na Ampere em 2019. Em 2023, a Reuters informou que a Oracle gastou mais de 100 milhões de dólares (564 milhões de reais) em chips Ampere.

Os clientes da Oracle também podem acessar instâncias baseadas em processadores AMD Epyc Genoa.

A empresa tem sido uma grande beneficiária do boom da IA, alugando GPUs para uma ampla gama de clientes, principalmente a Microsoft. Em sua última teleconferência de resultados, a empresa revelou que somente no quarto trimestre havia assinado mais de 30 contratos de vendas de IA, totalizando mais de 12,5 bilhões de dólares (70,5 bilhões de reais).

A empresa também revelou que estava construindo um “Data Center muito grande” para a OpenAI, que teria os mais novos chips e interconexão da Nvidia. A OpenAI confirmou em junho de 2024 que usaria a OCI para treinar seu grande modelo de linguagem.

No início do mês, a Oracle sofreu um grande golpe quando o xAI de Elon Musk desistiu das negociações que poderiam ter visto o último investir 10 bilhões de dólares (56 bilhões de reais) no uso do Oracle Cloud para cargas de trabalho de IA. Sobre a decisão de se aposentar, Musk escreveu na rede social X: “A xAI contratou 24 mil H100s da Oracle e a Grok 2 treinou com eles. O Grok 2 está passando por ajustes e correções de bugs. Provavelmente está programado para ser lançado no próximo mês. O xAI está construindo o sistema 100k H100k sozinho para completá-lo no menor tempo possível. O objetivo é começar a treinar ainda esse mês. Será o cluster de treinamento mais poderoso do mundo por uma ampla margem”.

“A razão pela qual decidimos desenvolver o H100 de 100.000 polegadas e o próximo grande sistema internamente foi que nossa competitividade fundamental depende de sermos mais rápidos do que qualquer outra empresa de IA. Esta é a única maneira de recuperar o atraso”.