Oracle no tiene planeado desarrollar sus propios chips personalizados para inteligencia artificial (IA).

Durante una mesa redonda sobre IA de Oracle celebrada esta semana a la que asistió DCD, Jason Rees, vicepresidente sénior de tecnología e ingeniería en la nube para EMEA en Oracle, confirmó la estrategia de IA de la empresa.

Cuando se le preguntó si Oracle estaba explorando la posibilidad de desarrollar sus propios chips personalizados, siguiendo los pasos de Google, Microsoft y Amazon Web Services (AWS), Rees dijo: "No, no en este momento. Estamos trabajando con Nvidia, con AMD y con todos los demás fabricantes de chips. Nuestra asociación es con esas empresas".

Cabe destacar que Google, además de utilizar chips Nvidia, crea sus propias "Unidades de procesamiento tensorial" (TPU) para cargas de trabajo de IA. El gigante de la nube lanzó su TPU de sexta generación, denominada Trillium, en mayo de 2024.

AWS tiene sus ofertas de chips Trainium e Inferetia; se espera que la última generación del primero consuma 1 kW de energía.

Microsoft también ha desarrollado su propia CPU basada en Arm y su propio acelerador de IA.

Oracle ofrece acceso a las GPU Nvidia H100 desde septiembre de 2023 y en octubre lanzó una supercomputadora Nvidia DGX Cloud a través del mercado Oracle Cloud. A principios de este año, se confirmó que Oracle también ofrecería las GPU Blackwell de Nvidia.

Rees amplió la relación de Oracle con Nvidia y afirmó: "Tenemos una relación con Nvidia, y eso significa que la forma en que hemos diseñado Oracle Cloud Infrastructure (OCI) significa que la estructura de red de nuestra nube nos permite obtener la escala masiva requerida. Si analizamos los modelos de capacitación, por ejemplo, tenemos la capacidad de agrupar diferentes regiones.

"Tenemos un concepto de supercúmulos que pueden escalar hasta 32.000 GPU: Nvidia H100, H200, Nvidia Grasshopper. Todas ellas están agrupadas en nuestra infraestructura".

Oracle también ofrece chips basados ​​en Arm a sus clientes y tiene una estrecha relación con Ampere, desarrollador de CPUs orientadas específicamente al mercado de centros de datos basadas en la arquitectura Arm. La compañía de nube invirtió 40 millones de dólares en Ampere en 2019. En 2023, Reuters informó que Oracle había gastado más de 100 millones de dólares en chips Ampere.

Los clientes de Oracle también pueden acceder a instancias basadas en procesadores AMD Epyc Genoa.

La empresa ha sido una gran beneficiaria del auge de la IA, alquilando GPU a una amplia gama de clientes, en particular a Microsoft. En su última conferencia de resultados, la empresa reveló que solo en el cuarto trimestre había firmado más de 30 contratos de venta de IA, por un total de más de 12.500 millones de dólares.

La compañía también ha revelado que estaba construyendo un "centro de datos muy grande" para OpenAI, que tendría los chips y la interconexión más nuevos de Nvidia. OpenAI confirmó en junio de 2024 que usaría OCI para entrenar su gran modelo de lenguaje.

A principios de este mes, Oracle sufrió un duro golpe cuando xAI de Elon Musk se retiró de las conversaciones que podrían haber visto a este último invertir 10 mil millones de dólares en el uso de Oracle Cloud para cargas de trabajo de IA. Sobre la decisión de retirarse, Musk escribió en X: "xAI contrató 24k H100 de Oracle y Grok 2 entrenó con ellos. Grok 2 está pasando por ajustes y correcciones de errores. Probablemente esté listo para lanzarse el próximo mes. xAI está construyendo el sistema H100k de 100k por sí mismo para completarlo en el menor tiempo posible. El objetivo es comenzar el entrenamiento a finales de este mes. Será el clúster de entrenamiento más poderoso del mundo por un amplio margen.

"La razón por la que decidimos desarrollar el H100 de 100 000 y el siguiente sistema importante de manera interna fue que nuestra competitividad fundamental depende de ser más rápidos que cualquier otra empresa de inteligencia artificial. Esta es la única manera de ponernos al día".