AMD ha lanzado ROCm 6.2, la última versión de la pila de software de código abierto de la compañía.

ROCm, lanzado por primera vez en 2016, consta de controladores, herramientas de desarrollo, compiladores, bibliotecas y API para respaldar la programación de aplicaciones de HPC y IA generativas en GPU AMD.

En una publicación de blog, AMD ha dicho que ROCm 6.2 ofrece cinco mejoras clave con respecto a las versiones anteriores, incluido soporte extendido para Virtual Large Language Model (vLLM), entrenamiento e inferencia de IA mejorados en aceleradores AMD Instinct y soporte más amplio para FP8.

Esta compatibilidad actualizada con FP8 significa que ROCm 6.2 se puede ejecutar en los aceleradores MI300A y MI300X de AMD. La serie MI300, que se lanzará a principios de diciembre de 2023, está diseñada para entrenar y ejecutar modelos de lenguaje de gran tamaño. AMD afirma que los chips son los aceleradores de mayor rendimiento del mundo para IA generativa. El MI300X ofrece 2,6 petaflops de rendimiento FP8, que según AMD supera la velocidad de los chips H100 de Nvidia.

El ecosistema de soporte FP8 ampliado en ROCm 6.2 incluye un motor de transformador con soporte FP8 GEMM en PyTorch y JAX a través de HipBLASLt; integración vLLM; soporte JAX y Flax a través de XLA; soporte RCCL y MIOPEN; y encabezados FP8 estandarizados en todas las bibliotecas para simplificar el desarrollo y la integración.

También se ha añadido a la plataforma soporte para la biblioteca de cuantificación Bitsandbytes, lo que según la compañía “revoluciona el desarrollo de IA” al “aumentar significativamente la eficiencia y el rendimiento de la memoria” en los aceleradores AMD Instinct.

El proceso de instalación de ROCm también se ha simplificado mediante la incorporación de un Creador de instaladores sin conexión, lo que reduce la herramienta de instalación a un único archivo de instalación y automatiza las tareas posteriores a la instalación.

Por último, AMD ha lanzado nuevas herramientas de optimización y monitorización del rendimiento, denominadas Omniperf y Omnitrace. Aunque todavía se encuentra en fase beta, Omniperf ofrece análisis del núcleo de la GPU para realizar ajustes, mientras que Omnitrace ofrece una visión integral del rendimiento del sistema en CPU, GPU, NIC y estructuras de red.

La demanda de CPU AMD se lleva una tajada del mercado de centros de datos

El mes pasado, AMD reveló que durante el segundo trimestre de 2024, la compañía había vendido más de mil millones de dólares en sus chips de inteligencia artificial MI300X, lo que llevó a la directora ejecutiva, la Dra. Lisa Su, a actualizar su pronóstico de ingresos por GPU para centros de datos de 4 mil millones a 4,5 mil millones de dólares para 2024.

Tras los comentarios de Su de que las ventas de los chips alternativos Nvidia de la compañía habían sido "más altas de lo esperado", una nueva investigación de Mercury Research muestra que el segmento de productos de CPU de la compañía también ha experimentado un crecimiento saludable en los últimos cinco años.

Según el informe, la demanda de CPU Epyc de AMD ha hecho que la cuota de mercado de la empresa en ventas de centros de datos crezca del 2,9 por ciento en 2019 al 24,1 por ciento en 2024. Además, el crecimiento interanual durante los 12 meses anteriores alcanzó el 6,6 por ciento, lo que Mercury atribuyó a la expansión de las implementaciones en la nube y al creciente impulso empresarial.