Nvidia envió 3,76 millones de unidades de GPU para centros de datos en 2023, según un estudio de la casa de analistas de semiconductores TechInsights, lo que representa un aumento interanual de más de 1 millón de unidades enviadas y un crecimiento en las ventas del 42 por ciento en comparación con 2022.

Tal y como informó HPCwire, el estudio también muestra que Nvidia retuvo una participación de mercado del 98 por ciento en el mercado de GPU para centros de datos el año pasado, una cifra que continuó el dominio mostrado por la compañía el año anterior.

Como resultado, Nvidia ha visto crecer sus ingresos un 126 por ciento en 2023, alcanzando los 60.900 millones de dólares. A principios de este mes, la capitalización de mercado de la empresa alcanzó los 3 billones de dólares, lo que la convierte en la tercera empresa, después de Apple y Microsoft, en recibir tal valoración.

Cuando se incluyeron en el estudio AMD e Intel, los envíos totales de GPU en 2023 ascendieron a 3,85 millones, frente a 2,67 millones de unidades en 2022.

Sin embargo, también se espera que los rivales de Nvidia vean un crecimiento en los envíos este año, y AMD ya informó fuertes ventas de sus GPU de la serie MI300. Hablando después de que la compañía informara sus finanzas del primer trimestre de 2024, la directora ejecutiva Lisa Su dijo a los analistas que AMD esperaba que los ingresos por GPU del centro de datos superaran los 4 mil millones de dólares en 2024.

Además, el estudio también señala que las empresas tradicionales de semiconductores están empezando a enfrentarse a la competencia de empresas de hiperescala como Microsoft y Google, que han comenzado a desarrollar sus propios chips locales.

El acelerador de IA interno de Microsoft se llama Azure Maia 100 y se utiliza en los centros de datos en la nube de la empresa. La compañía también ha desarrollado sus propias CPU Azure Cobalt 100 basadas en Arm, diseñadas para soportar cargas de trabajo generales, centrándose en el rendimiento por vatio.

Mientras tanto, Google presentó la sexta generación de su chip de IA personalizado de Unidad de Procesamiento Tensor (TPU) denominado Trillium en la conferencia anual de desarrolladores de E/S de la compañía el mes pasado. La última versión de TPU ha sido diseñada específicamente para admitir LLMs y modelos de recomendación, incluidos Gemini, Imagen y Gemma de Google, con latencia reducida y costos más bajos.