En 2020, comenzamos a publicar los hallazgos de nuestro artículo para IEEE Transactions on Sustainable Computing, una de las revistas revisadas por pares más importantes del sector. Llamado "Optimización de los ciclos de actualización del servidor: el caso de la economía circular con una ley de Moore envejecida", defendió la optimización de las propiedades del servidor a nivel de máquina mediante la evaluación comparativa de servidores de generaciones nuevas y antiguas. Demostró que simplemente reemplazar las máquinas con el último modelo y asumir que esto reduciría a la mitad las facturas de energía ya no tenía sentido. Los hallazgos del documento podrían y deberían haber tenido impactos transformadores en la forma en que se compraron, configuraron y optimizaron los equipos de TI.

¿Cómo reaccionó la comunidad de TI y centros de datos ante esta noticia, con un estallido o un gemido? Francamente, apenas reaccionó. Dimos discursos de apertura en eventos Net Zero, cumbres tecnológicas y conferencias internacionales y cada vez que se recibió con un "¿Y qué?". A pesar de la creciente evidencia de que renovar la venta al por mayor con la última generación de equipos ya no resultó en una duplicación de la eficiencia, el sector continuó con Business as Usual.

Al leer la prensa de la industria en los últimos meses, es posible que esa actitud tenga que cambiar. El fabricante de chips AMD y los gigantes tecnológicos Google y Nvidia han aceptado internamente la disminución de la Ley de Moore durante años. Como resultado, las organizaciones han rediseñado de forma independiente las cargas de hardware y aplicaciones.

Cambio de mar

En julio de 2022, AMD anunció el desarrollo de una nueva tecnología de chips para impulsar el rendimiento y la eficiencia del servidor. Al pasar de los chips monolíticos grandes, la empresa pasó a chips o chiplets más pequeños. Al hacerlo, han podido aumentar la eficiencia en un 60% durante los últimos cuatro o cinco años, al mismo tiempo que triplicaron el rendimiento. Esto se compara con los chips de diseño tradicional de Intel, que han ganado un 40 por ciento de rendimiento y se han estancado en la eficiencia. La parte interesante es por qué AMD eligió hacer esto.

Como se describe en nuestro documento, la arquitectura de la CPU disfrutó de grandes ganancias en el rendimiento por vatio cuando comenzó a utilizar la tecnología multinúcleo. Ocho núcleos en cada procesador significaban ocho veces los datos que podía manejar al mismo tiempo. A medida que la cantidad de núcleos se duplicó con cada generación sucesiva, también lo hizo la potencia de procesamiento del chip. Vimos grandes beneficios con esto hasta 2015. Sin embargo, los chips en sí no se hacen más grandes. Hay un punto de inflexión en el que los fabricantes se quedan sin espacio para nuevos núcleos o los núcleos se quedan sin espacio para los datos. Observar las tendencias de eficiencia de la CPU después de 2015 muestra solo mejoras incrementales en el rendimiento y la eficiencia con la carga máxima y una disminución de la eficiencia en el modo de bajo consumo.

La respuesta de AMD a esto ha sido modificar el diseño de los chips. Mientras que la última generación de su rival Intel contiene 40 núcleos que se conectan a procesadores y periféricos externos, AMD divide el procesamiento en nueve chipsets, ocho con ocho núcleos y uno que es un concentrador de conectividad de un solo chiplet. Al hacer esto, AMD ha hecho una compensación que optimiza la eficiencia de las aplicaciones de nube y HPC a costa de aplicaciones ampliadas, como el procesamiento de bases de datos y las aplicaciones de bases de datos. En lugar de diseñar un chip para todas las cargas de trabajo, el diseño favorece un uso en un contexto particular.

AMD ahora se ha convertido en una excelente opción para servicios de TI en la nube (como virtualización de escritorio y procesamiento de transacciones). Al observar los datos de rendimiento en múltiples marcas y modelos de servidores, queda claro por qué sucede esto. Nuestra empresa, Interact, se especializa en recomendaciones de hardware para centros de datos y empresas medianas y grandes. Analizamos el estado utilizando una aplicación de aprendizaje automático, medimos el rendimiento por vatio y la capacidad de rendimiento total de las diferentes máquinas y hacemos recomendaciones específicas para el ahorro de energía y costos durante un período determinado. Regularmente vemos a los sistemas basados ​​en AMD como los de mayor rendimiento y rendimiento por vatio. Sin embargo, descubrimos recientemente que Google, que fabrica sus propios chips, ha emprendido un viaje similar internamente.

Hardware específico de la aplicación

Recientemente se hizo público que Google también notó la disminución de la Ley de Moore en 2015 y también rediseñó la arquitectura del chip. En abril de 2021, los medios de prensa de la industria Cnet , Ars Technica y DCD cubrieron la historia, con base en un artículo científico en ASPLOS , que reveló que YouTube había comenzado a hacer un videoclip especializado después de darse cuenta de que las aplicaciones serían menos óptimas y, por lo tanto, menos rentables, como resultado de la desaceleración.

La función específica que requerían (a saber, la transcodificación de YouTube para minimizar el almacenamiento de video) no fue bien atendida por las CPU estándar. Entonces, YouTube decidió construir sus propios chips siguiendo el modelo de minería de Bitcoin de usar ASIC (circuitos integrados específicos de la aplicación) para crear hardware que fuera el más eficiente para la tarea requerida. YouTube comenzó a usar las VCU (unidades de codificación de video) en 2018.

Los chips finalmente anunciados pudieron ofrecer entre 20 y 33 veces el rendimiento del hardware tradicional para su función específica.

Los chips pudieron hacer esto porque se especializaron en entregar transmisiones de video a todo tipo de dispositivos. El archivo cargado completo se reproduciría en un monitor o TV. Se necesitan versiones más pequeñas para una computadora portátil e incluso versiones más pequeñas para un teléfono inteligente. Mientras que antes el centro de datos habría necesitado tres máquinas diferentes para albergar esta transmisión, la VCU podría hacerlo con una. Google también desarrolló otro ASIC, la unidad de procesamiento de tensor (TPU) para aplicaciones de inteligencia artificial.

Centros de datos empresariales

Google puede realizar cambios masivos porque tiene enormes recursos y una buena supervisión de las cargas de trabajo que administran sus centros de datos. Los operadores más pequeños, que pueden no ser propietarios de los servidores en sus instalaciones ni controlar las cargas de trabajo que ejecutan, deben adoptar un enfoque diferente. Con el panorama de los procesadores cada vez más complejo, la configuración de las máquinas y la especificación de acuerdo con una carga de trabajo específica son de suma importancia. Es posible que se requieran compensaciones, pero si sabe lo que quiere hacer, puede elegir el hardware que coincida. El enfoque de adquisición de "talla única" no tiene sentido y las opciones disponibles para aprovechar al máximo su hardware son enormes.

El desafío es evaluar con precisión la eficiencia de las máquinas y luego llegar al nivel más granular de medir el rendimiento de los grupos de cargas de trabajo. Las máquinas muy antiguas, aunque consumen mucha energía por la potencia de cómputo que ofrecen, pueden reemplazarse con generaciones posteriores y lograr las ganancias de rendimiento y eficiencia energética necesarias. Las actualizaciones y la reconfiguración también pueden contribuir a lograr el mismo rendimiento por una fracción de la energía y el costo.

Muchos centros de datos empresariales no poseen ni ejecutan sus propios servidores, por lo que se ve como un problema de otra persona. También hay una tendencia a ir con lo que sabes, y esperar que las leyes que eran ciertas hace diez años sean igualmente ciertas hoy. Sin embargo, esto representa una tremenda oportunidad perdida.

El negocio como de costumbre da como resultado enormes contribuciones al creciente flujo de desechos electrónicos (53 millones de toneladas en todo el mundo según el último recuento). También tiene un impacto en el agotamiento de nuestros recursos de materiales raros como el cobalto, el litio y el tántalo.


Por Rich Kenny, director general de Interact