Durante algunos años, ha existido una escuela de pensamiento de que la colocación está desactualizada y que eventualmente se marchitará a favor de la nube. Pero esa idea contradice los hechos.

El mercado de colo está creciendo obstinadamente. Pero no es el mismo mercado. Los primeros usuarios de la nube están regresando parcialmente a la colocación, y estos usuarios de colo nacidos de nuevo son muy diferentes a la vieja escuela.

Ha estado de moda ver la nube como un futuro que todo lo consume. La nube puede manejar cargas de trabajo masivas, los servicios son fáciles de comprar y escalables. Entonces, ¿por qué alguien se tomaría la molestia de comprar racks y servidores e instalarlos en un espacio de colocación minorista? ¡Seguramente debería dejar que la nube se encargue del trabajo pesado y continuar con su trabajo real!

Las cifras del mercado cuentan una historia diferente. Al promediar los pronósticos de un grupo de proveedores, parece que el mercado de colocación en su conjunto está creciendo enormemente, alrededor del 16 por ciento por año. Durante los próximos diez años, eso se suma a un mercado que se cuadruplicará en tamaño, pasando de aproximadamente $ 46 millones en 2020 a $ 200 mil millones en 2030.

Los investigadores de mercado dicen que el sector de la colocación minorista es más grande que la colocación mayorista, donde grandes operadores alquilan centros de datos completos, y la colocación minorista mantendrá su liderazgo al menos hasta 2030. ¿Qué está pasando?

La nube es masiva y eficiente

En primer lugar, es más complicado que eso. Los centros de datos en la nube son realmente enormes porque, junto con los arrendados en acuerdos de colo mayorista, los hiperescaladores poseen una gran cantidad de sitios, que ellos mismos han construido. Estas son bestias enormes, con demandas de energía de hasta 1,000MW.

"Hoy dominan el mercado", dice Yuval Bachar, un veterano de hiperescala con temporadas en Microsoft Azure, Facebook, Cisco y LinkedIn. “Estos mega centros de datos en realidad representan alrededor del 70 por ciento del negocio de centros de datos en el mundo, tanto desde el consumo de energía como desde la perspectiva del espacio en el piso”.

Pero la hiperescala incluye algunos gigantes que en realidad son servicios de TI internos gigantes, como Facebook, señala Bachar: “Facebook es probablemente uno de los mayores operadores de centros de datos del mundo en la actualidad. Pero atienden sus propias necesidades empresariales. No son un servicio de nube pública, están ejecutando su propia nube interna".

Bachar dice que los centros de datos en la nube a hiperescala tienen una gran ventaja sobre otros sectores, en su capacidad para entregar energía de TI barata: “Estos sitios generalmente se encuentran en áreas remotas donde la tierra es barata y la energía está disponible a partir de múltiples fuentes verdes.

Si esos sitios no tienen conectividad, los hyperscalers tienen el músculo para proporcionarla: “Las grandes empresas que están construyendo esos mega centros de datos necesitan traer conectividad a esos sitios y ser creativos para crear la red troncal. Y todos y cada uno de ellos están creando su propia columna vertebral ".

En estos sitios, los hyperscalers "comienzan con uno o dos edificios y luego se expanden en un modo de replicación, en el mismo sitio", dice Bachar. "Crean un nivel muy alto de eficiencia al operar el centro de datos con un PUE de 1.06 a 1.1".

En su opinión, los hyperscalers están "creando un nivel muy, muy significativo de centros de datos ecológicos".

La colocación tiene desafíos

Los sitios de colocación más pequeños son muy diferentes, dice. Fueron configurados para alojar servidores físicos propiedad de empresas que “decidieron no construir realmente su propio centro de datos, sino poner parte de su carga de TI en un sitio de colocación.

“Estos son sitios pequeños entre 50 y 75MW y, en algunos casos, pueden ser incluso más pequeños que 15MW. Están más cerca de las áreas urbanas, porque históricamente esos sitios en realidad se han acercado a las oficinas centrales de sus clientes ".

Estos proveedores de colo tienen grandes desafíos, dice Bachar: “Estos edificios no son escalables. Debido a que están ubicados en áreas urbanas, el tamaño que han sido construidos es el tamaño con el que realmente van a operar por el resto de su vida. No tienen espacio de expansión”.

Un segundo desafío es que "están muy regulados, porque cuanto más te acercas al centro de la ciudad, más regulado estás en cuanto a emisiones, disponibilidad de energía y todos los aspectos que afectan el medio ambiente que te rodea".

Así que las probabilidades están en contra de las empresas de colocación más pequeñas. Pero su participación de mercado se niega resueltamente a disminuir, y hay una razón sorprendente para ello. Según Greg Moss, socio de la firma de asesoría en la nube Upstack, un gran número de los primeros en adoptar la nube están trasladando capacidad fuera de la nube.

Los desertores de las nubes vuelven a colo

“La nube pública como la conocemos ha existido durante 12 años, ¿verdad? Quiero decir, los tres grandes: GCP, Azure y AWS. Todo el mundo ve el crecimiento, todo el mundo ve que la gente va a la nube pura y simplemente corre hacia la nube como para beber Kool-Aid. De lo que no se dan cuenta es que esa moneda tiene dos caras ".

Según Moss, los primeros en adoptar, las empresas "atractivas e innovadoras" que se apostaron por la nube hace doce años, "están ahora en un punto en el que están sacando al menos una parte de su entorno, podría ser 20 por ciento, podría ser 80 por ciento e hibridar, porque de lo que se han dado cuenta en los últimos 12 años, esa nube no es perfecta. Para obtener realmente la eficiencia desde una perspectiva económica y técnica, realmente necesita estar en algún tipo de entorno híbrido ".

Las empresas comenzaron con una "reacción instintiva" para poner todo en AWS, dice: "¿Por qué? Porque algún miembro de la junta lo ordenó, o porque nuestros competidores lo están haciendo, o porque está de moda en este momento".

Más adelante, la situación se vuelve amarga, porque en muchos casos, alquilar capacidad bajo demanda cuesta mucho más que poseer el hardware: "Alguien está perdiendo su trabajo, porque se da cuenta de que está gastando un 30 por ciento más de lo que gastaba - y todo el ejercicio se trataba de la reducción de costes y la innovación ".

El problema con la nube

Resulta que ir a la nube no es una respuesta simple a todas las preguntas: “No resuelve nada. Simplemente entrega el entorno de su centro de datos a una empresa diferente. Si el centro de datos simplemente desapareció y milagrosamente vive en el ozono, entonces está bien. Pero no lo es. Simplemente está cambiando la infraestructura en un modelo facturable diferente. Tiene sentido: algunas personas quieren consumir hardware en una función de día a día o hora a hora”.

Los operadores de nube a hiperescala pueden permitirse perder algo de personalización, dice Moss, porque todavía tienen un crecimiento masivo debido a los usuarios tardíos: “AWS, GCP y Azure todavía están experimentando un gran crecimiento en este momento, debido a la atención médica, debido a no- con fines de lucro, por razones legales, por todas las empresas que no son atractivas y que ahora se sienten lo suficientemente cómodas para migrar a la nube ".

Pero los primeros usuarios realmente no están contentos, y tienen problemas: “Están estancados durante cinco a 10 años, porque nadie se va a retirar de una migración masiva o una decisión masiva después de hacerlo, independientemente del resultado. Entonces, es por eso que los primeros en adoptar ahora están saliendo. ¡Finalmente! Después de 10 o 12 años ".

Pero todavía no es fácil: “Probablemente les hubiera gustado sacar una parte de su entorno hace seis años, pero no pueden porque no tienen personal. Hay un gran déficit de talento en la industria ".

Y está la política de la empresa: “Hay una persona que lleva allí 15 años, que simplemente no quiere hacer más de lo que está haciendo. Recoge a su hijo todos los días en la escuela a las tres, y sabe que si la TI se encuentra en AWS, puede seguir haciendo su trabajo e irse a las tres y recoger a su hijo. Podría ser el portero.

"He visto grandes empresas descartar ahorros de $ 50 millones al año porque el guardián, un empleado de $ 150,000, simplemente no le dice a la gerencia que hay una oportunidad".

Tarde o temprano, esos primeros usuarios pueden superar a los guardianes y comenzar a cambiar el equilibrio de su provisión de TI hacia un modelo híbrido con algunas cargas que regresan a la colocación. Pero estos clientes son una nueva generación y querrán algo más que los racks resistentes con energía y redes, que eran lo suficientemente buenos en el pasado.

Necesidades del colo nacido de nuevo: bare metal y cloud onramp

“No se puede simplemente tener una gran capacidad de recuperación, hay que tener una solución total. Eso significa grandes cantidades: un centro de datos resistente. Y algún tipo de componente bare metal o gestionado a medida, como Equinix Metal, por ejemplo. Y luego está la conectividad a las grandes nubes públicas, a través de un socio como Megaport o una rampa de acceso directa. Esos son los tres componentes que componen la hibridación ".

La capacidad habla por sí misma, mientras que el bare metal es una forma de poseer capacidad dedicada en la infraestructura de otra persona. Los clientes pueden necesitar esto para cumplir con las reglas de privacidad que requieren que los datos del cliente tengan una ubicación específica lejos del hardware compartido.

Y la necesidad de rampas de acceso a la nube pública es obvia. Si los clientes están construyendo nubes híbridas que incluyen servicios de nube pública, así como sus propios servidores colocados, debería haber enlaces fáciles de usar entre los dos.

A diferencia de los primeros entusiastas de la nube, los clientes de coubicación nacidos de nuevo están pensando en el futuro, dice Moss. Las reglas de privacidad pueden obligar a que algunas cargas se realicen en el futuro. O podrían abrir una nueva rama comercial que tendría picos estacionales, y eso podría requerir un enlace rápido a la nube.

Están pensando en el futuro debido a los problemas que están experimentando debido a su adicción a la nube, pero también porque, si eligen el color equivocado, podrían tener que mover toda su TI. Y, como dice Moss, “nadie quiere trasladar un centro de datos. Es el mayor dolor en el trasero ".

Hay empresas que moverán físicamente los racks de servidores de una instalación a otra, pero Moss dice: “Cobran $ 5,000 en seguros por cada millón de dólares en hardware, incluso si se mudan a tres cuadras de distancia. Si mueve hardware por valor de $ 10 millones, el costo de su seguro será superior a $ 50,000. ¿E incluso volverán a encender? "

Poder y redes

Según Bachar, los nuevos clientes de colo tienen otra demanda: tienen mucho más hambre de energía: “Si miramos las tecnologías en los mega centros de datos y los colos, ahora el 80 por ciento de la carga de TI son servidores de computación y almacenamiento. Estamos comenzando a ver la aparición de servidores de IA y GPU, que están creciendo a un ritmo mucho más rápido que los servidores de computación y almacenamiento, y los servidores de almacenamiento especializados que van de la mano con las GPU y la IA.

“Y el motivo es que estamos empezando a trabajar con conjuntos de datos muy grandes. Y para procesar esos conjuntos de datos tan grandes, necesitamos un servidor, que está más allá del servidor informático estándar ".

Pero los servidores GPU y los servidores informáticos estándar integrados con GPU exigen más potencia: “Esos servidores de alta potencia están desafiando nuestra infraestructura. Si observa un servidor GPU de gama alta típico, como los de Nvidia, estos servidores funcionan entre 6000 W y 8000 W vatios por cada seis unidades de rack (RU). Eso es muy difícil de encajar en una colocación estándar donde la potencia promedio por rack es de 6 kW a 8 kW ".

En esas cifras, un bastidor estándar es de 42 RU, por lo que un bastidor completo de servidores GPU podría exigir un aumento de siete veces en la potencia.

Una cosa que ayudaría es una mayor flexibilidad: “¿Estoy usando un rack de alta potencia o un rack de baja potencia? ¿Puedo realmente mezclar tecnología dentro del rack? Necesitamos una capacidad muy flexible en los centros de datos ".

Las nuevas aplicaciones también necesitan más ancho de banda de red, dice Bachar: “Hoy en día, las redes son 100 y 400 Gigabit Ethernet como base. Continuaremos aumentando esto a 800G y 1.2Tbits en el futuro ".

¿Pueden los pequeños colos hacer frente?

Todos estos cambios están imponiendo enormes demandas a las pequeñas empresas de colocación, mientras que hay un aumento en la demanda de lo que ofrecen, y ese es un factor importante que impulsa el aumento actual de fusiones y adquisiciones de colocación, dice Moss.

Los colos más pequeños se dan cuenta de que en realidad no pueden financiar todos los cambios que necesitan para ser realmente exitosos: "Entonces, ves que muchos de estos centros de datos más pequeños se venden a los grandes".

Mientras tanto, dice: “Los grandes los están comprando porque acelera su salida al mercado, porque la infraestructura ya está instalada. Se necesita mucho tiempo para construir un centro de datos. Probablemente podría salirse con la suya con una construcción abandonada en los EE. UU. Dentro de 18 meses. Si es Greenfield, es más probable en tres años.

Muchas solicitudes tienen una escala de tiempo más corta que eso: “Imagine que es Equinix, tiene tres centros de datos en un mercado y todos están a punto de estallar. Te queda muy poco inventario. Pero uno de sus clientes más importantes, o una solicitud de propuesta de un cliente nuevo, dice: "En 12 meses, vamos a necesitar un megavatio y medio". Pero no se puede construir en ese tiempo ".

En esa situación, el jugador grande puede comprar un jugador regional más pequeño, cuyo centro de datos está lleno solo en un 30 por ciento, y poner a ese cliente allí.

“Invierte algo de dinero en actualizaciones, lo eleva a los estándares y obtiene ciertos certificados que no existen, y ahora tiene un inquilino ancla, y tal vez la instalación esté llena en un 60 por ciento”, dice Moss. "Al banco le encanta, porque el banco asume los arrendamientos de clientes existentes para financiar, y también aceptan el nuevo arrendamiento de arrendatario exclusivo, que probablemente durará 10 años".

Los otros clientes también están contentos, ya que el centro de datos recibe un lavado de cara quizás atrasado, junto con la adición de esas nuevas funciones imprescindibles, servicios básicos y rampas de acceso.

Las probabilidades están en los grandes jugadores de colo

Los pequeños jugadores de colo a menudo critican a gigantes como Equinix o Digital Realty (DRT), alegando que cobran de más por conceptos básicos como energía y enfriamiento, así como servicios como conexiones cruzadas, enlaces entre dos servidores en la red. Es muy barato para un colo grande activar un enlace de red entre dos de sus clientes, que incluso pueden estar en el mismo edificio y, sin embargo, a los clientes se les cobra un precio alto por esas conexiones cruzadas.

Las multinacionales no ven eso como un problema, dice Moss: “Una empresa como Equinix o DRT tiene todo lo que necesita para tener éxito. Vas a pagar una prima, pero esa prima, si se utiliza correctamente, no es realmente una prima. Si estoy usando Equinix en tres países, puede que esté pagando un 30 por ciento más en espacio y energía, pero estoy ahorrando muchísimo dinero en mis costos de replicación en esos tres centros de datos porque estoy aprovechando sus tela.

“Una empresa local de 200 personas en Pensilvania, cuyo ingeniero de redes quiere tocar cada parte del hardware, se dirigirá a TierPoint, porque está a dos millas en el camino”, dice. “No tiene este despliegue en tres países, solo tiene 10 bastidores en una jaula y quiere asegurarse de que está allí si algo falla. Todavía hay mucho de eso en el país, pero la mayor parte del dinero se gasta en empresas como Equinix y DRT ".

Problemas más grandes en el horizonte

Pero hay más problemas por venir, que harán que incluso los jugadores más grandes tengan dificultades. Bachar los resume como Edge y Climate.

Los proveedores de coubicación tendrán que seguir brindando sus servicios, ofreciendo una mayor capacidad de energía, desde una red que tiene que cambiar a energía renovable para evitar una catástrofe climática.

“Nuestro sistema de energía está en transición”, dice Bachar. “Estamos tratando de mover las cuadrículas a una cuadrícula verde. Y esa transformación está creando inestabilidad. Las redes son inestables en muchos lugares del mundo en este momento, debido a esa transición a un entorno verde ".

Al mismo tiempo, se necesita capacidad en las ubicaciones urbanas donde las redes se enfrentan a la mayor crisis.

En la actualidad, todos los datos de Internet deben pasar por puntos de intercambio. “En Estados Unidos hay 28 puntos de cambio que cubren todo el país. Si envía un mensaje de WhatsApp desde su teléfono a otro teléfono y ambos se encuentran en Austin, Texas, el tráfico tiene que pasar por Chicago ".

La siguiente etapa de colo necesitará redes localizadas, dice Bachar: “En los próximos tres a cinco años, tendremos que encontrar soluciones para procesar en Edge o crear redes troncales más fuertes y mejores. Tenemos un problema con la nube Edge. No está creciendo lo suficientemente rápido ".

Los centros de datos de colocación del futuro tendrán que estar en áreas urbanas: “Tendrán que complementar y vivir en esas áreas sin conflicto”, dice Bachar. Eso significa que deben diseñarse teniendo en cuenta el cambio climático: satisfacer las necesidades de capacidad sin aumentar las emisiones.

“No podemos seguir construyendo centros de datos como solíamos construirlos hace 15 años, no funciona. No nos ayuda a hacer avanzar la sociedad y crear un entorno para nuestros hijos o nietos ".