Según un panel central en DCD>San Francisco que se ocupó de los temas más importantes, en la lucha entre la nube y las instalaciones, los usuarios podrían terminar siendo los perdedores; Los casos de uso de borde deben ser más específicos; y las densidades de potencia del rack podrían alcanzar los 60kW sin resolver el debate sobre el enfriamiento de aire versus líquido.

Siete oradores de compañías como Facebook, LinkedIn y Switch plantearon los grandes problemas al comienzo del primer día del evento DCD, en el Marriott Marquis de San Francisco.

El panel comenzó diseminando los rumores de la muerte del centro de datos, y pasó a proponer un enfoque más equilibrado de Edge, y señaló las realidades del mundo del centro de datos: densidades crecientes, la estandarización del hardware y un esfuerzo continuo para construir ganar la confianza de los usuarios finales.

Estrategias híbridas

Dean_Nelson.width-358.jpg

"Hay algo de material de marketing que dice que el centro de datos está muerto", dijo el CTO de Switch, Eddie Schutter, “pero la realidad es más compleja.”

Los clientes empresariales, dijo Schutter, se han mudado de sus centros de datos empresariales ya que “ese no es su negocio principal, no es donde obtienen sus ingresos en general. Así que están buscando cómo deshacerse de esos costos, y trasladar sus aplicaciones a la nube es un enfoque obvio ”.

Pero, señaló Schutter, "lo que estamos viendo es en realidad una comprensión entre los clientes de que muchas de sus aplicaciones no se ejecutan económicamente de manera efectiva en la nube, y han regresado al centro de datos".

Sin embargo, a pesar de estar desilusionados con la nube, estas empresas generalmente no vuelven a construir sus propios centros de datos, pero aceptan que deben administrar una mezcla de soluciones.

“Creo que es seguro decir que, la mayoría de los CIO buscan trasladar aproximadamente la mitad o más de sus aplicaciones a un entorno nativo de la nube, alrededor del 40 por ciento al espacio de colocación y mantener el último 10-20 por ciento en la empresa.

Este modelo híbrido es "una gran oportunidad de mercado", dijo Schutter: "No he escuchado a un CIO aún decir que el híbrido no es parte de su estrategia. Por lo tanto, supongo que el híbrido es un requisito, proporcionando una diversidad de implementación en la nube, diversidad de despliegue de atributos físicos, diversidad de dónde está ubicado ".

Dean Nelson, quien recientemente renunció como jefe de la división de infraestructura de Uber, estuvo de acuerdo.

“Cuando hablamos de híbridos, la realidad es que serán porcentajes ", dijo. "La nube no puede servir todo lo que todos necesitan: sirven mucho, son hiperescala por una razón, tienen plataformas que admiten bastante trabajo, pero a medida que comienzas a crecer, tienes las economías de escala. Y el problema cuando cruzamos esa línea, porque en algún momento, no puede permitirse estar al 100 por ciento en la nube".

Nelson cree que cuando una empresa supera el rango de servidores de 50.000-75.000, "puede obtener escala y costos que son mejores que la nube". Pero, por supuesto, aún no es tan grande como los jugadores de la nube. “Entonces eso significa que no estás en todas partes.

Para expandirse globalmente, para cumplir con los requisitos de GDPR, las leyes de residencia de datos o las demandas de latencia, es donde la nube tiene sentido nuevamente.

“Cuando estaba en Uber”, Nelson siguió, “pusimos en marcha la "estrategia del trípode". "Lo que consiste en hacer despliegues grandes y estandarizados de hiperescala para obtener las economías de escala. Para entonces ya tienes dos proveedores en la nube que están habilitando capacidades. Entonces ya existe un clima de Edge en las infraestructuras de muchas nubes, por lo que podría ejecutarse en servidores de todo el mundo, muy rápidamente y de manera rentable”.

Pero todo esto requiere una planificación cuidadosa y una comprensión profunda de lo que su empresa necesita, advirtió Nelson. "Lo único que les diría a todos es que si no tienes una taxonomía clara y no comprendes todos los elementos de tu stack y a dónde va tu dinero, desperdiciarás mucho dinero.

Schutter de Switch añadió que las organizaciones deberían tener en cuenta al tomar grandes decisiones de capital: el impacto en el poder adquisitivo.

“Creo que muchas organizaciones olvidan que hoy pueden tener 100.000 máquinas y rotar cada pocos años. Si están moviendo 30 o 40 por ciento de sus equipos a la nube, han perdido el poder de compra que tienen con los OEM con los que están trabajando”, dijo Schutter.

“Y hay un efecto de cadena adicional en el costo total de la aplicación. Cuando descubren que la nube les costó más de lo que pensaban, tendrían que regresar y volver a desarrollar nuevas relaciones con nuevos pronósticos para recuperar esos números. Por lo tanto, es un cambio bastante significativo para la transformación digital hacer ese compromiso de esa manera, y si se pierde es muy costoso para la organización. Tomará 10 años, tres o cuatro ciclos de vida, volver a ponerse en marcha y arreglar eso”.

Algunas empresas, dijo, "se encuentran primero atrapadas con una aplicación que tal vez 1.000 dólares se podrían convertir de repente en 5.000.”

Alta densidad

Chris_Orlando_ScaleMatrix.width-358.jpg

Otro cambio en el mercado es hacia un ecosistema de racks de mayor densidad, impulsado principalmente por el crecimiento de la carga de trabajo de inteligencia artificial y análisis de datos, dijo Chris Orlando, CEO y cofundador del proveedor de colo de alta densidad ScaleMatrix.

“Nuestras cargas de trabajo promedio para los clientes estaban en algún lugar en el rango de 5-7kW en nuestra cartera de colocación. A medida que nos expandimos por todo el país a cinco centros de datos diferentes, para aquellos que están adoptando inteligencia artificial y otras cargas de trabajo intensivas de cómputo, tenemos clientes que están saltando un poco el mercado de 10-20kW y están pidiendo que esas aplicaciones específicas lleguen a 30/40/50kW. Es una porción más pequeña del mercado, pero vemos que crece mucho más rápido de lo que pensábamos”.

La compañía utiliza su propio sistema de enfriamiento de agua de circuito cerrado patentado 'Control de densidad dinámica' e intercambio de calor localizado a nivel del gabinete para permitirle alcanzar densidades tan altas. “Observamos hacia dónde se dirigía la industria y nos dimos cuenta de que el enfriamiento por agua probablemente sería una forma de resolver algunas de las demandas futuras de los clientes.

"Realmente buscamos a esos clientes y les mostramos cómo se puede usar la eficiencia del agua para ayudar a reducir los costos, sin introducir nada demasiado exótico en la mezcla".

En Switch, "podemos hacer 60kW enfriados por aire en un espacio multiinquilino", dijo Schutter. Pero, dijo, la carga completa rara vez se usa realmente.

“Una de las cosas que hemos descubierto es que, aunque la capacidad se ha construido para un gabinete de 60 kW, las personas operan con una utilización del 40/50 por ciento en promedio. Por lo tanto, es interesante observar que, aunque existe el temor al escenario de alta densidad, las aplicaciones operativas siguen funcionando de la misma manera que siempre: nunca consumen completamente todo lo que está disponible".

Edge y vehículos autónomos

"Edge, Micro Edge ... hay como siete definiciones, es un nuevo término ambiguo", dijo Nelson cuando el panel se dirigió al nuevo tema. "Todo el mundo tiene una definición para ello, pero una cosa está clara: Edge será un jugador importante, punto". No hay ninguna duda al respecto.

Pero Nelson admitió que tiene dudas sobre un caso de uso de Edge tan promocionado: “En los últimos años, cambié de opinión con los vehículos autónomos.

“Pensé que producen cuatro terabytes de datos al día, deberíamos tener todos estos datos que salen de estos autos. Y debe procesarse en el automóvil, procesarse en Edge: proceso, proceso, proceso".

La realidad, dijo, era que la gran mayoría del procesamiento sucederá en el automóvil, y solo se extraerán "fragmentos de datos para poder hacer algo con eso". No son terabytes de datos los que salen de este automóvil”.

Edge seguirá siendo necesario en otros lugares, por supuesto: "Realidad virtual, realidad aumentada, cualquier cosa que sea crítica para la misión con requisitos de latencia".

“Habrá una distribución, habrá un Edge, habrá un Micro Edge, luego habrá pequeñas cosas, el IoT Edge está en todas partes. Pero todo continuará. ¿Cómo lidiamos con eso? No es en la forma tradicional en que construimos cosas hoy. El Edge cambiará todo eso”.

Trabajar como analista de HPC para el fabricante de armas y equipos militares Northrop Grumman le ha dado a Steve Schwarzbek una visión diferente sobre Edge.

“La nave espacial Voyager ha pasado la heliopausa [un límite del sistema solar, donde las señales tardan 17 horas en llegar a la Tierra]. Hay un caso en el que ese objeto necesita tener suficiente inteligencia durante 30 años. Así que vamos a tener una informática que está ahí, y entenderemos qué datos realmente se deben enviar a casa. Hablamos sobre un centro de datos que será su sistema de registro, que mantendrá sus datos clave.

"Tiene que ser seguro, tiene que tener un 100% de tiempo de actividad".

Más cerca de casa, "su nevera le responderá".

Skyler_Holloway_nIVTAZc.width-358.jpg

Una de las compañías que tal vez adoraría construir neveras inteligentes es Facebook, que se ha expandido de solo un negocio de redes sociales y publicidad a explorar empresas en dispositivos domésticos inteligentes y criptomonedas.

"Desde la perspectiva de Facebook, Edge es una aplicación específica y tiene en cuenta la experiencia del usuario", dijo el gerente de proyectos del centro de datos de la compañía Skyler Holloway.

“Cuando piensas en usar algo como, Portal [la pantalla inteligente de Facebook], la latencia es algo que es muy intrusivo para una conversación, y si hay algo que tiene un retraso en el sistema, entonces tu servicio pasa de ser exitoso a no tener éxito.

"Pero en el primer ejemplo de compilación de noticias o imágenes antiguas, los requisitos de latencia son bastante diferentes".

Facebook adopta un enfoque caso por caso para ver si vale la pena hacer una "inversión adicional para disminuir la latencia". Porque queremos estar seguros de que cuando invertimos más de lo que tenemos, tengamos un beneficio tangible para el negocio y que el usuario final se beneficiará”.

En el pasado, la latencia extremadamente baja no era particularmente esencial para el modelo comercial de Facebook. "A medida que comenzamos a mirar la realidad virtual o las experiencias inmersivas, se vuelve más importante", dijo Holloway.

"Por lo tanto, se trata de lograr un equilibrio adecuado para avanzar con la nueva tecnología con anticipación, pero lograr el equilibrio entre cuándo funcionará para usted y cuándo es realmente necesario, de modo que no esté avanzando demasiado e invirtiendo dinero en formas que en realidad no benefician el resultado final".

Salud y wearables

"Nos estamos moviendo muy, muy lentamente", dijo Steve Press.

Como vicepresidente de operaciones del centro de datos en la empresa de atención médica masiva Kaiser Permanente, la revelación de Press no es sorprendente. "No somos los primeros en adoptar, de ninguna manera".

La compañía tiene muchas más regulaciones que cumplir que el negocio promedio, incluidos HIPAA, SOX y PCI, “y para que podamos establecer nuestros acuerdos, de modo que nuestra cadena de auditoría pueda pasar de los centros de datos de Kaiser o los proveedores de la nube a quién es responsable, resolver todos los detalles ha sido una tarea enorme ".

El otro problema para la compañía es que, en el sector de la salud, “por lo general, las aplicaciones no se desarrollan como nativas de la nube. Y uno de los otros grandes problemas son las interfaces: una de nuestras aplicaciones de misión crítica se conecta a más de 70 aplicaciones de misión crítica en nuestro entorno, para reunir toda la información para cuidar a nuestros pacientes”, dijo Press.

“Hacer que todas esas interfaces funcionen en la nube entre nuestros centros de datos y nuestros proveedores de la nube es una tarea bastante difícil. Así que estamos listos, pero avanzamos mucho más lento de lo que originalmente habíamos previsto”.

Mirando hacia el futuro, Press ve promesas en un mundo conectado. “Creo que el área más grande en la que queremos ayuda de la industria son los wearables: Internet de las cosas para las personas. Cuando piensas en el Edge definitivo o el Micro Edge, eres todo”.

Los wearables podrían permitirle a Kaiser realizar un monitoreo crítico de la vida de los pacientes, 24/7. Solo hay un problema: "No creo que nadie confíe en los wearables todavía. Todos tienen interrupciones en la red, si está haciendo monitoreo de rehabilitación cardíaca y se pierde un incidente, ¿de quién es la culpa? ¿Es el proveedor de telefonía celular, el ISP?

"5G podría ser más confiable, pero no lo sabemos. Ese es probablemente el mayor problema para nosotros en la atención médica”.

Hardware abierto y 5G

Zaid_Ali_Kahn.width-358.jpg

"El hardware abierto es un espacio increíble", dijo el jefe de ingeniería de infraestructura de LinkedIn, Zaid Ali Kahn. “El software es súper maduro, pero el hardware abierto ha pasado por algunas tendencias muy interesantes.

“Obviamente, el Open Compute Project abrió el mercado. Y luego se nos ocurrió Open19 porque queríamos resolver el rack de 19 pulgadas, pero al final del día, también estás computando por hardware. Y luego, cuando estuve en China hace dos semanas, hablando con la gente de Baidu, y están trabajando en algo muy similar, el Proyecto Escorpio, "ahora conocido como el Comité del Centro de Datos Abiertos (ODCC).

Al ver los dispares esfuerzos de hardware abierto, Kahn se dio cuenta de que diferentes grupos tenían sentido para los equipos que intentaban moverse rápido, tratando de hacer cambios rápidamente en un área especializada. "Pero si queremos ir a lo grande, tenemos que ir juntos".

Y, para construir 5G, es hora de ir a lo grande. “Así que hay algunas discusiones realmente interesantes que hemos tenido con OCP y también en China; Todos sentimos que estas arquitecturas de rack son muy similares.

"Combinemos e intentemos colaborar, porque al final del día, el 5G Edge requerirá implementaciones más pequeñas y rápidas, por lo que necesitaremos una arquitectura muy simplificada".