Cuando se trata de redes, las velocidades más altas y el mayor rendimiento son mejores. No sorprende que muchas organizaciones, especialmente aquellas en industrias orientadas al rendimiento, como finanzas, atención médica, Big Tech, etc., estén bien en el proceso de actualización de equipos.

Sin embargo, a pesar de la exageración en torno a las velocidades de red de 40 Gbps y 100 Gbps, 10 Gbps sigue siendo una parte integral de muchos centros de datos corporativos en la actualidad. Y eso crea un problema; si los equipos de TI y NetOps descuidan la visibilidad y el control de estos segmentos de red más antiguos, crearán puntos ciegos y agujeros de seguridad en la red corporativa. Por el contrario, las organizaciones que se encuentran en las primeras etapas del viaje de actualización querrán soluciones preparadas para el futuro para adaptarse mejor a 40G/100G, o tendrán puntos ciegos en el extremo superior.

En cualquier caso, para mantener el rendimiento y la seguridad generales de la red, TI debe crear una infraestructura de visibilidad que pueda intermediar, capturar y analizar paquetes a una variedad de velocidades sin descartar paquetes innecesariamente.

10G sigue siendo relevante para las empresas

Es probable que la infraestructura 10G se quede con nosotros en el futuro previsible, por varias razones. En primer lugar, muchas industrias o empresas que no requieren altas velocidades probablemente tardarán en actualizarse y, cuando lo hagan, no reemplazarán toda la red a la vez. Esto se debe a que el ciclo de actualización de los conmutadores de hardware y equipos similares es de varios años, lo que puede alargar las actualizaciones. Mientras tanto, esas organizaciones deberán seguir monitoreando 10G.

Incluso las empresas que han actualizado gran parte de su infraestructura a 40 o 100 G normalmente se centrarán en segmentos particulares, como el tráfico de norte a sur, y reservarán una velocidad más lenta de 10 G para el tráfico de este a oeste o de borde. Las herramientas de seguridad y TI complican esto aún más, ya que muchas herramientas de detección y respuesta de red, firewalls y otros dispositivos no pueden ingerir tráfico a velocidades superiores a 10G. Todo esto significa que, en la práctica, la mayoría de las organizaciones trabajarán con una combinación de velocidades de forma indefinida. Esto puede crear una barrera a la visibilidad.

Mantener la visibilidad de 10G a 100G

La visibilidad es binaria: o la tienes o no la tienes. Si no se incluyen partes de la red, TI realmente no tiene visibilidad. La capacidad de monitorear todo el tráfico es fundamental para evitar puntos ciegos que, de otro modo, dejarían a la organización abierta a vulnerabilidades de seguridad y problemas de rendimiento. En términos de equipos de monitoreo, esto significa que estas organizaciones necesitan corredores de paquetes o dispositivos de captura que ofrezcan una gama de puertos a través de velocidades para que puedan distribuir/capturar paquetes a la velocidad correcta para una necesidad o destino determinado.

Realizar análisis en tiempo real o capturar paquetes en el disco a velocidades superiores a 10 G requiere la implementación de componentes de hardware especializados; de lo contrario, los paquetes se perderán. El uso de equipos con clasificación 10G en segmentos de red más nuevos y rápidos dará como resultado una visibilidad degradada gracias a estos paquetes perdidos.

Por el contrario, dejar de monitorear los segmentos 10G por completo ni siquiera debería considerarse una opción, ya que esto crea grandes agujeros en la red. Uno podría pensar que es posible usar equipos más antiguos para estos segmentos más antiguos y ejecutarlos junto con hardware más nuevo en los segmentos más rápidos, y hasta cierto punto eso es cierto. Pero lo que está haciendo funcionalmente es crear y mantener una infraestructura de monitoreo duplicada, lo que aumenta la sobrecarga y también puede degradar la visibilidad a medida que los equipos de TI y seguridad cambian de contexto de un segmento a otro.

La creación de una infraestructura de visibilidad es compleja, especialmente para las empresas de nube híbrida que deben acceder a paquetes de datos desde nubes públicas o privadas, así como locales. Intentar construir y administrar dos a la vez es una receta para el desastre. Este es otro argumento a favor de la visibilidad a prueba de futuro; una infraestructura que puede admitir una variedad de velocidades no necesitará ser reemplazada en unos pocos años a medida que se actualice más infraestructura de red.

Visibilidad única

El mejor y más fácil enfoque es tener una infraestructura de visibilidad única para simplificar la administración y facilitar el mismo análisis para todos los enlaces, independientemente de la velocidad que utilicen. Esto requiere soluciones de intermediación y captura de paquetes que tengan el hardware interno y los puertos externos para manejar simultáneamente una variedad de velocidades. No son comunes, pero están ahí afuera. Esto no solo crea una arquitectura de monitoreo unificada, sino que también brinda a los usuarios las últimas características y funciones, independientemente de si estamos hablando de 10G, 40G o 100G. Además, este nuevo equipo será significativamente más denso, lo que ahorrará un valioso espacio en el centro de datos. En última instancia, este enfoque permite a las organizaciones continuar utilizando de manera segura segmentos, equipos y software de 10G, prolongando esas inversiones en TI.

No hace mucho tiempo que hablábamos de cómo agregar velocidades más rápidas de 40G y 100G a la red manteniendo la observabilidad existente. A medida que esas velocidades se vuelven cada vez más frecuentes en el centro de datos, la conversación está cambiando a cómo mantener mejor la visibilidad para los segmentos 10G más antiguos. Es una discusión importante para tener.


Por Trey Moczygemba, gerente sénior de productos en cPacket Networks