Hoy en día, todas nuestras actividades (compra online, trabajo, interacción laboral o personal en encuentros remotos vía videoconferencia, etc.) se han vuelto intensivas en el uso de datos. Estamos creando una ingente cantidad de datos que se deben procesar, analizar y utilizar luego para que aplicaciones, servicios y empresas funcionen sin problemas. Como consecuencia de la expansión de la automatización, la movilidad y el internet de las cosas (IoT), los datos crecen de forma exponencial. Dentro de solo cinco años, se estima que 463 exabytes de datos se crearán cada día a nivel mundial. 

Esta tendencia hacia la economía digital está transformando la manera en que las empresas crean y entregan valor a sus clientes. Al tiempo que los datos se acumulan y aumenta su procesamiento, aparecen desafíos considerables para la infraestructura IT actual. Dicha acumulación de datos tiende a atraer servicios y aplicaciones, creando el efecto data gravity. Esto describe un resultado similar a lo que sucede con la atracción entre objetos, como puede ser entre la luna y nuestro planeta. Pero a medida que los datos se acumulan y un número mayor de servicios y aplicaciones comienza a utilizarlos, los datos pueden producir un resultado negativo sobre el negocio: aparecen complejidades y se obstaculiza el proceso de transformación digital. 

Data gravity es el reto más significativo que enfrentan hoy las empresas. Suma dificultades al proceso de negocio y entorpece los objetivos de flexibilidad y agilidad necesarios para transformar digitalmente las organizaciones. Es necesario contrarrestar el efecto contraproducente de la atracción ejercida por los datos y no ignorarlo. Para ello, es vital modernizar las infraestructuras IT para gestionar en forma eficiente el flujo de datos entre usuarios, ubicaciones, servicios cloud y redes de comunicación. Para sacar partido del efecto data gravity es necesario contar con una red de comunicaciones que desarrolle centros de intercambio de datos. Esto facilitará que el tráfico se agrupe y se mantenga a través de nubes públicas o privadas, en la infraestructura central o en ubicaciones edge, y desde cualquier punto de presencia corporativo. Una infraestructura IT actualizada disminuye las barreras provocadas por el data gravity, acercando los datos hasta las aplicaciones, la potencia de cálculo, los usuarios y los dispositivos. 

Data Gravity Index DGx™ v1.5 es una previsión mundial actualizada que mide la intensidad y la fuerza de atracción del crecimiento de los datos corporativos en 53 ciudades y 23 sectores.

blog-image-data-gravity-1.jpg
– Interxion

La inteligencia artificial acelera la innovación en infraestructura IT corporativa 

Tecnologías como la inteligencia artificial (IA) pueden agravar el efecto negativo de data gravity sobre la infraestructura IT de las empresas. El proceso de entrenar modelos de IA es repetitivo y complejo; si la infraestructura que aloja la potencia de computación para la IA no está cerca de los datos corporativos, el entrenamiento se vuelve más dificultoso y prolongado. Y si el caso es que los datos están alojados en la nube, el coste se volverá prohibitivo rápidamente, dado el elevado precio de mover dicha información. Por tanto, resulta clave la proximidad a la ubicación donde se alojen los datos, como puede ser el caso de un centro de datos especializado, para poder así entrenar modelos de IA de forma efectiva. 

Aunque muchos expertos en datos son matemáticos brillantes que pueden desarrollar rápidamente algoritmos para modelos de IA, no todos tienen conocimientos de arquitectura de software o IT distribuida. Este es el motivo por el que se observa una tendencia en desarrollo: la “deuda del modelo”. En esta situación, el equipo de expertos de datos desarrolla modelos de IA con rapidez pero que no pueden implementarse durante meses, hasta que los equipos de infraestructura IT y de aprendizaje automático desarrollan el procedimiento necesario para desplegar y mantener los nuevos modelos satisfactoriamente. 

Las demandas cada vez mayores de las aplicaciones de IA y la creciente popularidad de capacidades de realidad virtual y realidad aumentada requieren centros de datos profesionales, diseñados y construidos para soportar los requerimientos de nuevas tecnologías y aplicaciones. Con este objetivo, nos hemos asociado con NVIDIA como colocation partner para sus sistemas DGX. Podemos resolver así los problemas que surgen a la hora de contar con la potencia eléctrica requerida o la conectividad necesaria para que las empresas puedan contar con recursos potentes de computación junto a los datos de sus clientes. De esta forma incorporamos los principios de data gravity y ofrecemos la posibilidad de acceder a centros de datos hiperconectados con las capacidades de energía, refrigeración y cargas de trabajo que requiere la IA.  

blog-image-data-gravity-2.jpg
– Interxion

Construimos los cimientos de nuestro futuro digital 

Las demandas que están creando los sistemas de IA y aprendizaje automático (machine learning) obligan a desarrollar despliegues IT innovadores para hacer frente a nuevos requisitos de negocio para operar en cualquier lugar y bajo demanda. Se necesita procesar información en tiempo real para lograr la escalabilidad imprescindible para el negocio digital. Además, la infraestructura IT debe ser capaz de soportar el intercambio de datos que alimenta el desarrollo de las aplicaciones. 

El primer paso en estos nuevos despliegues es un servicio de colocation en un centro de datos profesional. Es la forma de descentralizar la infraestructura IT y reunir a usuarios, redes telco, servicios cloud, sistemas y dispositivos junto a los datos, rompiendo así las barreras del efecto data gravity. Estas soluciones resuelven aspectos de cobertura, capacidad y conectividad necesarios para adaptarse al nuevo entorno de negocio y ganar en competitividad para el futuro. 

(basado en el blog de Digital Realty)