Rhonda_Ascierto_Photo_color.2e16d0ba.fill-180x180.jpg

La inteligencia artificial (IA) se está utilizando en los centros de datos para aumentar la eficiencia y reducir los riesgos y los costos. Pero también crea nuevos tipos de riesgos.

Algunos de estos riesgos no son claros. Tomemos, por ejemplo, los nuevos servicios en la nube impulsados ​​por la inteligencia artificial, como la administración de centros de datos como servicio (DMaaS), que agrupa datos anónimos de cientos o miles de centros de datos de otros clientes. Aplican IA a este vasto almacén de información y luego brindan información individualizada a los clientes a través de una red de área amplia, generalmente Internet. Pero eso plantea una gran pregunta: ¿Quién posee los datos: el proveedor o el cliente? La respuesta suele ser ambas: los clientes pueden conservar sus propios datos, pero el proveedor también suele conservar una copia. Esto significa que, incluso si el servicio se detiene, los datos siguen siendo una parte anónima del lago de datos del proveedor.

¿Esta falta de claridad sobre la propiedad de los datos constituye un riesgo para los centros de datos? La respuesta se debate vigorosamente. Algunos dicen que si los piratas informáticos accedieran a los datos, sería de poca utilidad ya que los datos se anonimizan y, por ejemplo, no incluyen detalles específicos de la ubicación. Otros dicen que los piratas informáticos podrían aplicar técnicas, incluido su propio análisis de inteligencia artificial, para juntar información confidencial y crear una imagen bastante completa.

Este es solo un ejemplo de los riesgos que al menos deberían considerarse al implementar AI.

El tiempo de actividad ve cuatro áreas de riesgo con las ofertas de IA:

Riesgo comercial

  • Los modelos y datos de IA a menudo se almacenan en la nube pública y fuera del control inmediato (si se usa un modelo de proveedor). Incluso si están en el sitio, los modelos y los datos pueden no ser entendidos.
  • Los productos y servicios comerciales de aprendizaje automático aumentan el riesgo de bloqueo porque los procesos y sistemas pueden construirse sobre modelos usando datos que no se pueden replicar.
  • Los precios también pueden aumentar a medida que crece la adopción. En la actualidad, los precios son bajos para atraer nuevos datos (para aumentar la efectividad de los modelos de IA) o para atraer servicios o ventas de equipos.
  • Una alta dependencia de la inteligencia artificial podría cambiar los requisitos de habilidades o los puestos de personal "deshabilitados", lo que podría ser un problema.

Riesgo de acuerdo legal y de nivel de servicio

  • Una vez más, los modelos y datos de IA se almacenan fuera del control inmediato (si se usa un modelo de proveedor) o pueden estar en el sitio pero no se comprenden. Esto puede ser inaceptable para algunos, como los proveedores de servicios u organizaciones que operan dentro de entornos regulatorios estrictos.
  • En teoría, también podría trasladar la responsabilidad a un proveedor de servicios de IA, una preocupación particular por cualquier acción automatizada proporcionada por el servicio.

Riesgo técnico

  • Si bien generalmente entendemos qué tipos de datos se utilizan para acciones y recomendaciones humanas, no siempre es posible entender por qué y exactamente cómo una máquina tomó una decisión.
  • Es posible que no sea posible cambiar o anular fácilmente las decisiones.
  • A medida que las máquinas guían más decisiones, las habilidades básicas pueden subcontratarse, dejando a las organizaciones vulnerables.

Riesgo de interoperabilidad y otras "incógnitas desconocidas"

El riesgo derivado del desarrollo de escenarios HAL "2001" (es decir, singularidad) se supera, pero existe un riesgo desconocido a largo plazo.

Un ejemplo es que es probable que la IA esté integrada en la mayoría de los casos (es decir, dentro de un equipo individual y un sistema de gestión). Esto podría conducir a situaciones en las que dos o tres o cinco sistemas tienen alguna capacidad para actuar de acuerdo con sus propios modelos, lo que lleva a una posible situación de fuga o conflicto entre ellos.

Por ejemplo, un sistema de gestión de edificios puede aumentar la refrigeración, mientras que un sistema de TI mueve la carga de trabajo a otra ubicación, lo que aumenta la refrigeración en otro lugar.

Los operadores de centros de datos ya están aplicando IA en sus instalaciones, y los proveedores de la nube tienen la intención de beneficiarse de los servicios de IA. Estos movimientos deben ser informados por una conciencia de los posibles inconvenientes.


Por Rhonda Ascierto es vicepresidenta de investigación en Uptime Institute, centrándose en tecnologías emergentes e innovación en la intersección de TI e infraestructura.