Por Joey Stanford, vicepresidente de privacidad y seguridad en Platform.sh


En un futuro cercano, el uso de tecnologías avanzadas de inteligencia artificial como ChatGPT, ERNIE de Baidu o BARD de Google para generar contenido será algo común, al igual que usamos una calculadora para realizar cálculos. Si bien el uso diario de esta tecnología aún se encuentra en sus primeras etapas, podemos esperar que sea una herramienta de trabajo tan común como usar una aplicación de procesamiento de textos o una hoja de cálculo.

Tung_Nguyen_Pixabay_ai-7111802_1920.jpg
– Tung Nguyen, Pixabay

Pero las organizaciones deben tener en cuenta cómo la implementación de chatbots de IA en el lugar de trabajo podría crear inquietud y confusión, y tomar medidas proactivas para garantizar que la moral de los empleados no se vea afectada negativamente. Cualquier tipo de automatización puede poner nerviosas a las personas y crear una preocupación sobre la posibilidad de que les quite el trabajo.

También hay otras desventajas, como la posibilidad de exponer a las organizaciones a nuevas amenazas de seguridad. Los chatbots de IA deberían facilitar interacciones más fluidas e intuitivas entre humanos y máquinas, lo que claramente sería beneficioso para varias aplicaciones, incluida la comunicación en el lugar de trabajo. Sin embargo, esto no tiene en cuenta que el comportamiento humano no siempre es positivo.

Según un informe reciente de Blackberry, más de la mitad de los responsables de la toma de decisiones de TI creen que existe una alta probabilidad de que ocurra un ataque cibernético impulsado por ChatGPT antes de fin de año. Además, el 71 por ciento piensa que los estados-nación ya pueden estar usando esta tecnología contra otros países. ¿Es esto paranoia? ¿O deberían los equipos de seguridad prepararse para el efecto de los chatbots?

Uso indebido del chatbot

Impulsar las estafas de phishing

Los correos electrónicos de phishing intentan engañarnos para proporcionar información confidencial e instale software malicioso. A veces, estos se envían en masa , como una red de arrastre en busca de cualquier cosa que pueda atrapar, otras veces es mucho más específico, también conocido como phishing de lanza. Al usar chatbots, los delincuentes pueden tener una mayor probabilidad de éxito, ya que el phishing no es mucho más difícil que enviar correos electrónicos no dirigidos.

Por contexto, los chatbots tienen salvaguardas, lo que significa que un chatbot se negará a escribir un correo electrónico de phishing si se lo solicita. Sin embargo, los piratas informáticos siempre buscan subvertir estas medidas de seguridad, y esta nueva vía de ataque significa que los chatbots podrían dificultar mucho más distinguir la correspondencia legítima del contenido malicioso.

Ataques de malware

El daño potencial de los chatbots no se limita al phishing y la posibilidad de un código de menor calidad que puede explotarse fácilmente. Las IA, como Copilot de GitHub, han puesto nerviosos a algunos expertos, preocupados de que el código creado por la IA tenga vulnerabilidades que los programadores experimentados detectarían, y que confiar en estas herramientas significará que el malware lo tendrá más fácil.

No solo eso, sino que la creación de malware puede ser más fácil. Los investigadores de Check Point creen que los chatbots podrían ser herramientas invaluables para la creación automatizada de malware, lo que permitiría a los atacantes crear software malicioso más rápido que nunca.

Según un informe de Recorded Future, ChatGPT tiene capacidades técnicas y de programación limitadas en este momento, pero estas solo mejorarán con el tiempo. Como todo en seguridad, esta es una carrera armamentística: existe una necesidad apremiante de herramientas y procesos de seguridad automatizados, potencialmente impulsados ​​por IA, que puedan identificar, responder y defenderse rápidamente contra los ataques de malware generados por IA.

Información engañosa y exposición de datos confidenciales

El problema con los chatbots y otras IA es que realmente no entienden lo que dicen. No tiene la capacidad de verificar si la información que recopila es precisa o no. Por lo tanto, es importante estar atento al consumir el contenido que genera la IA y buscar fuentes verificadas para obtener información más confiable.

El algoritmo está entrenado en un gran corpus de información y es capaz de generar cualquier tipo de texto, incluidas las respuestas a las preguntas. Pero no tiene la capacidad de distinguir entre afirmaciones verdaderas y falsas. Así como deberíamos tratar a la (increíblemente útil) enciclopedia libre, Wikipedia, con un saludable grado de escepticismo, deberíamos hacer lo mismo aquí.

Y dado que ChatGPT tiene problemas con el contexto, podría acceder a información confidencial que no está destinada a ser compartida, lo que podría comprometer la información confidencial.

Contrarrestar estos riesgos

Los departamentos de seguridad ahora están en apuros. Los empleadores y los empleados deben ser conscientes de los riesgos potenciales de los chatbots de IA y deben asegurarse de que el uso de la tecnología esté adecuadamente regulado y monitoreado, y que se mitigue su uso para atacar a las empresas.

Detección de red

Para garantizar la seguridad de una organización, se debe implementar un sistema de monitoreo de red en tiempo real para detectar y actuar sobre cualquier actividad maliciosa tan pronto como ocurra. Hay un par de requisitos clave: la autenticación de dos factores proporciona una capa adicional de seguridad, mantener el software parcheado garantiza que se eliminen las vulnerabilidades conocidas, el software antivirus ayuda a detectar y bloquear el malware, y monitorear el tráfico de la red ayuda a detectar actividad maliciosa.

Batalla de IA

Giro de la trama: es posible luchar contra la IA con IA. Para mantenerse a la vanguardia, es importante invertir en un sistema de seguridad sólido que utilice el poder de la IA para identificar y mitigar las amenazas de la IA. Las nuevas herramientas de IA también pueden identificar patrones en los datos que un ser humano no puede reconocer fácilmente, lo que le da una ventaja para descubrir posibles amenazas cibernéticas basadas en chatbots.

Educación y mejora

Saber cómo detectar los signos reveladores de un correo electrónico o enlace malicioso, como una dirección de origen extraño, un lenguaje sospechoso o instrucciones inusuales, puede ayudar a mitigar el riesgo de que los empleados sean víctimas de una expedición de phishing basada en un chatbot. Los CTO deben invertir en la formación del personal para mejorar su capacidad de detectar estas amenazas. También se debe educar al personal superior: a menudo se suplantan en estos ataques y, por lo tanto, deben ser accesibles para confirmar las instrucciones que pueden parecer inusuales. También son atacados con más frecuencia.

Mirando hacia el futuro

Pasará algún tiempo antes de que descubramos exactamente cuán útil y cuán amenazante será la nueva ola de chatbots de IA. La lección es que la IA está evolucionando rápidamente y los profesionales de la seguridad deben mantenerse al día. Pero también es una novedad para los ciberdelincuentes, que tardarán en sacarle el máximo partido.

Toda organización deberá comprender su potencial y sus límites para aprovecharla como una oportunidad y tomar las medidas necesarias frente a los riesgos de seguridad que plantean.