Por Richard Farrell, CIO de Netcall


La Inteligencia Artificial Generativa (GenAI) y aplicaciones como ChatGPT se han convertido en las últimas palabras de moda en tecnología.

Gartner predice que GenAI tendrá un profundo impacto en las empresas y la sociedad, posicionándola en la cima de las expectativas infladas dentro de su ciclo Hype para tecnologías emergentes, 2023, y proyecta que alcanzará un beneficio transformacional dentro de dos a cinco años.

A pesar de que muchos lo recibieron con entusiasmo, la ansiedad por la IA se está extendiendo por todas partes a medida que la gente considera los impactos que podría tener en los empleos futuros y las posibles implicaciones de seguridad en torno a los datos.

No es necesario leer demasiado los titulares de hoy para encontrar noticias sobre la IA y, en particular, cómo el gobierno planea abordar las implicaciones de seguridad.

A principios de este año, el Primer Ministro Rishi Sunak anunció los planes del Reino Unido de albergar la primera gran cumbre mundial, con el fin de mitigar los riesgos asociados con la implementación masiva de la IA. Mientras tanto, el Supervisor de Protección de Datos de la UE ha creado un grupo de trabajo para evaluar los sistemas GenAI.

Dado que la seguridad y la soberanía de los datos siguen siendo una preocupación clave, surge una pregunta: ¿cuál es la realidad de esta tecnología de vanguardia en el panorama empresarial actual?

GenAI en los negocios

Con el conocimiento adecuado, GenAI promete crear interfaces conversacionales que interactúen con los clientes de una manera más personalizada, lo que conducirá a una mayor satisfacción y lealtad del cliente.

En el futuro, cuando se combine con otras tecnologías y procesos, también podría permitir a las organizaciones brindar soporte las 24 horas, mayor eficiencia e información basada en datos para mejorar los productos y servicios futuros.

La verdad es que el concepto de sistemas de IA que generan contenido es anterior a la terminología específica utilizada para describirlo, y varios términos e ideas relacionados han estado presentes en la investigación de la IA durante décadas.

Las organizaciones llevan un tiempo aprovechando los beneficios de los modelos de lenguaje natural dentro del contact center, con el fin de optimizar la experiencia del cliente y al mismo tiempo aumentar la productividad.

Si bien herramientas como ChatGPT ciertamente pueden verse como un desarrollo, los Chatbots en su conjunto también existen desde hace muchos años, lo que permite a los clientes realizar autoservicio y encontrar respuestas a preguntas comunes a través de portales de autoservicio impulsados ​​por IA.

Aunque herramientas GenAI como éstas se pueden utilizar para diversos fines (incluida la atención al cliente, la generación de leads y el procesamiento del lenguaje natural), el contexto en el que se utilizan debe considerarse cuidadosamente.

Por ejemplo, el uso de IA para personalizar contenido para los clientes a gran escala se puede lograr con consecuencias mínimas. Por otro lado, para cualquier organización de alto riesgo (por ejemplo, un fideicomiso del NHS que se ocupa de un paciente, o un ayuntamiento que se ocupa de un requisito de atención social), depender únicamente de una decisión de la IA podría conducir al desastre.

Para aprovechar los beneficios que se ofrecen, es importante reconocer que a) un enfoque único para GenAI simplemente no es suficiente y b) es necesario tener humanos informados para que sea seguro y eficaz.

Como lo describe Ginni Rometty de IBM, "inteligencia aumentada" es un término mucho más preciso: en lugar de reemplazar a las personas, la IA es una tecnología para aumentar la inteligencia humana.

Concienciarse de los riesgos

La falta de inteligencia humana también plantea preocupaciones más amplias sobre la viabilidad de herramientas como ChatGPT. Los modelos de IA pueden ser propensos a heredar ciertos sesgos presentes en sus datos de entrenamiento, lo que puede conducir a respuestas potencialmente sesgadas o discriminatorias a las entradas de los usuarios.

La desinformación es otra preocupación clave cuando un modelo de IA no se supervisa ni se ajusta cuidadosamente. Esto puede suceder cuando un modelo de IA no comprende completamente el contexto de la pregunta, lo que resulta en una respuesta inapropiada.

Sin embargo, el mayor riesgo para las organizaciones es el impacto que la GenAI podría tener en los datos. A medida que crece el revuelo en torno a la IA, también crece la aprensión en torno a la seguridad y la privacidad.

El mes pasado, Snapchat recibió un aviso de aplicación preliminar por una posible falla en evaluar adecuadamente el riesgo de privacidad asociado con su chatbot de IA generativa 'My AI'. La investigación del Comisionado de Información del Reino Unido encontró que la plataforma de redes sociales Snap no logró identificar ni evaluar adecuadamente los riesgos para varios millones de usuarios de 'My AI' en el Reino Unido, incluidos niños de 13 a 17 años.

Las empresas deben tener cuidado con los datos que introducen en los modelos de IA, quién y dónde se procesan (es decir, si se trata de un entorno controlado), garantizando el cumplimiento de las leyes y regulaciones de protección de datos pertinentes para proteger la privacidad del cliente.

Si bien las regulaciones existentes, como el GDPR, ya son aplicables a los sistemas GenAI, la regulación adicional en torno a la IA será fundamental para asegurar su futuro. Establecer directrices y un conjunto de estándares para proteger los datos públicos facilitará el desarrollo y la implementación responsable de la IA dentro de la empresa.

Haciendo que la IA sea segura y aplicable

Si bien parte del revuelo que rodea a la GenAI puede estar justificada, también es útil por dos razones. En primer lugar, la exposición ha creado conciencia sobre la soberanía de los datos y las preocupaciones sobre la privacidad al adoptar nuevas herramientas y tecnologías. En segundo lugar, tiene el potencial de inspirar a las empresas a pensar en su propio uso de la IA.

Sin embargo, la automatización inteligente requiere que las empresas consideren qué quieren lograr y cómo. Garantizar que el uso de la IA sea seguro y aplicable debe permanecer a la vanguardia de cualquier proceso de transformación.

Las herramientas de plataforma como servicio, como las plataformas de código bajo, que están diseñadas como plataformas abiertas e interoperables, pueden respaldar la implementación de ChatGPT y otras aplicaciones GenAI al proporcionar componentes de IA prediseñados, capacidades de integración y una interfaz fácil de usar. -Utilizar una interfaz visual para desarrolladores y usuarios no técnicos para diseñar e implementar aplicaciones impulsadas por IA.

Para las empresas que implementan la IA de esta manera, se obtendrán beneficios. Si bien la realidad puede ser menor de lo esperado (en esta etapa), el impacto en la experiencia de los clientes y empleados aún puede ser significativo si se implementa de manera efectiva.

Al adoptar plataformas que potencian la integración simple y segura de la IA, las empresas pueden comenzar a experimentar con GenAI, dando pasos pequeños pero seguros hacia sus objetivos de transformación.