
Por: Luis Porta, Director Ejecutivo y Líder de Ciberseguridad de Accenture Chile.
Los agentes de inteligencia artificial están transformando rápidamente la forma en que las empresas operan, desde chatbots que gestionan consultas de clientes hasta sistemas automatizados que procesan transacciones financieras. Aunque estos asistentes aumentan la eficiencia y reducen los costos operativos, también presentan un nuevo y a menudo subestimado desafío de ciberseguridad: la gestión de identidades. Sin una supervisión adecuada, los agentes de IA pueden ser comprometidos, lo que puede llevar a violaciones de datos, fraude y daño reputacional.
En este nuevo escenario, las compañías deben hacerse las siguientes preguntas: ¿quién está asegurando estos agentes de IA? ¿Pueden ser manipulados? ¿Son nuestros marcos de seguridad existentes lo suficientemente robustos para protegernos contra las amenazas impulsadas por IA? Estas ya no son preocupaciones teóricas; son problemas urgentes que requieren acción inmediata.
Los agentes de inteligencia artificial funcionan de manera autónoma, tomando decisiones basadas en enormes cantidades de datos. Un agente sin protección es como un empleado con acceso ilimitado al sistema, pero sin responsabilidad. Si se compromete, un agente podría ser engañado para filtrar datos sensibles, aprobar transacciones fraudulentas o incluso cerrar operaciones críticas de negocio.
Este problema es particularmente preocupante para el sector financiero, donde la IA se está utilizando cada vez más para la evaluación de riesgos, la detección de fraudes y la toma de decisiones automatizada. Si un sistema de detección de fraudes impulsado por inteligencia artificial es hackeado, podría ser manipulado para ignorar transacciones ilícitas o marcar como fraudulentas las legítimas, lo que interrumpe los negocios y sacude la confianza del consumidor.
El enfoque tradicional de ciberseguridad se centra en asegurar a los usuarios humanos, con firewalls, contraseñas y autenticación multifactor. Pero, ¿cómo verificamos la autenticidad y la seguridad de los agentes de IA? Al igual que los usuarios humanos necesitan autenticación, los agentes de IA deben tener identidades digitales únicas y rastreables. Implementar protocolos de autenticación específicos para la inteligencia artificial asegura que solo los sistemas autorizados interactúen con la infraestructura crítica del negocio. Ante esto, las empresas deberían implementar el control de acceso basado en roles (RBAC). No todos los sistemas de IA deben tener el mismo nivel de acceso. Por ejemplo, un chatbot de servicio al cliente no debería tener el mismo acceso a datos que un sistema de detección de fraudes.
Así también, las compañías deben monitorear continuamente la actividad de inteligencia artificial, utilizando herramientas de seguimiento en tiempo real y detección de anomalías. Si un agente de IA se comporta de manera impredecible, las medidas de seguridad automatizadas deberían marcarlo y aislarlo antes de que se cause algún daño.
En ese sentido, es fundamental que el país avance en políticas que regulen la seguridad y la gestión de identidades de IA. Los agentes deberían estar sujetos a los mismos requisitos de cumplimiento que los empleados humanos que supervisan datos sensibles. El gobierno, en colaboración con el sector privado, debería introducir directrices para garantizar que se sigan las mejores prácticas de seguridad de IA.
Las empresas no pueden permitirse ser complacientes. A medida que la adopción de IA crece, también lo hacen los riesgos. Los cibercriminales ya están explorando formas de explotar las vulnerabilidades de IA, y las compañías que no aseguren a los agentes enfrentarán consecuencias costosas. Las violaciones de datos, las pérdidas financieras y las sanciones regulatorias son solo el comienzo; el daño reputacional a largo plazo podría ser irreparable.
Nuestras noticias también son publicadas a través de nuestra cuenta en Twitter @ITNEWSLAT y en la aplicación SQUID |