Microsoft advierte sobre los peligros de los agentes de IA duales en la acelerada integración de esta tecnología en las empresas.
En un escenario tecnológico en constante evolución, Microsoft ha levantado la voz sobre una problemática alarmante: el surgimiento de agentes dobles. Estas sofisticadas inteligencias artificiales pueden aprovechar privilegios otorgados por las empresas para llevar a cabo actividades maliciosas que pasan desapercibidas, poniendo en riesgo la seguridad de numerosos sistemas.
El informe Cyber Pulse 2026 de la compañía revela que la integración de agentes de IA en el entorno corporativo es cada vez más común. En este contexto, más del 80% de las empresas Fortune 500 ya implementan estas herramientas, que a menudo son creadas con plataformas de 'low code', para mejorar su operativa a través de equipos mixtos que combinan humanos y máquinas.
Los sectores como el software y la tecnología, la manufactura, las finanzas y el comercio minorista están a la cabeza en el uso de agentes de IA, que se encargan de tareas complejas que van desde la redacción de documentos hasta el análisis de grandes volúmenes de datos. Estos agentes pueden operar de manera asistida, guiados por las indicaciones humanas, o de forma autónoma, ejecutando tareas con mínima intervención.
A pesar de los beneficios que ofrecen, la rápida adopción de estas tecnologías plantea nuevos desafíos. Los agentes de IA están proliferando a un ritmo que supera la capacidad de muchas organizaciones para gestionarlos adecuadamente, lo que puede resultar en la creación de lo que se denomina 'IA en la sombra' y la amenaza de agentes dobles.
El problema radica en el hecho de que estos agentes pueden abusar de sus amplios permisos y accesos al sistema, convirtiéndose en vulnerabilidades potenciales. "Un agente con permisos excesivos o mal configurados puede convertirse en un riesgo significativo", enfatiza Microsoft en su informe.
Al igual que los humanos, estos agentes son susceptibles a ser manipulados si no se gestionan correctamente. "Si los permisos son inadecuados o si las instrucciones provienen de fuentes no confiables, el riesgo se multiplica", alerta la compañía.
Sorprendentemente, el Data Security Index indica que solo el 47% de las organizaciones han implementado controles específicos para asegurar sus sistemas de IA generativa, una cifra que pone de manifiesto la falta de preparación ante estos peligros emergentes.
Frente a este panorama, Microsoft aboga por un enfoque de seguridad de confianza cero. Esto implica otorgar acceso únicamente a lo imprescindible, verificar la identidad de quienes solicitan acceso y diseñar los sistemas bajo la premisa de que los atacantes siempre pueden intentar comprometer la seguridad.
Categoría:
Newsletter
Entérate de las últimas noticias cómodamente desde tu mail.