Nuevo ataque cibernético filtra datos de conversaciones con Copilot tras cliquear un enlace de Microsoft.
En un alarmante desarrollo en el ámbito de la ciberseguridad, se ha identificado un nuevo ataque que compromete la privacidad de los usuarios de Copilot de Microsoft. Este mecanismo permite a los hackers acceder a las conversaciones mantenidas con el asistente digital utilizando un enlace aparentemente legítimo, lo que puede suceder sin que la víctima sea consciente, incluso después de cerrar la sesión del chatbot.
Los expertos de Varonis Threat Labs han nombrado este ataque como **Reprompt**. Este método ingenioso elude las barreras de seguridad establecidas por la inteligencia artificial de Microsoft, facilitando que los atacantes obtengan datos sensibles sin ser detectados.
El ataque se activa al hacer clic en un enlace legítimo de Microsoft. Una vez que la víctima interactúa con el enlace, los cibercriminales obtienen control total sobre la sesión de Copilot. Esto les permite formular preguntas específicas al chatbot, profundizando en la información que desean sustraer, tal como se detalla en el informe de investigación publicado en su blog.
La raíz del problema se encuentra en un aspecto técnico conocido como el **parámetro q** en la URL. Este elemento permite realizar solicitudes que se añaden al final de los enlaces de Copilot. En lugar de ingresar manualmente una solicitud en la conversación, los atacantes pueden manipularla a través de la URL directamente.
Un ejemplo proporcionado por el equipo de investigación ilustra cómo funciona este ataque: si se utiliza la dirección 'http://copilot.microsoft.com/?q=Hello', Copilot interpretará 'Hola' como un mensaje. Sin embargo, si el ataque introduce un comando más complejo o dañino, la IA puede ejecutarlo sin cuestionar, abriendo la puerta a graves amenazas.
El verdadero peligro reside en la posibilidad de que los delincuentes inserten instrucciones maliciosas dentro del parámetro q. Al compartir estos enlaces engañosos con sus víctimas, que podrían parecer auténticos, los atacantes pueden llevar a cabo el ataque con mínima resistencia.
En este escenario de Reprompt, los cibercriminales pueden monopolizar la sesión en Copilot, estableciendo un flujo de comunicación permanente entre el chatbot y su propio servidor. Desde allí, solicitan información que desean extraer, creando un grave riesgo para la privacidad de los usuarios.
Afortunadamente, Varonis Threat Labs ha confirmado que Microsoft ha tomado medidas proactivas y ha corregido esta vulnerabilidad, con el fin de proteger a los usuarios de futuros escenarios de explotación al utilizar su innovador asistente virtual.
Categoría:
Newsletter
Entérate de las últimas noticias cómodamente desde tu mail.