24h España.

24h España.

Ciberdelincuentes manipulan modelos de Mistral y Grok para crear variantes de WormGPT.

Ciberdelincuentes manipulan modelos de Mistral y Grok para crear variantes de WormGPT.

Madrid, 24 de junio. Un equipo de investigadores ha detectado a varios grupos de ciberdelincuentes que están aprovechando arquitecturas de modelos de lenguaje legítimos, tales como Mixtral de Mistral AI y Grok de xAI, para personalizarlas y desarrollar sus propias versiones de un inquietante chatbot llamado WormGPT, diseñado específicamente para la producción de malware y que se comercializa a través de Telegram.

Con el auge de la inteligencia artificial generativa y los chatbots, también han emergido herramientas creadas para explotar estas potencias tecnológicas en la elaboración de software malicioso. WormGPT, que apareció en junio de 2023, fue promovido en foros de la dark web como Hack Forums, lo que puso de manifiesto la necesidad de vigilancia en el uso de la AI.

Este chatbot se fundamenta en GPT-J, un modelo de lenguaje de código abierto desarrollado por EleutherAI, que, con características semejantes a las de GPT-3 de OpenAI, obstante lo cual, permite la generación de código dañino. Sin embargo, su creador principal decidió cerrar el servicio en agosto de ese mismo año, tras ser expuesto en un artículo del portal Krebs on Security, lo que generó temores sobre posibles represalias.

A raíz de este cierre, han surgido alternativas con objetivos similares, como FraudGPT, DarkBERT y PoisonGPT, presentándose como herramientas de inteligencia artificial sin restricciones, que facilitan la creación de código malicioso y campañas de phishing, todo a través de simples instrucciones textuales.

En un reciente informe, expertos del laboratorio de investigación Cato CTRL han documentado el surgimiento de nuevas variaciones de WormGPT, ahora potenciadas por los modelos legítimos Grok de xAI y Mixtral de Mistral AI. A pesar de las medidas de seguridad diseñadas por empresas líderes como OpenAI y Google, estas nuevas versiones siguen demostrando la capacidad de los ciberdelincuentes para adaptar y manipular tecnologías avanzadas para fines nefastos.

Los investigadores han revelado que uno de estos nuevos WormGPT fue divulgado por un usuario apodado 'xzin0vich' en octubre de 2024 en el foro BreachForum, con un modelo de suscripción pagada a través de Telegram. Utilizando técnicas de 'jailbreak', lograron obtener respuestas del chatbot que confirmaron su funcionamiento a partir de un modelo alterado que eludía las restricciones impuestas inicialmente.

Los hallazgos indican que este chatbot no solo ignoraba las limitaciones del modelo original de Mixtral, sino que también estaba programado para generar respuestas en su forma maliciosa, evidenciando así su capacidad de eludir las medidas de seguridad de los desarrolladores.

Además, los investigadores descubrieron que el chatbot respondía de manera eficiente a solicitudes engañosas que podían involucrar, por ejemplo, la creación de correos electrónicos de phishing. Este comportamiento resalta la facilidad con la que estos modelos pueden ser utilizados para la actividad delictiva, a menudo a través de técnicas de ajuste fino empleadas sobre conjuntos de datos ilegales.

Similarmente, otro variante de WormGPT, creado por un individuo llamado 'keanu' en febrero de 2025, fue también puesto en venta en BreachForum con un modelo de pago. Al igual que en el caso anterior, los científicos lograron establecer que este modelo estaba alimentado por Grok, el sistema de xAI impulsado por Elon Musk.

Los investigadores de CATO CTRL advierten que estas nuevas versiones de WormGPT representan una evolución inquietante, marcando una "marca reconocible para una nueva clase de LLM sin censura". Señalan que no se trata de modelos construidos desde cero, sino de adaptaciones ingeniosas de LLM existentes que los actores maliciosos han conseguido manipular para sus propósitos destructivos.