En este momento hay malware ejecutándose en máquinas Windows que ya no espera a que un operador le diga qué hacer; consulta modelos de lenguaje para decidir cómo comportarse. Un informe reciente del Threat Intelligence Group de Google documenta la primera ola real de muestras operativas que integran modelos de lenguaje, con familias como PROMPTFLUX, PROMPTSTEAL y FRUITSHELL que utilizan API de LLM para modificar su propio código, generar comandos de descubrimiento o ajustar técnicas de exfiltración en tiempo real.

Lo llamativo no es tanto la complejidad del código malicioso, que en muchos casos sigue siendo rudimentario, sino la arquitectura. En vez de enviar un binario completo con lógica estática, los atacantes distribuyen clientes ligeros que externalizan la toma de decisiones tácticas a servicios de inteligencia artificial. Es malware con un complemento que resulta ser un modelo de lenguaje.

Un caso representativo es PROMPTFLUX, un dropper escrito en VBScript que consulta la API de Gemini para reescribir su propio código y generar variantes ofuscadas con frecuencia. La estrategia no es inventar técnicas complejas de explotación; es repackearse constantemente para evadir firmas. PROMPTSTEAL, vinculado según el reporte a APT28, usa modelos como Qwen2.5 para preguntar qué comandos ejecutar en un entorno Windows y así localizar y exportar información sensible. FRUITSHELL y pruebas de concepto de ransomware como PROMPTLOCK demuestran cómo se pueden generar scripts de escaneo, exfiltración y notas de rescate que maximicen el impacto psicológico sobre la víctima.

El cambio mental que deben hacer los equipos de seguridad es sencillo: tratar las llamadas a APIs de modelos de lenguaje como si fueran canales de mando y control. Tráfico hacia generativelanguage.googleapis.com o api-inference.huggingface.co puede parecer legitimo para un firewall que no tiene un baseline claro, pero en realidad puede ser el conducto por el que un atacante alquila IA por horas para dirigir acciones dentro de la red.

Los atacantes aprenden rápido. Si un modelo rechaza una petición por políticas de uso, reescriben el encuadre de la petición como un ejercicio de Capture The Flag y obtienen las mismas piezas que necesitaban. No es el modelo el villano por sí mismo; el peligro está en el bucle humano de prueba y error, en identificar prompts que eluden filtros y en descubrir modelos sin protecciones que pueden usarse como servicio de toma de decisiones remota.

Aunque muchas de estas muestras son inmaduras y ruidosas, lo importante es la velocidad con la que los adversarios pueden iterar. Las LLM actúan como motores de mutación accesibles: cualquier persona con acceso a APIs asequibles puede obtener estrategias de ofuscación, generación de payloads y tácticas de persistencia sin ser experto en ensamblador o ingeniería inversa.

Recomendaciones prácticas para defenderse. Primero, tratar los endpoints de IA como C2 de alto riesgo. Definir qué equipos pueden comunicarse con servicios de inteligencia artificial y bloquear egress no autorizado hacia esos dominios. Segundo, evitar dejar claves de API de larga duración distribuidas en scripts o variables de entorno; centralizar llamadas a través de un gateway, limitar el alcance de los tokens y rotarlos. Tercero, buscar la latencia característica de estos ataques: pausas en procesos que realizan llamadas a APIs antes de generar y ejecutar nuevos scripts. Esa pausa de pensamiento es un indicador huntable que puede delatar ejecución dependiente de LLM.

En Q2BSTUDIO, como empresa especializada en desarrollo de software y seguridad, entendemos este nuevo panorama. Ofrecemos servicios integrales que incluyen desarrollo de aplicaciones a medida y software a medida pensados para minimizar superficies de ataque, así como soluciones de ciberseguridad y pentesting para evaluar la resistencia de infraestructuras frente a técnicas emergentes. Nuestro equipo de especialistas en inteligencia artificial diseña estrategias de Inteligencia Artificial y agentes IA para empresas que buscan aprovechar beneficios sin abrir canales inseguros para sus sistemas.

Además brindamos servicios cloud aws y azure para desplegar entornos controlados y seguros, servicios inteligencia de negocio y power bi para transformar datos en decisiones, y automatización de procesos que reduce la necesidad de exponer credenciales o API en máquinas finales. Implementamos controles de egress, gestión centralizada de claves y políticas de least privilege que dificultan que un atacante pueda alquilar capacidad de generación de código desde el interior de una red.

El panorama es claro: el malware sigue siendo tonto en su esencia pero se está volviendo más flexible gracias a la IA y los modelos públicos. La defensa eficaz combina detección basada en comportamiento, gestión rigurosa de accesos y la adopción de buenas prácticas en desarrollo de software y despliegues cloud. En Q2BSTUDIO acompañamos a empresas en la construcción de soluciones a medida que integran inteligencia artificial de forma segura, fortalecen la ciberseguridad y optimizan procesos con herramientas como Power BI y agentes IA.

Si quieres proteger tus proyectos de software a medida y diseñar arquitecturas que no conviertan a la IA en una puerta trasera, nuestros servicios integrales pueden ayudarte a minimizar riesgos y aprovechar las oportunidades que ofrece la inteligencia artificial en la empresa.