Malware que utiliza inteligencia artificial como GPT para reescribirse y evitar ser detectado

El especialista de ciberseguridad finlandés Mikko Hyppönen, recibió recientemente un correo electrónico que no esperaba: un desarrollador de malware le envió una copia de “LL Morpher” (malware, SPTH), un nuevo malware que había escrito, que usa GPT (large language models) de OpenAI.

“Es el primer malware que hemos visto que usa GPT para reescribir su código”, dijo Hyppönen, director de investigación de WithSecure, sobre el gusano, que está escrito en Python y diseñado para infectar archivos de Python en el sistema de una víctima. En lugar de copiar sus funciones en el archivo infectado, el malware usa una clave API para llamar a GPT y darle instrucciones en inglés sobre la funcionalidad maliciosa que desea crear.

“Llama a GPT para escribir el código, lo que significa que cada vez es diferente, y será trivial modificarlo para escribirlo en cualquier otro idioma”, “Todo el asunto de la IA en este momento se siente emocionante y aterrador al mismo tiempo”. Hasta ahora, esta pieza de malware es más una prueba de concepto que una amenaza real, ya que está disponible a través de GitHub y, por ahora, podría contenerse bloqueando la clave API. Aun así, Hyppönen dice que debería ser perfectamente posible crear malware que tenga LLM integrados, en los próximos años, y que los use para crear malware difícil de detectar sobre la marcha.

El código autorreplicante de SPTH se llama LLMorpher. SPTH escribió recientemente: “Aquí vamos más allá y mostramos cómo codificar un código autorreplicante completamente en lenguaje natural. En lugar de instrucciones de código concretas, nuestro virus consiste en una lista de oraciones bien definidas que están escritas en inglés. Luego usamos GPT de OpenAI, uno de los sistemas de inteligencia artificial más poderosos disponibles públicamente. GPT puede crear diferentes códigos con el mismo comportamiento, lo cual es una nueva forma de metamorfismo”.

Este fragmento de código es capaz de infectar programas escritos en lenguaje Python. Cuando se ejecuta, busca en la computadora archivos .py y copia sus propias funciones en ellos. Sin embargo, las funciones no se copian directamente; la funcionalidad se describe en inglés para GPT, que luego crea el código real que se copia. Esto da como resultado un archivo de Python infectado, que seguirá replicando el malware en archivos nuevos, y GPT reprograma las funciones cada vez, algo que nunca antes se había hecho.

Las campañas de malware automatizadas cambiarán drásticamente la velocidad de reacción de las grupos cribercriminales. Los modelos de lenguaje grande (LLM) como GPT, LAMDA y LLaMA no solo pueden crear contenido en lenguajes humanos, sino también en todos los lenguajes de programación. Acabamos de ver el primer ejemplo de una pieza de código autorreplicante que puede usar grandes modelos de lenguaje para crear infinitas variaciones de sí mismo.

Simplemente escribir malware no es ilegal; usarlo para infectar los sistemas de las personas o para causar daños sí lo es. Entonces, si bien SPTH no parece haber hecho nada de eso, esto sigue siendo muy problemático porque los terceros pueden hacer un mal uso de la investigación de SPTH; LLMorpher se puede descargar fácilmente desde Github.

¿Cómo podemos bloquear malware como LLMorpher o nuevas variedades basadas en él?

LLMorpher no puede funcionar sin GPT. No tiene una copia, ya que GPT no está disponible para descargar. Esto significa que OpenAI (el creador de GPT) puede simplemente bloquear a cualquiera que use GPT con fines maliciosos. Algunos modelos similares se pueden descargar (LLaMA, por ejemplo), por lo que probablemente los veremos incrustados en el malware con el tiempo.

Los defensores han podido automatizar su trabajo durante algún tiempo, lo que permite excelentes tiempos de detección, análisis y reacción, manos libres a la velocidad de la máquina. Esto contrasta con los atacantes que han tenido que construir e implementar sus ataques manualmente, lo que significa que cuando se bloquean, tienen que cambiar las cosas manualmente, a una velocidad humana mucho más lenta.

Detectar el comportamiento malicioso es la mejor apuesta contra el malware que usa modelos GPT, y esto se hace mejor con productos de seguridad, ¡que también usan el aprendizaje automático!. 

Lo único que puede detener una mala IA es una buena IA.

Referencia:

https://www.careersinfosecurity.co.uk/malware-taps-generative-ai-to-rewrite-code-avoid-detection-a-21972

Malware and machine learning: A match made in hell

 

× ¿Cómo podemos ayudarte?