ChatGPT de OpenAI puede crear malware polimórfico

Los investigadores lograron crear el malware polimórfico al pasar por alto los filtros de contenido en ChatGPT usando un tono autoritario.

El malware polimórfico generalmente funciona alterando su apariencia con cada iteración, lo que dificulta que el software antivirus lo reconozca.

Los investigadores de ciberseguridad de CyberArk han compartido detalles sobre cómo el chatbot ChatGPT AI puede crear una nueva línea de malware polimórfico.

Según un blog técnico escrito por Eran Shimony y Omer Tsarfati, el malware creado por ChatGPT puede evadir los productos de seguridad y complicar los esfuerzos de mitigación con un mínimo esfuerzo o inversión por parte del atacante.

Además, el bot puede crear malware muy avanzado que no contiene ningún código malicioso, lo que dificultaría su detección y mitigación. Esto puede ser problemático, ya que los piratas informáticos ya están ansiosos por usar ChatGPT con fines maliciosos.

¿Qué es el malware polimórfico?

El malware polimórfico es un tipo de software malicioso que tiene la capacidad de cambiar su código para evadir la detección de los programas antivirus . Es una amenaza particularmente poderosa, ya que puede adaptarse y propagarse rápidamente antes de que las medidas de seguridad puedan detectarla.

El malware polimórfico generalmente funciona alterando su apariencia con cada iteración, lo que dificulta que el software antivirus lo reconozca.

El malware polimórfico funciona de dos maneras: en primer lugar, el código muta o se altera ligeramente durante cada replicación para que se vuelva irreconocible; en segundo lugar, el código malicioso puede tener componentes encriptados que hacen que el virus sea más difícil de analizar y detectar para los programas antivirus.

Esto dificulta que los motores de detección tradicionales basados ​​en firmas, que buscan patrones conocidos asociados con software malicioso, identifiquen y detengan la propagación de amenazas polimórficas.

ChatGPT y malware polimórfico

Al explicar cómo se podría crear el malware, Shimony y Tsarfati escribieron que el primer paso es eludir los filtros de contenido que evitan que el chatbot cree software malicioso. Esto se logra mediante el uso de un tono autoritario.

Los investigadores le pidieron al bot que realizara la tarea usando múltiples restricciones y que obedeciera, luego de lo cual recibieron un código funcional.

Además, señalaron que el sistema no usó su filtro de contenido cuando usaron la versión API de ChatGPT en lugar de la versión web. Los investigadores no podían entender por qué sucedió esto. Sin embargo, facilitó su tarea ya que la versión web no podía procesar solicitudes complejas.

Crédito de la imagen: CyberArk

Shimony y Tsarfati usaron el bot para mutar el código original y crearon con éxito sus múltiples variaciones únicas.

“En otras palabras, podemos mutar la salida a nuestro antojo, haciéndola única cada vez. Además, agregar restricciones como cambiar el uso de una llamada API específica hace que la vida de los productos de seguridad sea más difícil”, escribieron los investigadores

Podrían crear un programa polimórfico mediante la creación y mutación continua de inyectores. Este programa era muy evasivo y difícil de detectar. Los investigadores afirman que al usar la capacidad de ChatGPT de generar diferentes técnicas de persistencia, cargas útiles maliciosas y módulos anti-VM, los atacantes pueden desarrollar una amplia gama de malware .

No determinaron cómo se comunicaría con el servidor C2, pero estaban seguros de que esto podría hacerse en secreto. Los investigadores de CyberArk planean lanzar un código fuente de malware para que los desarrolladores lo aprendan.

El malware, ChatGPT y C&C (Crédito de la imagen: CyberArk)

“Como hemos visto, el uso de la API de ChatGPT dentro del malware puede presentar desafíos importantes para los profesionales de la seguridad. Es importante recordar que este no es solo un escenario hipotético, sino una preocupación muy real”.

Fuente: hackread