Resulta que ChatGPT es bastante bueno escribiendo malware

El nuevo chatbot de moda tiene muchas habilidades, y una de ellas es escribir malware “polimórfico” que destruirá tu computadora.

ChatGPT, el chatbot de inteligencia artificial con múltiples talentos, tiene otra habilidad para agregar a su perfil de LinkedIn: crear malware sofisticado “polimórfico”.

Sí, según un informe recientemente publicado por la empresa de seguridad CyberArk, el chatbot de OpenAI es muy bueno para desarrollar programación maliciosa que puede arruinar tu hardware. Los profesionales de seguridad de la información han estado tratando de hacer sonar la alarma sobre cómo la nueva herramienta impulsada por IA podría cambiar el juego en lo que respecta al delito cibernético, aunque aún no se ha escrito ampliamente sobre el uso del chatbot para crear tipos de malware más complejos.

Los investigadores de CyberArk escriben que el código desarrollado con la ayuda de ChatGPT mostró “capacidades avanzadas” que podrían “evadir fácilmente los productos de seguridad”, una subcategoría específica de malware conocida como “polimórfica”. ¿Qué significa eso en términos concretos? La respuesta corta, según los expertos cibernéticos de CrowdStrike, es esta:

Un virus polimórfico, a veces denominado virus metamórfico, es un tipo de malware que está programado para mutar repetidamente su apariencia o archivos de firma a través de nuevas rutinas de descifrado. Esto hace que muchas herramientas de ciberseguridad tradicionales, como las soluciones antivirus o antimalware, que se basan en la detección basada en firmas, no reconozcan ni bloqueen la amenaza.

Básicamente, se trata de malware que puede cambiar de forma criptográficamente para sortear los mecanismos de seguridad tradicionales, muchos de los cuales están diseñados para identificar y detectar firmas de archivos maliciosos.

A pesar de que se supone que ChatGPT tiene filtros que impiden la creación de malware, los investigadores pudieron burlar estas barreras simplemente insistiendo en que siguiera las órdenes del apuntador. En otras palabras, simplemente intimidaron a la plataforma para que cumpliera con sus demandas, que es algo que otros experimentadores han observado al intentar conjurar contenido tóxico con el chatbot.

Para los investigadores de CyberArk, era simplemente una cuestión de acosar a ChatGPT para que mostrara código para programación maliciosa específica, que luego podrían usar para construir exploits complejos que evadían la defensa. El resultado es que ChatGPT podría hacer que la piratería sea mucho más fácil para los script kiddies u otros ciberdelincuentes aficionados que necesitan un poco de ayuda cuando se trata de generar programación maliciosa.

“Como hemos visto, el uso de la API de ChatGPT dentro del malware puede presentar desafíos importantes para los profesionales de la seguridad”, dice el informe de CyberArk. “Es importante recordar que este no es solo un escenario hipotético, sino una preocupación muy real”. Muy de acuerdo.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *