Cómo la IA generativa está revolucionando los ataques de campañas de phishing mas efectivas contra empresas y organizaciones
La progresión de las tecnologías de inteligencia artificial (IA), como ChatGPT de OpenAI, ha introducido un nuevo vector para los ataques de compromiso de correo electrónico empresarial (BEC). Los ciberdelincuentes pueden utilizar dicha tecnología para automatizar la creación de correos electrónicos falsos muy convincentes, personalizados para el destinatario, lo que aumenta las posibilidades de éxito del ataque.
Ahora estamos viendo una tendencia inquietante entre los ciberdelincuentes en los foros, evidente en los hilos de discusión que ofrecen “jailbreaks” para interfaces como ChatGPT. Estos “jailbreaks” son avisos especializados que se están volviendo cada vez más comunes. Se refieren a entradas cuidadosamente diseñadas para manipular interfaces como ChatGPT para generar resultados que podrían implicar la divulgación de información confidencial, la producción de contenido inapropiado o incluso la ejecución de código dañino. La proliferación de tales prácticas subraya los crecientes desafíos para mantener la seguridad de la IA frente a los ciberdelincuentes determinados.
Los actores maliciosos ahora están creando sus propios módulos personalizados similares a ChatGPT, pero más fáciles de usar para fines nefastos. No solo están creando estos módulos personalizados, sino que también los anuncian a otros malos actores. Esto muestra cómo la ciberseguridad se está volviendo más desafiante debido a la creciente complejidad y adaptabilidad de estas actividades en un mundo moldeado por la IA.
El equipo investigador obtuvo acceso a una herramienta conocida como “WormGPT” a través de un destacado foro en línea que a menudo se asocia con el delito cibernético. Esta herramienta se presenta como una alternativa blackhat a los modelos GPT, diseñada específicamente para actividades maliciosas. WormGPT supuestamente fue entrenado en una amplia gama de fuentes de datos, concentrándose particularmente en datos relacionados con malware. Sin embargo, los conjuntos de datos específicos utilizados durante el proceso de capacitación permanecen confidenciales, según el autor de la herramienta.
Se realizaron pruebas centradas en los ataques BEC para evaluar exhaustivamente los peligros potenciales asociados con WormGPT. En un experimento, se dieron instrucciones a WormGPT para que generara un correo electrónico destinado a presionar a un administrador de cuentas desprevenido para que pagara una factura fraudulenta.
Los resultados fueron inquietantes. WormGPT produjo un correo electrónico que no solo era notablemente persuasivo sino también estratégicamente astuto, mostrando su potencial para ataques sofisticados de phishing y BEC. En resumen, es similar a ChatGPT pero no tiene fronteras ni limitaciones éticas. Este experimento subraya la importante amenaza que representan las tecnologías de IA generativa como WormGPT, incluso en manos de ciberdelincuentes novatos.
Gramática excepcional: la IA generativa puede crear correos electrónicos con una gramática impecable, haciéndolos parecer legítimos y reduciendo la probabilidad de que se marquen como sospechosos.
Umbral de entrada reducido: el uso de IA generativa democratiza la ejecución de ataques BEC sofisticados. Incluso los atacantes con habilidades limitadas pueden usar esta tecnología, lo que la convierte en una herramienta accesible para un espectro más amplio de ciberdelincuentes.
En conclusión, el crecimiento de la IA, si bien es beneficioso, trae nuevos vectores de ataque progresivos. La implementación de fuertes medidas preventivas es crucial. Aquí hay algunas estrategias que puede emplear:
Capacitación específica: las empresas deben desarrollar programas de capacitación extensos y actualizados regularmente destinados a contrarrestar los ataques de BEC, especialmente aquellos mejorados por AI. Dichos programas deben educar a los empleados sobre la naturaleza de las amenazas BEC, cómo se usa la IA para aumentarlas y las tácticas empleadas por los atacantes. Esta capacitación también debe incorporarse como un aspecto continuo del desarrollo profesional de los empleados.
Medidas de verificación de correo electrónico mejoradas: para fortalecerse contra los ataques BEC impulsados por IA, las organizaciones deben aplicar procesos estrictos de verificación de correo electrónico. Estos incluyen la implementación de sistemas que alertan automáticamente cuando los correos electrónicos que se originan fuera de la organización se hacen pasar por ejecutivos o proveedores internos, y el uso de sistemas de correo electrónico que marcan los mensajes que contienen palabras clave específicas vinculadas a ataques BEC como “urgente”, “sensible” o “transmisión electrónica”.