China e Irán han cruzado una línea roja: están utilizando ChatGPT para crear 'malware' y ataques de 'phishing'
Lo ha confirmado OpenAI. Durante las últimas semanas sus ingenieros han identificado más de 20 ciberataques orquestados con ChatGPT y otras herramientas de modelos de lenguaje extendidos (LLM). Los autores, según los técnicos de OpenAI, son hackers chinos e iraníes que han encontrado la forma de utilizar estas herramientas de inteligencia artificial (IA) para desarrollar malware, depurarlo y llevar a cabo otras actividades maliciosas.
El primer ataque realizado con ChatGPT fue planificado por activistas chinos y tuvo como objetivo varios Gobiernos de países asiáticos. Curiosamente, este ataque empleó una estrategia de spear-phishing conocida como ‘SweetSpecter’. Este método utiliza un archivo ZIP que incorpora un fichero malicioso, de manera que si se descarga y se abre es capaz de infectar el sistema del usuario. Los ingenieros de OpenAI descubrieron que ‘SweetSpecter’ fue creado empleando varias cuentas que usaron ChatGPT para escribir el código y descubrir vulnerabilidades.
Esta es la otra cara de la inteligencia artificial
El segundo ataque optimizado con IA fue perpetrado por un grupo con sede en Irán conocido como ‘CyberAv3ngers’. En esta ocasión esta organización utilizó ChatGPT para explotar vulnerabilidades y robar las contraseñas de usuarios de equipos con macOS. Y el tercero fue planificado por un grupo conocido como ‘Storm-0817’, también con sede en Irán. En esta ocasión utilizaron ChatGPT para desarrollar un software malicioso para Android capaz de robar listas de contactos, acceder a registros de llamadas y al historial del navegador.
Según OpenAI todos los ataques en los que ha intervenido ChatGPT se han elaborado utilizando métodos perfectamente conocidos
Según OpenAI todos los ataques en los que ha intervenido ChatGPT se han elaborado utilizando métodos perfectamente conocidos, por lo que los hackers chinos e iraníes no parecen haber desarrollado ningún método original. La consecuencia más evidente de estas prácticas es que no han desarrollado ninguna variante de malware sustancialmente nueva. Sin embargo, el problema es que estos ciberataques nos recuerdan lo sencillo que es para los hackers con unos conocimientos mínimos recurrir a la IA para desarrollar software malicioso con una capacidad dañina muy importante.
OpenAI ha confirmado que seguirá mejorando su tecnología para prevenir que pueda ser utilizada con fines maliciosos. No obstante, mientras tanto ha creado varios equipos de trabajo especializados en seguridad y protección que compartirán sus hallazgos con otras empresas y con la comunidad para intentar evitar que se repitan más ciberataques como estos. En cualquier caso, es evidente que no solo OpenAI debe tomar estas medidas. Las demás compañías propietarias de modelos de IA generativa deberían seguir sus pasos en este ámbito.
Imagen | Tima Miroshnichenko
Más información | OpenAI
En Xataka | La mayor amenaza de ciberseguridad para China no es Estados Unidos: son los hackers de India