Hackers Estatales Utilizan ChatGPT de OpenAI para Potenciar Operaciones Cibernéticas

Los hackers de estados-nación están utilizando inteligencia artificial para perfeccionar sus ciberataques, según un informe publicado por Microsoft Corp.

Este miércoles, hackers respaldados por Rusia, Corea del Norte, Irán y China fueron detectados añadiendo modelos de lenguaje amplio, como ChatGPT de OpenAI a su arsenal, a menudo en las etapas preliminares de sus operaciones de hacking.

Algunos grupos estaban utilizando la tecnología para mejorar sus correos electrónicos de phishing, recopilar información sobre vulnerabilidades y solucionar sus propios problemas técnicos, según los hallazgos.

Es la indicación más grande hasta ahora de que los grupos de ciberespionaje patrocinados por el estado, que han acechado a empresas y gobiernos durante años, están mejorando sus tácticas basadas en tecnologías de acceso público.

Los expertos en seguridad han advertido que tal evolución ayudaría a los hackers a recopilar más inteligencia, aumentar su credibilidad al intentar engañar a los objetivos y penetrar más rápidamente en las redes de las víctimas. OpenAI dijo el miércoles que había terminado las cuentas asociadas con hackers patrocinados por el estado.

“Los actores de amenazas, al igual que los defensores, están examinando la inteligencia artificial, incluidos los modelos de lenguaje amplio, para mejorar su productividad y aprovechar las plataformas accesibles que podrían avanzar en sus objetivos y técnicas de ataque”, dijo Microsoft en el informe.

No se han incluido ataques significativos que utilicen tecnología LLM, según la compañía. Los investigadores de políticas advirtieron en enero de 2023 que los hackers y otros actores maliciosos en línea encontrarían formas de abusar de la tecnología de inteligencia artificial emergente, incluido ayudar a escribir código malicioso o propagar operaciones de influencia.

Microsoft ha invertido 13 mil millones de dólares en OpenAI, la startup de moda detrás de ChatGPT.

Los grupos de hackers que han utilizado IA en sus operaciones cibernéticas incluyen Forest Blizzard, que Microsoft dice que está vinculado al gobierno ruso.

El grupo Velvet Chollima de Corea del Norte, que se ha hecho pasar por organizaciones no gubernamentales para espiar a las víctimas y los hackers de Charcoal Typhoon de China que se centran principalmente en Taiwán y Tailandia, también han utilizado dicha tecnología, según Microsoft.

Un grupo iraní vinculado a la Guardia Revolucionaria del país ha aprovechado los LLMs creando correos electrónicos engañosos, uno de los cuales se utilizó para atraer a famosas feministas y otro que se hizo pasar por una agencia de desarrollo internacional.

Los hallazgos de Microsoft llegan en medio de crecientes preocupaciones de expertos y del público sobre los graves riesgos que la IA podría plantear para el mundo, incluida la desinformación y la pérdida de empleos.

En marzo de 2023, más de mil personas, incluidos líderes prominentes de importantes empresas tecnológicas, firmaron una carta abierta advirtiendo sobre los riesgos que la IA podría tener para la sociedad. Más de 33,000 personas han firmado la carta.

Otro grupo de hackers rusos sospechosos, conocido como Midnight Blizzard, anteriormente comprometió correos electrónicos de ejecutivos de Microsoft y miembros del personal de ciberseguridad, dijo la compañía en enero.

Relacionado