ChatGPT es usado a diario para muchos usos diferentes. En el campo educativo es común verlo actuando como un alumno más, resolviendo exámenes o creando trabajos, e incluso en el campo de la programación a la hora de buscar lo que está mal en un código que no funciona. Pero más allá de estos usos inocuos, hay ciertas personas (o incluso países) que están usando ChatGPT para generar un mal.
Ha sido la propia OpenAI la que lo ha confirmado. Sus ingenieros han detectado en las últimas semanas más de 20 ciberataques que se habrían hecho con la ayuda de ChatGPT y otras herramientas LLM que tenemos a nuestro alcance. ¿Los responsables de estos ciberataques? Hackers chinos e iraníes que han encontrado en las IA la forma de desarrollar el código de su malware y depurarlo.
ChatGPT como una herramienta básica para generar ataques de malware
El primero de estos ataques orquestados por ChatGPT se realizó por parte de activistas chinos contra los gobiernos de varios países asiáticos. Este usó el método SweetSpecter. Una técnica de phishing que se centra en utilizar un archivo .zip con el archivo malicioso en su interior. El objetivo es que al descargarlo es capaz de infectar el equipo. Toda una técnica que se desarrolló cen parte con ChatGPT para generar el código.
El grupo de hackers iraní conocido como "CyberAv3ngers" también usó ChatGPT para sus tareas. En concreto, explotaron la vulnerabilidad y robaron las contraseñas de los usuarios …