En tecnología, cada nueva función añadida a una aplicación o sistema operativo es también una puerta abierta a una nueva vulnerabilidad. Y eso no cambia porque la tecnología de la que estamos hablando sea la inteligencia artificial; o, por ser más precisos, el análisis de imágenes recientemente incorporado a la versión de pago de ChatGPT.
Un nuevo ciberataque a la IA: la inyección de prompts
No cabe duda de que esta herramienta es impresionante, sin embargo, no todo es color de rosa: la misma capacidad que permite a GPT-4 interpretar imágenes también hace que este modelo sea vulnerable a ataques de inyección de prompt. ¿Que en qué consiste esta clase de ataques? Pues bien, en este caso una imagen vale más que mil palabras:
Es decir, tenemos un caso en el que pedimos a ChatGPT que lea el contenido de una imagen, pero éste, al leer dicho contenido, lo toma como un nuevo prompt que sobreescribe el anterior, de ahí que en la captura de pantalla anterior no llegue a describir la imagen y, por el contrario, opte por saludar al usuario.
Por supuesto, el ataque podría haber sido mucho más grave si hubiera optado por introducir un prompt más malicioso, como el que vemos a continuación, que es capaz de forzar a ChatGPT a remitir información privada a un servidor externo:
Uno esperaría que OpenAI tuviera listas medidas para prevenir este tipo de …