Aunque ChatGPT tiene capacidad para ahorrarte mucho tiempo y que dispares tu productividad, la realidad es que hay que tener cuidado con la información que le das. De hecho, un buena práctica de seguridad es no contarle datos que no quieres que lleguen a otras personas... algo que la plantilla de Samsung aprendió a las malas. Pero no solo es cuestión de que el modelo de IA de OpenAI se entrene con nuestros chats (salvo que lo configures para que no guarde tu historial) o la gran cantidad de datos que recopila, es que las brechas de seguridad acaecidas en los últimos meses se han traducido en que información sensible llegue a terceros. Y parece que ni siquiera los parches de seguridad de ChatGPT lanzados posteriormente lo han solucionado completamente.
Según un informe de Bleeping Computer del que se hace eco Mashable, OpenAI habría liberado una solución para un problema de ChatGPT según el cual filtraba datos de usuarios a terceros no autorizados. Entre los datos al alcance de personas ajenas se incluirían chats y sus correspondientes metadatos, como la identificación del usuario y otra información más de la sesión.
Sin embargo Johann Rehberger, investigador de seguridad que descubrió esta vulnerabilidad detallando cómo funcionaba, parece ser que todavía existen agujeros en este parche. A modo de resumen: que el fallo de seguridad sigue activo.
Lo que se sabe de la filtración de datos de ChatGPT
La clave está en los nuevos y …