Las Inteligencias Artificiales han surgido para hacernos nuestra vida más fácil. Es bastante sencillo utilizarla y nos otorga respuestas muy humanas para aquellas dudas o necesidades que nos surgen en el día a día. La más famosa es GPT-4, pero le siguen a la zaga Bing Chat (que realmente también es GPT-4) y Google Bard. Además, todo el mundo sigue esperando la llegada de la IA de Meta, que se presenta como la más avanzada de todas.Aunque hay inteligencias artificiales que no mucha gente conoce, lo cierto es que prácticamente todas se pueden usar para hacer el mal. Al principio de los tiempos de la IA se utilizó para crear exploits y agujeros de seguridad hasta que las empresas creadoras le pusieron coto a estas cuestiones. Ahora, un estudio de la Universidad de Zurich parece mostrar que hay otras formas en las que se puede utilizar la IA para causar el mal en las personas. Concretamente sacando nuestros datos de una manera refinada y sutil.La IA podría comprometer nuestra seguridadEl equipo de Martin Vechev, de la Universidad de Zurich ha encontrado algo muy interesante en sus investigaciones: los large language models pueden inferir una cantidad gigantesca de información personal mientras vamos hablando con ellos. Esto incluye parámetros muy importantes, como la raza, la ubicación e incluso nuestro trabajo.La tesis de Vechev y su equipo es que esta información se puede utilizar por estafadores para recolectar información sensible de usuarios que ni se imaginan el peligro. Así, también ha advertido que …