El año pasado sin duda vivimos todos un gran 'boom' de las inteligencias artificiales generativas que hizo que todos en alguna ocasión pidiéramos algo a un chatbot como ChatGPT para poder solucionar una duda o realizar un trabajo para la universidad. Pero, por otra parte, las grandes empresas tuvieron que poner medidas para evitar el uso de estas herramientas.
Empresas de gran renombre como Amazon, Apple o incluso Microsoft prohibían tajantemente a los trabajadores a usar ChatGPT en el ámbito laboral. Pero no porque, como ocurre en las facultades, iban a hacer un clásico 'copia y pega' sino por el hecho de no confiar en OpenAI a la hora de informar de 'datos sensibles' en los prompts.
Las conversaciones con ChatGPT pueden no ser privadas del todo
No confiaban precisamente en que los trabajadores compartieran con la IA datos secretos de proyectos que no habían salido a la luz, como el código de un software que se está creando en el seno de las empresas. Y el problema ha quedado reflejado por parte de un lector de Ars Technica que ha visto como ChatGPT está revelando las conversaciones privadas que se tienen con él.
Dentro de estas conversaciones filtradas se ha visto como aparecen datos personales de los usuarios de la IA e incluso contraseñas que no tienen relación. Esto ha quedado patente con una serie de capturas de este editor donde se ven nombres de usuario y contraseñas de un sistema de asistencia …