La inteligencia artificial está suponiendo un auténtico quebradero de cabeza para los organismos legisladores: la gestión de los datos personales, el aprendizaje con obras protegidas por la propiedad intelectual o la forma de ofrecer sus respuestas, envueltas en una palabrería correcta que invita a creer que son correctas, pero que en ocasiones son falaces y además algunas como ChatGPT no ofrecen fuentes para contrastarlo. Europa quiere tomar la delantera a la hora de legislar y ya tiene muy avanzado el marco legal para exigir más a estas herramientas. Uno de los cambios más llamativos es que IAs como ChatGPT tendrán que revelar sus fuentes.
La inteligencia artificial tiene muchos frentes abiertos. La cantidad de información personal recopilada y la dificultad a la hora de acceder a ella o revocarla ya le costó a ChatGPT la prohibición en Italia, mientras otros países europeos miraban con lupa con la la ley de privacidad de la UE en la mano. La forma de entrenarse y aprender para luego reproducir, porque si emplean obras protegidas por la propiedad intelectual para luego luego "inventar" nuevas, en su infinito marco de posibilidades pueden dar con una tecla tan parecida que atente directamente. Vamos, un plagio. O directamente, por atentar contra proyectos open source, algo por lo que OpenAI y Microsoft ya están metidas en litigios. Luego está el peligro de ofrecer respuestas que parecen correctas, pero no lo son y no hay manera de evidenciarlo a simple vista porque en ChatGPT no hay fuentes que avalen …