Hace unos días discutíamos acerca de la demanda colectiva hacia OpenAI por utilizar nuestros datos para entrenar a sus tecnologías de inteligencia artificial sin permiso. Desafortunadamente, este tipo de situaciones van a surgir cada vez en mayor medida, ya que nuestra información es especialmente valiosa para poder entrenar a IAs generativas y sus modelos de lenguaje.
Recientemente también conocíamos el caso de Google con Bard y demás tecnologías de IA, ya que modificaron su política de privacidad advirtiendo que cualquier información pública en Internet podría ser utilizada para entrenar sus servicios y herramientas basadas en IA. Las compañías no van a tener ningún reparo en recopilar nuestra información por medio de aplicaciones y utilizarla según les vengan en gana. Es por ello que nos toca a nosotros ser más conscientes de esto y valorar un poco más nuestra privacidad.
ChatGPT ahora es más seguro, pero sigue habiendo agujeros
Durante los primeros meses después de su lanzamiento, ChatGPT recopilaba cualquier información almacenada en nuestros chats para seguir entrenando esta inteligencia artificial y mejorando así esta propuesta. Sin embargo, tras el arqueo de cejas de multitud de organismos reguladores, OpenAI añadió una opción para eliminar los chats de sus servidores y permitir poder conversar con la IA sin que cada fragmento de texto pueda ser usado para entrenar a la herramienta.
Es por ello que si tu privacidad se encuentra entre una de tus preocupaciones principales, no servirá de nada si eliminas los chats manualmente de ChatGPT, sino que tendrás que desactivar …