El lanzamiento de DeepNude, hace unos días, llamó la atención de miles de usuarios. Tanto que en un primer momento los servidores no daban a basto con las descargas. Estamos hablando de una app que conseguía "desnudar" a mujeres con inteligencia artificial.
En poco más de 24 horas, su creador anunció que cancelaba este proyecto, ya que "había una probabilidad muy alta de que se utilice indebidamente". Lo que pasa es que, como suele ocurrir, es imposible ponerle puertas al campo, y en los últimos días están apareciendo copias de este software.
Copias exactas de la app y otras que utilizaban su algoritmo
GitHub ha confirmado que han empezado a eliminar versiones open source de DeepNude. Un portavoz de la compañía ha asegurado que esta decisión responde a una "violación de sus políticas de uso":
"No monitorizamos proactivamente el contenido generado por el usuario, pero sí investigamos activamente los informes de abuso.
En este caso, desactivamos el proyecto porque consideramos que viola nuestra política de uso aceptable".Dicho portavoz deja claro que no aprueban "el uso de GitHub para publicar contenido sexualmente obsceno" y asegura que "prohiben dicha conducta en los términos de servicio y en las pautas de la comunidad".
En Genbeta
Google dice estar trabajando para solucionar los sesgos de la IA aunque el principal problema no es ella, sino nosotros
Si vamos a las pautas de la …