Hace unos días se publicaba en diversos medios y redes sociales cómo las feministas en Corea del Sur se han unido para dar la voz de alarma por el amplio uso de los deepfakes porno en el país que, cómo no, es usado por hombres para ridiculizar a mujeres, desnudándolas falsamente con esta tecnología que parece totalmente realista. Y ahora también es el Gobierno del país quien da la voz de alarma y hablan incluso de emergencia.
La pornografía deepfake se está convirtiendo en un fenómeno en aumento en Corea del Sur e incluso el presidente ha ordenado "erradicarla". Yoon Suk-yeol, pidió a las autoridades que hagan más esfuerzos para "erradicar" los delitos sexuales digitales, que están muy extendidos en el país.
En Genbeta
Primero Japón y Corea del Sur, ahora Taiwán. Los milenials sin hijos están cambiando la educación y afectando a la economía
La pornografía deepfake está normalmente dirigida a mujeres jóvenes y desde hace un tiempo, tanto autoridades, como colectivos feministas, periodistas, usuarios de redes sociales... identificaron una serie de grupos de chat que crean y comparten imágenes deepfake sexualmente explícitas. Hace poco veíamos que hay herramientas muy buenas que permiten a cualquiera hacer estas manipulaciones digigales.
Hay que recordar que los deepfakes son imágenes y vídeos que se crean y manipulan mediante inteligencia artificial (IA) y, a menudo, combinan el rostro de una persona real con un cuerpo falso. Se dice que …