Ya hay millones de personas (que se sepa, como mínimo, cuatro millones) usando bots de inteligencia artificial abusivos llamados “Nudify” en Telegram. Lo que hacen es quitar la ropa a personas en las fotos. Y, cómo no, el objetivo suelen ser las mujeres y además, también de niños y niñas.
A principios de 2020, el experto en deepfakes Henry Ajder descubrió uno de los primeros bots de Telegram creados para “desvestir” fotos de mujeres utilizando inteligencia artificial. En ese momento, recuerda Ajder, el bot se había utilizado para generar más de 100.000 fotos explícitas, incluidas las de personas menores de edad, y su desarrollo marcó un momento “decisivo” para los horrores que podían crear los deepfakes.
Genbeta
Descubren un bot de Telegram que ha creado miles de deepfakes en los que aparecen mujeres desnudas sin su consentimiento
Desde entonces, explica un informe de WIRED, los deepfakes se han vuelto más frecuentes, más dañinos y más fáciles de producir. Ahora han identificado a, por lo menos, 50 bots que dicen que pueden desnudar a personas.
Una "pesadilla" para las mujeres
Los bots varían en sus capacidades e incluso algunos se publicitan afirmando que pueden crear imágenes que muestran a personas en diversos actos sexuales. Estos 50 bots cuentan en total con más de 4 millones de "usuarios mensuales".
Sobre estos bots de Telegram, el experto Ajder lo ve como algo alarmante: hay un "aumento significativo, de órdenes …