Notasbit

Las mejores noticias de tecnología en un sólo lugar

Publicado por: Teknófilo

Publicado en: 26/12/2023 13:51

Escrito por: Teknófilo

Los generadores de imagen por IA han sido entrenados con fotos explícitas de niños según un estudio

En el corazón de los populares generadores de imágenes de inteligencia artificial se esconden miles de imágenes de abuso sexual infantil, según un nuevo informe.
Estas mismas imágenes han facilitado a los sistemas de IA crear representaciones realistas y explícitas de niños ficticios, así como quitar la ropa a adolescentes reales que estaban vestidos en las fotos. Esto ha creado una gran alarma social.
Hasta hace poco, los investigadores contra el abuso creían que la única forma en que algunas herramientas de inteligencia artificial no controladas producían imágenes abusivas de niños era esencialmente combinando lo aprendido de dos grupos separados de imágenes en línea: la pornografía adulta y las fotos inofensivas de niños.
Pero el Observatorio de Internet de Stanford encontró más de 3,200 imágenes de presunto abuso sexual infantil en la gigantesca base de datos de inteligencia artificial LAION, un índice de imágenes en línea y subtítulos que se ha utilizado para entrenar a los principales creadores de imágenes de inteligencia artificial como Stable Diffusion.
El grupo de vigilancia trabajó con el Centro Canadiense de Protección Infantil y otras organizaciones benéficas contra el abuso para identificar el material ilegal e informar los enlaces originales de las fotos a las autoridades. La respuesta fue inmediata.


LAION, que significa la Red Abierta de Inteligencia Artificial a Gran Escala sin fines de lucro, dijo en un comunicado que «tiene una política de tolerancia cero hacia el contenido ilegal y, por precaución, hemos retirado los conjuntos de datos de LAION para asegurarnos de que sean seguros …

Top noticias del 26 de Diciembre de 2023