Notasbit

Las mejores noticias de tecnología en un sólo lugar

Publicado por: Genbeta

Publicado en: 16/10/2023 08:27

Escrito por: Marcos Merino

Detectar fotos creadas por IA parecía un buen plan para evitar bulos sobre Palestina… pero los falsos negativos desinforman aún más

Detectar fotos creadas por IA parecía un buen plan para evitar bulos sobre Palestina… pero los falsos negativos desinforman aún más

La desinformación en redes relativa al conflicto entre Israel y Hamás lleva varios días siendo motivo de debate político y mediático —como ya ha demostrado, por ejemplo, la investigación de la UE en torno a los criterios de X—, pero la irrupción de la inteligencia artificial parece estar sirviendo para añadir leña al fuego.

Y es que algunas aplicaciones dedicadas a la detección de imágenes generadas mediante IA están siendo usadas de forma controvertida para legitimar o deslegitimar las fotos del conflicto, identificando en varios casos como 'falsas' imágenes de eventos reales.

Tras varios años generando preocupación entre el público en torno a las 'fake news', nos encontramos ahora ante el problema de 'quién vigilará a los vigilantes'… es decir, qué ocurre cuando las herramientas de verificación generan falsos positivos o negativos.

Ya sabíamos que, en el caso de los textos generados por IA, la efectividad de las herramientas de detección deja mucho que desear, circunstancia que ya ha generado varias polémicas… y, obviamente, esto se aplica también a las imágenes.










En Genbeta

Los detectores de textos creados con ChatGPT detectan como artificial el contenido creado por hablantes no nativos de inglés


La foto de la polémica

Una foto en concreto ejemplifica este debate: una difundida por Israel, en la que aparece el cadáver carbonizado de un bebé que supuestamente habría muerto a manos de los terroristas de Hamás. La imagen en cuestión fue difundida …

Top noticias del 16 de Octubre de 2023