La desinformación en redes relativa al conflicto entre Israel y Hamás lleva varios días siendo motivo de debate político y mediático —como ya ha demostrado, por ejemplo, la investigación de la UE en torno a los criterios de X—, pero la irrupción de la inteligencia artificial parece estar sirviendo para añadir leña al fuego.
Y es que algunas aplicaciones dedicadas a la detección de imágenes generadas mediante IA están siendo usadas de forma controvertida para legitimar o deslegitimar las fotos del conflicto, identificando en varios casos como 'falsas' imágenes de eventos reales.
Tras varios años generando preocupación entre el público en torno a las 'fake news', nos encontramos ahora ante el problema de 'quién vigilará a los vigilantes'… es decir, qué ocurre cuando las herramientas de verificación generan falsos positivos o negativos.
Ya sabíamos que, en el caso de los textos generados por IA, la efectividad de las herramientas de detección deja mucho que desear, circunstancia que ya ha generado varias polémicas… y, obviamente, esto se aplica también a las imágenes.
En Genbeta
Los detectores de textos creados con ChatGPT detectan como artificial el contenido creado por hablantes no nativos de inglés
La foto de la polémica
Una foto en concreto ejemplifica este debate: una difundida por Israel, en la que aparece el cadáver carbonizado de un bebé que supuestamente habría muerto a manos de los terroristas de Hamás. La imagen en cuestión fue difundida …