Estaba echando un vistazo a un vídeo que explica cómo funciona el nuevo filtro de restauración de fotos de Photoshop que está disponible en la versión beta de los filtros neuronales&ast, cuando me he dado cuenta de algo que ya vengo observando en los filtros de IA de este tipo hace tiempo. Los resultados son bastante interesantes, pero sólo si los utilizas con rostros que no conoces.
El caso es que como el filtro se supone que restaura fotos (especialmente rostros, además de arañazos) hice pruebas con fotos familiares antiguas, algunas de principios de siglo y, sí, llaman mucho la atención pero todo cambia cuando llegas a las fotos de tus abuelos, padres o de ti mismo. Ahí el «engaño» de estos filtros, que restauran la imagen a partir de muestreos de millones de otros rostros similares en formas y colores ya no cuela. Te das cuenta de que son rostros «inventados» y parecen artificiales y poco realistas.
De hecho los famosos «avatares inventados» son realistas porque aparte de ser anatómicamente correctos nadie los conoce.
Esto me hace pensar que con GPT-3, CoPilot y similares, sucederá algo parecido con los textos: serán creíbles y llamativos siempre que no conozcas muy bien el tema del que tratan. De hecho ya he visto por ahí unos cuantos servicios de creación de titulares, artículos y traducciones a partir de unas pocas palabras que adolecen de este problema.
Sabemos que los textos, como las fotos, provienen de combinaciones de vastas cantidades de textos originales …