Los usos de la inteligencia artificial cada vez son mayores, y algunos de ellos se centran en el lenguaje, como la IA de Microsoft que promete mejorar nuestra escritura de forma automática. Con otros ejemplos, como Deep TabNine, una herramienta que ayudar a los desarrolladores mediante Deep Learning, queda claro que la IA puede potenciar y continuar el trabajo de los humanos pero, ¿qué sucede cuando el trabajo de una IA se centra en analizar el de otra IA?
En plena época de deepfakes, tanto en vídeo como en audio, el texto tampoco se libra de poder ser generado mediante inteligencia artificial. Para lograr detectarlo, investigadores del MIT han desarrollado una herramienta potenciada por inteligencia artificial. Bajo el nombre de Giant Language Model Test Room (GLTR), esta herramienta es capaz de detectar qué partes de un texto han sido generadas mediante un algoritmo.
Una inteligencia artificial que detecta el trabajo de otra inteligencia artificial
Actualmente existen inteligencias artificiales capaces de crear noticias falsas en cuestión de segundos. La capacidad de distinguir cuándo un texto ha sido escrito mediante una IA y cuando no cobra pues más importancia que nunca (aunque no sea solamente la IA la que crea noticias falsas). Desde el MIT-IBM Watson Lab han creado GLTR, una herramienta en fase de demostración, que permite "la inspección forense de la huella visual de un modelo de idioma en el texto de entrada".
En otras palabras, es capaz de detectar los fragmentos de texto que han sido generados …