En los últimos tiempos, los 'modelos de lenguaje de gran contexto' o LLM (es decir, el cerebro detrás de los chatbots) han comenzado a mostrar habilidades inesperadas, para las que no han sido programados... pero tranquilo, que no estamos ante un 'escenario Skynet' (que sepamos): por ahora, sólo tienen que ver con su capacidad para gestionar grandes cantidades de información.
Imagina que estás utilizando un buscador en Internet: introduces una palabra y el buscador, en milisegundos, encuentra exactamente lo que necesitas entre millones de opciones.
Pues hay un elemento interno de estos modelos de IA, los 'cabezales de recuperación', que funcionan de manera similar, ayudando a encontrar y utilizar información relevante que está esparcida en grandes bloques de texto.
Su activación o desactivación puede llevar a que el modelo "alucine" o genere respuestas infundadas al no poder acceder a la información necesaria.
En Genbeta
Las inteligencias artificiales 'mienten' porque alucinan, y el ChatGPT de Bing alucina aún más. Los JPG ayudan a entender por qué
Pues bien, existe un ejercicio al que se somete a los modelos de IA generadores de texto, llamado 'la aguja en el pajar', en el que se busca que la IA responda a una pregunta utilizando un contexto en el que la respuesta fue inyectada artificialmente. Dicha prueba está pensada para garantizar la solidez de las IAs cuando se enfrentan a ventanas de contexto amplias.
Ya hablamos de dicho ejercicio, …