Cuando Anthropic lanzó al mercado hace un mar de días su modelo de lenguaje Claude 3 Opus, impresionó que se proclamara capaz de superar a GPT-4, pero tampoco impactó exactamente (ya son varios los LLM que proclaman ser capaces de igualar/superar a la joya de la corona de OpenAI en varios aspectos).
Sin embargo, ahora las conversaciones sobre Claude 3 giran en torno a una afirmación que, de primeras, pudiera parecer chocante: que esta IA está dotada de (alguna forma de) autoconciencia, y que eso nos acerca más al objetivo desarrollar IA General. Pero, ¿de dónde ha salido esta idea?
Todo comenzó con un tuit publicado por Alex Albert, ingeniero de la propia Anthropic, en el que compartió una historia sobre las pruebas internas a las que fue sometido Opus, unas pruebas en las que esta IA aparentemente demostró algún tipo de "metacognición" o autoconsciencia durante la realización del test conocido como "la aguja en el pajar".
La autoconsciencia sí que es una aguja en el pajar
Dicho test es relativamente estándar en esta clase de IAs, y consiste en esconder una frase fuera de lugar dentro de un gran bloque de textos o documentos (mayor cuanto mayor sea la ventana de contexto de la IA) y preguntarle si es capaz de identificar la 'frase más relevante' (la 'aguja') en medio de ese 'pajar' de información.
En esta prueba, diseñada para evaluar las habilidades de razonamiento contextual de la IA, Claude no solo logró identificar esa información específica enterrada en …