Los investigadores de la empresa de inteligencia artificial o IA Anthropic, creadores de Claude, afirman haber logrado un avance muy importante en la comprensión de cómo funcionan exactamente los grandes modelos de lenguaje (LLM por sus siglas en inglés). Concretamente, dicen poder comprender ahora mejor sus cajas negras.
Uno de los problemas de las herramientas de IA que usamos, basada en grandes modelos lingüísticos (LLM), es que los modelos son cajas negras. Podemos saber qué instrucciones les damos y qué resultados producen, pero cómo llegan exactamente a una respuesta concreta es un misterio, incluso para investigadores y desarrolladores de las diferentes soluciones de inteligencia artificial que usamos a menudo.
En Genbeta
Un desarrollador preguntó qué IA es mejor para programar. Los más de 28.000 votos fueron muy contundentes
Por ejemplo, en el caso de Google, su CEO Sundar Pichai, ya explicó en el pasado que en el "sector llamamos una "caja negra" cuando algo no se entiende completamente”. Es decir, que ni sus creadores pueden decir muy bien por qué una IA hizo algo, por qué hubo un error en el proceso hasta llegar al resultado. Con el problema de las cajas negras resulta difícil predecir las probabilidades de que un modelo vaya a arrojar información errónea.
Como publicaba a finales de 2023 Scientific American, las cajas negras de IA se refieren al funcionamiento interno de sistemas de inteligencia artificial que son invisibles para el …