Las noticias sobre inteligencia artificial (IA) se han vuelto cotidianas, pues es una de las innovaciones tecnológicas más populares en la actualidad. Su impacto es tal que, por ejemplo, Microsoft ya la ha integrado en el ecosistema de Xbox. Sin embargo, a pesar de los avances y de su creciente adopción, hay un hecho indiscutible: hasta ahora, ningún modelo ha logrado comprender realmente cómo funciona el mundo.
De acuerdo con el portal TechSpot, los modelos de IA generativa no son capaces de entender por completo las reglas de sistemas complejos. Aunque pueden ofrecer respuestas aparentemente convincentes y algunas de las principales figuras tecnológicas sostienen que la IA terminará por reemplazar a millones de empleos al automatizar diversas tareas, varios investigadores advierten sobre la importancia de conocer sus límites.
Los académicos señalan que los grandes modelos de lenguaje (LLM) no piensan, sino que operan mediante la predicción de palabras basadas en patrones textuales. Debido a esto, pueden generar respuestas erróneas, aun cuando parezcan bien estructuradas.
Un análisis del contexto
Con el objetivo de analizar los alcances y limitaciones de esta tecnología, un grupo de investigadores del MIT diseñó diversas pruebas para evaluar si la IA generativa realmente comprende el mundo.
El estudio se enfocó en modelos como GPT-4 y su capacidad para interpretar el contexto en distintos escenarios. Por ejemplo, se le plantearon problemas específicos, como la navegación en la ciudad de Nueva York y el desarrollo de estrategias en el juego de …