Es bien sabido que las nuevas tecnologías en la Inteligencia Artificial, particularmente las que se refieren a redes neuronales, han tenido mucho éxito en resolver una serie de problemas, incluso en temas como el juego del Go, el cual se supone es mucho más complejo que el ajedrez y en donde AlphaGo, de DeepMind, se ha convertido en un programa imbatible.
Sin embargo, lo que parece que aún no pueden hacer es explicar cómo llegaron a las conclusiones, a los resultados, los cuales casi siempre sobrepasan al de los expertos humanos. Y es aquí donde se trabaja intensamente, en poder tener sistemas que expliquen cómo es que estas poderosas redes neuronales, llegan a las conclusiones que llegan.
Las patentes de DeepMind de Google en Inteligencia Artificial
En busca de una explicación
Decodea.ai es una empresa de software, de inteligencia artificial, que declara tener un sistema llamado XAI – Explainable Artificial Intelligence, que puede explicar las razones por las que los programas inteligentes llegan a sus respectivas conclusiones. Su esquema parte de 4 bases:Modelar el pensamiento humano, es decir, modelar cómo los humanos explican sus recomendaciones.
Identificar conceptos de alto nivel, es decir, tener cadenas de deducción y relaciones causales en situaciones concretas.
Operar en sistemas dinámicos, o lo que es lo mismo, decir que las explicaciones son específicas a situaciones y no estáticas.
Compensación de rendimiento cero, que no es otra cosa que decir que las explicaciones son independientes a los sistemas de IA a la mano.La credibilidad de los resultados
La idea de Decodea.ai …