Dicen que esto es un poco como aprender parkour por fuerza bruta, y un poco de razón no les falta. Los investigadores de DeepMind (una empresa de IA que adquirió Google en 2014) han mostrado cómo se «enseña» a una inteligencia artificial a manejar un cuerpo flexible de forma natural. ¿La forma de hacerlo? Un simulador y un circuito de plataformas y obstáculos sobre el que personajes abstractos de palo tienen que ensayar miles y miles de veces, hasta lograr la perfección.
Los detalles del trabajo pueden leerse aquí Producing flexible behaviours in simulated environments (que es un resumen del trabajo original: Emergence of Locomotion Behaviours in Rich Environments). Tal y como dicen, se trata del surgimiento de «comportamientos locomotores» (tales como saltar o esquivar) en esas simulaciones. Porque a veces esa inteligencia artificial hace cosas y utiliza estrategia para moverse que no se le han enseñado.
El método es básicamente el de refuerzo: a los curiosos personajes (el muñeco, el bicho palo, la araña) se las enseña que el objetivo es avanzar. Cada vez que progresan, reciben una recompensa en forma de puntuación; si fracasan porque se caen o quedan frenados, la recompensa es negativa. Los «sensores» que utilizan son una visión (limitada) y algo de propiocepción, es decir, saber cuál es la posición de las partes de su propio cuerpo. Y repetir, repetir, repetir, que la fama cuesta y avanzar no veas.
Es gracioso ver las demostraciones y cómo van progresando o siendo terminados (un poco a lo …