Un grupo de investigadores ha desarrollado un nuevo sistema para diseñar los algoritmos de aprendizaje automático que se aplican en las máquinas de Inteligencia Artificial (IA) que evita que lleven a cabo comportamientos inadecuados como la discriminación de sus usuarios por género o raza, o que incluso sean peligrosos.
Los investigadores, procedentes de las universidades estadounidenses Stanford y Massachusetts Amherst, junto con la Universidad Federal de Río Grande del Sur (Brasil), han abordado el problema de los algoritmos de aprendizaje automático, que en la actualidad no están diseñados para tener límites de seguridad o resulta difícil hacerlo.
"Introducimos un esquema para diseñar algoritmos de aprendizaje automático que permiten a sus usuarios definir y regular fácilmente el comportamiento indeseable" que presenten las máquinas de inteligencia artificial, según han explicado los autores del estudio en un artículo académico en la revista Science donde han recogido su investigación.
Los autos sin conductor o los robots son algunas de las máquinas que emplean hoy en día la inteligencia artificial para facilitar la vida al ser humano. Estos sistemas utilizan algoritmos de aprendizaje automático en todo momento, ya sea para el análisis de datos, para el reconocimiento de patrones o incluso para sistemas más complejos que consiguen un "rendimiento sobrehumano" en varias tareas, según los investigadores.
Es por ello, por lo que declaran que asegurar que estos sistemas no muestren ningún tipo de comportamiento no deseado como, por ejemplo, que causen daño a los humanos, es un asunto "urgente". De hecho, para crear sus nuevos algoritmos de aprendizaje automático, …