La Inteligencia Artificial (IA) tiene un problema con el que no se contaba hasta hace unos años: está entrenada por los seres humanos. Seres imperfectos. Seres obsesivos. Son los que «entrenan» las capacidades de los algoritmos para que hagan su trabajo. Introducen las bases de datos de las que beben pero perfilan una sociedad a partir de sesgos. La razón: quienes se encargan de alimentar la máquina son, en su mayoría, hombres blancos. Por tanto, según un nuevo estudio, no representa la diversidad del mundo.
Un experimento elaborado por la consultora Biko ha concluído que los principales algoritmos empleados por los sistemas de reconocimiento de imágenes de Amazon o Google etiquetan de una manera diferente a hombres y mujeres. De ahí que, a ojos de estos software, si en una imagen aparece una persona portando un martillo se relaciona automáticamente con comportamientos masculinos.
«De un tiempo a esta parte, a pesar de la fe puesta en los supuestos superpoderes de la IA, hemos tenido que asumir que ni es tan objetiva ni tan neutral como se deseaba creer. En muchas ocasiones es ineficaz, discriminatoria, sexista y racista. Algo que no resulta extraño dado que los humanos, presentes en todo el ciclo de vida de la IA, podemos trasladar nuestras subjetividades y sesgos a la máquina en todas las fases del proceso», explican en un comunicado los autores de la investigación.
En los últimos años se ha abortado esta cuestión debido al notable incremento de soluciones tecnológicas que aprovechan los …