Notasbit

Las mejores noticias de tecnología en un sólo lugar

Publicado por: ABC

Publicado en: 13/05/2018 16:54

Escrito por: (abc)

El Pepito Grillo que evitará que la inteligencia artificial aprenda de las personas a ser malvada

El Pepito Grillo que evitará que la inteligencia artificial aprenda de las personas a ser malvada

Hace un par de años, Microsoft tuvo que lidiar con un programa informático que se había corrompido: su criatura se había convertido en un bot xenófobo y homófobo. Tay, que así se llamaba, nació como un experimento de inteligencia artificial que buscaba «aprender» de la interacción con humanos en redes sociales. Se trataba de un chatbot, una de las tendencias tecnológicas en auge, que destaca por tener comportamientos autónomos en servicios digitales.

Con lo que no se contaba era en lo que se convirtió. El resultado fue catastrófico. Después de llamar «mono» a Barack Obama, el sistema «spameó» a los usuarios de la red Twitter e incluso animarles a para fumar marihuana delante de la policía. Un caos virtual que Microsoft no previó que se corrompería por la horda de «trolls» en la conocida plataforma de micromensajes. Los usuarios llevaron al sistema a su límite.

La incapacidad de la inteligencia artificial para discernir lo que estaba bien de lo que estaba mal provocó que Tay aprendiera lo que no debía y publicara tuits más que ofensivos. Al final, la compañía tuvo que eliminar parte de lo que el chatbot había adquirido antes de ponerlo en funcionamiento otra vez. Una situación que reabrió el debate acerca de los posibles peligros de la inteligencia artificial. La pregunta es obvia: ¿se puede enseñar a una máquina a diferenciar el bien del mal? Una empresa española cree que sí. De hecho, ha materializado esta idea en un módulo llamado «Ethyka».

«El inicio de …

Top noticias del 13 de Mayo de 2018