La crisis sanitaria provocada por el avance del coronavirus a lo largo y ancho del planeta continúa agravándose y en cada vez más países obliga al confinamiento.
Ante esta situación, aquellas personas que desempeñan trabajos no esenciales están siendo enviadas a sus casas. Entre ellas, las que se encargan de moderar los contenidos en plataformas y redes sociales como Facebook o YouTube.
Los sistemas automáticos de moderación se han convertido en censores inesperados
Que estas personas hayan dejado de trabajar, dado que por el tipo de información que maneja desarrollar sus funciones a distancia no es posible, ha provocado una elevada dependencia de sistemas automáticos de moderación que dependen del machine learning. Y estos sistemas están "volviéndose locos".
Humanos vs. machine learning
En los últimos días, pero especialmente en las últimas 24 horas, usuarios de Facebook informaban en la propia red social y en otras plataformas digitales de que sus publicaciones estaban desapareciendo. Contenidos que, no era ninguna casualidad, estaban relacionados de una u otra manera con el coronavirus.
Mediante una notificación, eran informados de que las publicaciones eliminadas incumplían con las normas de la comunidad. Algo que sucede cuando un contenido resulta ser fraudulento, contiene violencia o es extremista. Y nada más lejos de la realidad en estos casos. El problema era otro.
"Podríamos estar viendo el comienzo del machine learning volviéndose loco con menos supervisión humana"
"Parece que una regla antispam de Facebook se está volviendo loca. [...] Podríamos estar viendo el comienzo del machine learning …