A principios de este mes, la Unión Europea dejaba claro que el contenido extremista debería eliminarse en una o dos horas, pidiendo a compañías como Facebook, Google o Twitter que mejoren el proceso de moderación.
El problema llega cuando tienes una plataforma con 2.000 millones de usuarios activos, ya que moderar todo el contenido generado se convierte en una tarea titánica. Los 7.500 moderadores que tiene la compañía parecen no dar a basto con la cantidad de trabajo que tienen encima.
Facebook pide perdón
Propublica, una agencia de noticias independiente y sin ánimo de lucro radicada en Manhattan, envió a la red social 49 publicaciones que incitaban al odio. El problema es que los moderadores erraron en 22 ocasiones. Es decir, en casi el 50% de los casos.
En seis de las ocasiones, Facebook se escudó en que los usuarios habían marcado mal las publicaciones (en seis ejemplos) y que no tenían demasiada información para responder (en dos casos)
var _giphy = _giphy || [];
_giphy.push({id: "Da6NwNnoDZeVO", clickthrough_url: "//giphy.com/media/Da6NwNnoDZeVO/giphy.gif"});
var g = document.createElement("script");
g.type = "text/javascript";
g.async = true;
g.src = ("https:" == document.location.protocol ? "https://" : "http://") + "giphy.com/static/js/widgets/embed.js";var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(g, s);
Además, Facebook defendió 19 de sus decisiones, en publicaciones que incluían contenido sexista, racista y antisemita. Justin Osofsky, vicepresidente de la compañía, firmó un comunicado en el que asegura que "sienten los errores que han cometido".
"Tenemos que hacerlo mejor".
Osofsky …