A principios del mes pasado, Apple anunció que introduciría un nuevo conjunto de herramientas para ayudar a detectar material conocido de abuso sexual infantil (CSAM) en fotos almacenadas en iPhones. La función fue criticada por expertos en seguridad como una violación de la privacidad del usuario, y lo que siguió fue…Read more...