Apple continúa resolviendo dudas y ofreciendo información adicional sobre el sistema de detección de imágenes categorizadas como material de abuso sexual e infantil (CSAM, en sus siglas en inglés). Se trata de una medida para proteger a los más pequeños que ha sido foco de polémica por parte muchos usuarios y expertos en seguridad. En […]