Apple ha anunciado recientemente varias funcionalidades de seguridad infantil para iOS 15.
La más polémica es una herramienta de escaneo que comprueba automáticamente cada fotografía que tu iPhone va a subir a iCloud en busca de material de abuso sexual infantil conocido.
Este tipo de herramientas se utilizan habitualmente en los servicios de almacenamiento en la nube y de mensajería, pero la apuesta de Apple por el escaneo en el propio dispositivo ha provocado una gran controversia.
Como resultado, Apple ha anunciado que retrasa la implantación de todas sus nuevas funciones de seguridad infantil.
En un comunicado enviado a 9to5Mac, Apple dice que «ha decidido tomarse un tiempo adicional durante los próximos meses para recopilar información y realizar mejoras» para sus nuevas funciones de seguridad infantil, concretamente el escáner.
Reconoce que «los comentarios de los clientes, los grupos de defensa, los investigadores y otros» han llevado a este cambio de planes.Aun así, Apple afirma que su sistema de escaneo «está diseñado teniendo en cuenta la privacidad del usuario.»
Antes de que las fotos se almacenen en iCloud, el iPhone intenta cotejarlas con una base de datos de hashes proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y otras organizaciones de seguridad infantil.
Las imágenes coincidentes se almacenan entonces en iCloud con un «ticket de seguridad», básicamente una bandera invisible que solo Apple puede rastrear.
Si tu cuenta de iCloud contiene varias imágenes coincidentes, Apple revisará dichas imágenes manualmente. Las imágenes de abuso sexual infantil confirmadas se comunican entonces al NCMEC.
Apple afirma que este …