Las fotos en iCloud están cifradas y nadie puede acceder a ellas a excepción del usuario al que pertenece la cuenta de iCloud. Sin embargo, eso no significa que sea un sitio privado para cualquier tipo de contenido. Un sistema automático de Apple se encarga de analizar el contenido subido para encontrar posibles abusos sexuales a menores en las fotos almacenadas en iCloud. Todo apunta a que se utiliza PhotoDNA para ello, un sistema de Microsoft utilizado por otras grandes tecnológicas con el mismo propósito.
Fotos privadas a las que nadie puede acceder, a no ser que sean pornografía infantil
Según ha indicado en el CES 2020 Jane Hovarth, directora de privacidad de Apple, escanean las imágenes subidas a iCloud desde dispositivos como el iPhone o el iPad para comprobar que no hay posibles casos de abuso infantil. La directora también ha hablado sobre temas de privacidad relacionados con accesos que pide el FBI.
No ha profundizado demasiado en cómo realizan esta verificación, tan sólo ha indicado que utilizan ciertas tecnologías para hacer la comprobación de forma automática:
"Estamos utilizando algunas tecnologías para ayudar a detectar material de abuso sexual infantil."
Otras grandes tecnológicas como Facebook o Google sí que se sabe que utilizan PhotoDNA, un sistema de detección automática que es capaz de detectar imágenes de menores con contenido sexual. Quizás Apple utilice PhotoDNA también, aunque no hay nada oficial al respecto.
En lo que sí ha enfatizado Jane Hovart es en el hecho de que …