Notasbit

Las mejores noticias de tecnología en un sólo lugar

Publicado por: Teknófilo

Publicado en: 01/09/2023 03:53

Escrito por: Teknófilo

Apple explica por qué abandonó la iniciativa de detección de contenido sexual infantil en iCloud

Apple ha explicado por qué ha abandonado la función de detección de material de abuso sexual infantil (conocido por sus siglas en inglés, CSAM, Child Sexual Abuse Material) que anunció en 2021.
El material de abuso sexual infantil es una grave preocupación que Apple intentó abordar con herramientas de detección en el dispositivo y en iCloud. Estas controvertidas herramientas fueron finalmente abandonadas en diciembre de 2022.
Un grupo de seguridad infantil comunicó a Apple que organizaría una campaña contra la decisión de abandonar la detección de CSAM, con la esperanza de hacerle cambiar de opinión. Apple ha respondido detalladamente acerca de sus motivos para abandonar la iniciativa.
La respuesta se centra en la seguridad y la privacidad de los consumidores como razón de Apple para cambiar el foco a un conjunto de funciones denominado Seguridad de las comunicaciones. Tratar de encontrar una forma de acceder a información que normalmente está cifrada va en contra de la posición más amplia de Apple en materia de privacidad y seguridad, una postura que sigue molestando a las potencias mundiales.
El material de abuso sexual infantil es aborrecible y estamos comprometidos a romper la cadena de coacción e influencia que hace que los niños sean susceptibles de sufrirlo.
Escanear los datos de iCloud almacenados de forma privada de cada usuario crearía nuevos vectores de amenaza que los ladrones de datos podrían encontrar y explotar. También inyectaría el potencial de una pendiente resbaladiza de consecuencias no deseadas. El escaneo de un tipo de contenido, por ejemplo, abre la puerta a …

Top noticias del 1 de Septiembre de 2023