2021-09-04
Apple ha retrasado el lanzamiento de su próximo abuso sexual infantil detección de material (CSAM) que se anunció hace menos de un mes. La medida es parte de un nuevo conjunto de funciones de protección infantil que la compañía planea implementar en las próximas actualizaciones de iOS 15, iPadOS 15 y macOS Monterey que se espera que lleguen en algún momento de este otoño.
“Última mes anunciamos planes para funciones destinadas a ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión de material de abuso sexual infantil ”, dijo Apple en un comunicado de prensa. “Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica”.
El lanzamiento detalló tres cambios importantes para mejorar la detección de CSAM que involucran Fotos de iCloud, Búsqueda y Siri. Según Apple, las funciones utilizan la tecnología NeuralHash que está diseñada para identificar CSAM conocido en el dispositivo de un usuario comparando sus hashes, y solo informa a Apple si supera un umbral de 30 imágenes. Esto sucede en el dispositivo en lugar de en la nube, lo que Apple asegura que sigue siendo amigable con la privacidad ya que no tienen acceso a los datos cifrados. También se reveló que el escaneo de CSAM ya se está realizando en iCloud Mail desde 2019.
La detección de CSAM recibió una reacción negativa de los expertos en seguridad y defensores de la privacidad, incluida la Electronic Frontier Foundation y la American Civil Liberties Union, por preocupaciones que podría ser susceptible de abuso yposiblemente conduzca a un acceso por la puerta trasera en un futuro próximo. Craig Federighi, vicepresidente senior de ingeniería de software de Apple, defendió el nuevo sistema afirmando que es un avance en la privacidad y culpa de la reacción del público a la falta de comunicación, diciendo que "los mensajes se mezclaron bastante mal".
Una nota interna filtrada reveló que Apple es consciente de que "algunas personas tienen malentendidos" sobre cómo funciona el escaneo CSAM. También contenía un mensaje del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) que destilaba a los críticos de la medida como "las voces chillonas de la minoría". El NCMEC es el socio de Apple en la medida y está a cargo de examinar manualmente y confirmar cualquier posible CSAM reportado.
Tras el anuncio de la demora, el grupo de derechos digitales Fight for the Future respondió insistiendo en que “no hay forma segura de hacer lo que [Apple] está proponiendo ". El director Evan Greer dice que el malware tecnológico del que se puede abusar fácilmente provoca un daño enorme y que conduciría a la vigilancia de los productos Apple.
(Fuente: TechCrunch, 9to5mac [1] [2], Macobserver, Arstechnica )
La publicación Apple retrasa el lanzamiento de sus características de seguridad infantil debido a preocupaciones de privacidad apareció primero en Lowyat.NET.
Leer más
Fuente web: Lowyat.NET
Dejar un comentario