Apple agrega una puerta trasera a iMesssage y iCloud Storage


Apple agrega una puerta trasera a iMesssage y iCloud Storage

De Apple anuncio que va a comenzar a escanear fotos en busca de material de abuso infantil es un gran problema. He estado siguiendo los detalles y discutiéndolos en varias listas de correo electrónico diferentes. No tengo tiempo en este momento para profundizar en los detalles, pero quería publicar algo.

EFF escribe:

Hay dos características principales que la compañía planea instalar en todos los dispositivos Apple. Una es una función de escaneo que escaneará todas las fotos a medida que se cargan en iCloud Pictures para ver si coinciden con una foto en la base de datos de content conocido de abuso sexual infantil (CSAM) que mantiene el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). La otra función escanea todas las imágenes de iMessage enviadas o recibidas por cuentas de niños, es decir, cuentas designadas como propiedad de un menor, en busca de materials sexualmente explícito y, si el niño es lo suficientemente pequeño, notifica a los padres cuando estas imágenes se envían o reciben. Los padres pueden activar o desactivar esta función.

Esto es bastante impactante viniendo de Apple, que generalmente es muy bueno en cuanto a privacidad. Abre la puerta a todo tipo de vigilancia, ya que ahora que el sistema está construido, se puede utilizar para todo tipo de otros mensajes. Y rompe el cifrado de un extremo a otro, a pesar de que Apple negaciones:

¿Esto rompe el cifrado de un extremo a otro en los mensajes?

No. Esto no cambia las garantías de privacidad de Mensajes y Apple nunca obtiene acceso a las comunicaciones como resultado de esta función. Cualquier usuario de Mensajes, incluidos aquellos con la seguridad de comunicación habilitada, retiene el command sobre lo que se envía y a quién. Si la función está habilitada para la cuenta del niño, el dispositivo evaluará las imágenes en Mensajes y presentará una intervención si se determina que la imagen es sexualmente explícita. Para las cuentas de niños menores de 12 años, los padres pueden configurar notificaciones parentales que se enviarán si el niño confirma y envía o ve una imagen que se ha determinado que es sexualmente explícita. Ninguna de las comunicaciones, evaluación de imágenes, intervenciones o notificaciones están disponibles para Apple.

Observe que Apple cambia la definición de «cifrado de un extremo a otro». El mensaje ya no es una comunicación privada entre el remitente y el receptor. Se alerta a un tercero si el mensaje cumple con ciertos criterios.

Este es un desastre de seguridad. Leer tweets por Matthew Green y Edward Snowden. También esta. Publicaré más cuando lo vea.

Cuidado con los cuatro jinetes del Apocalipsis de la información. Te asustarán para que aceptes todo tipo de sistemas inseguros.

Publicado el 10 de agosto de 2021 a las 6:37 a. M. •
22 comentarios





Enlace a la noticia authentic