Noticias, Gadgets, Android, Móviles, Descargas de Aplicaciones

Tu iPhone pronto tendrá una función que escanea automáticamente tus fotos en busca de abuso infantil

Según los informes, su iPhone está a punto de obtener una nueva herramienta en la lucha contra CSAM (Material de abuso sexual infantil), en un escáner que buscará imágenes de abuso infantil y le informará si encuentra alguna coincidencia. Podría ser una herramienta poderosa para combatir el abuso, pero a los expertos en seguridad les preocupa que los gobiernos autoritarios puedan apropiarse fácilmente de ella.

Es la primera vez que Apple decide introducir una herramienta de escaneo para todo el sistema en iOS. Sin embargo, esa no es la única vez que han tomado una postura contra el material de abuso sexual infantil, ya que las aplicaciones individuales han sido retiradas de la App Store por preocupaciones similares.

La herramienta está pensada para ser del lado del cliente en el momento del lanzamiento, es decir, la detección se realiza en el iPhone o iPad. No es exagerado imaginar el flujo de datos desde el dispositivo y hacia un servidor remoto a medida que la herramienta se expande, lo que podría dar lugar a algunas implicaciones de privacidad complicadas. ¿El más atroz? La posibilidad de escanear mensajes enviados por clientes de mensajería cifrada de extremo a extremo como iMessage o Telegram.

Varias personas me han confirmado de forma independiente que Apple lanzará mañana una herramienta del lado del cliente para el escaneo CSAM. Esta es una muy mala idea.

– Matthew Green (@matthew_d_green) 4 de agosto de 2021

“Este tipo de herramienta puede ser de gran ayuda para encontrar pornografía infantil en los teléfonos de las personas”, dice Matthew Green, profesor asociado del Instituto de Seguridad de la Información Johns Hopkins. “¿Pero imagina lo que podría hacer en manos de un gobierno autoritario?” mientras se vincula a una historia de The New York Times sobre cómo operar en China significa que Apple tuvo que comprometer sus propios protocolos de seguridad.

El otro problema es que los hashes de imagen utilizados por la herramienta no son completamente únicos. Usando IA, es posible generar otras imágenes que activarán la herramienta, por lo que las imágenes benignas podrían confundirse con CSAM.

AppleInsider dice que Apple aún no ha confirmado esta nueva herramienta, con las únicas confirmaciones de las fuentes de Matthew Green.

¿Tienes alguna idea sobre esto? Háganos saber más abajo en los comentarios o lleve la discusión a nuestro Twitter o Facebook.