Noticias, Gadgets, Android, Móviles, Descargas de Aplicaciones

¿Sabías que Apple ya está escaneando tu correo de iCloud en busca de fotos de abuso infantil?

Apple está a punto de comenzar a escanear fotos de iCloud para CSAM, atrayendo el fuego de los defensores de la privacidad y casi todos los demás. 9to5Mac ha confirmado que Apple ya ha estado escaneando algunos de sus productos en busca de CSAM, a saber, iCloud Mail.

El sitio notó algo mientras leía la cobertura de The Verge sobre la demanda de Epic Games vs Apple. Esa fue una declaración en una cadena de iMessage que involucra al jefe antifraude de Apple, Eric Friedman. Dijo: “Nosotros [Apple] son la mejor plataforma para distribuir pornografía infantil “. La directora de privacidad de Apple, Jane Horvath, también dijo algo muy similar a principios de 2020 en una conferencia tecnológica.

9to5Mac se preguntó cómo podría ser eso, ya que Apple ya dijo que no quería escanear iCloud, y iMessage está encriptado. Bueno, ahora lo sabemos. Nada de lo que se envía en iCloud Mail está encriptado, por lo que desde 2019, Apple ha escaneado de forma rutinaria el correo entrante y saliente en busca de CSAM.

Sí, Apple ha escaneado sus correos electrónicos si posee alguno de sus dispositivos o si usa iCloud Mail como su correo electrónico principal. De acuerdo con 9to5Mac, Apple también realiza un “escaneo limitado de otros datos”, pero no le dijo a la tienda qué era, aparte de decir que definitivamente no eran copias de seguridad de iCloud.

La cuestión es que la cantidad de informes de CSAM que la empresa hace cada año es de cientos, por lo que no es una gran cantidad (por no decir que no es una cantidad significativa, ya que la necesidad de hacer un informe es demasiada). La inferencia de Eric Friedman de que los productos de Apple están plagados de esto podría basarse en el hecho de que otras plataformas escanean regularmente todo en busca de CSAM y deshabilitan las cuentas en consecuencia.

Tal vez eso es lo que finalmente llevó al impulso para escanear fotos de iCloud, ya que Apple tiene que equilibrar la privacidad del usuario con sus obligaciones legales y la posible exposición al riesgo.

¿Tienes alguna idea sobre esto? Háganos saber más abajo en los comentarios o lleve la discusión a nuestro Twitter o Facebook.