Noticias, Gadgets, Android, Móviles, Descargas de Aplicaciones

Explicado: Cómo funciona el nuevo software de seguridad infantil de Apple y por qué es …

Las nuevas herramientas de seguridad infantil de Apple, que al principio parecían una muy buena idea, han creado bastante ruido en el mundo de la tecnología durante la semana pasada. La compañía anunció la función el 6 de agosto y solo se aplica a los Estados Unidos (EE. UU.) En este momento, pero es una actualización a nivel de plataforma, lo que significa que será parte de iOS, macOS, watchOS y iPadOS, y podría llegar a todos los países. en el que opera Apple. Por supuesto, si la empresa puede habilitar la función en un país dependerá de si las leyes de ese país permiten tales funciones. Pero antes de llegar a todo eso …

¿Como funciona?

El material de abuso sexual infantil, o MASI, es un problema que es casi tan antiguo como la propia Internet. Los gobiernos de todo el mundo han querido abordar esto y lo han logrado hasta cierto punto. Pero aún permanece. Entonces, Apple está agregando nuevos algoritmos a sus plataformas, que escanearán imágenes en iPhones, iPads, Macs, Apple Watches, iMessage y en iCloud para detectar aquellas que caen en la categoría CSAM. Los usuarios infractores eventualmente serán denunciados a las autoridades.

“La detección de CSAM permite a Apple identificar e informar con precisión a los usuarios de iCloud que almacenan Material de abuso sexual infantil (CSAM) conocido en sus cuentas de Fotos de iCloud. Los servidores de Apple marcan las cuentas que superan un número umbral de imágenes que coinciden con una base de datos conocida de hashes de imágenes CSAM para que Apple pueda proporcionar información relevante al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) ”, dijo la compañía en un documento técnico.

Además, Apple afirmó que el riesgo de que el sistema marcara una cuenta incorrectamente era “extremadamente bajo”. “El umbral se selecciona para proporcionar una probabilidad extremadamente baja (1 en 1 billón) de marcar incorrectamente una cuenta determinada”, dice el documento.

Además, Apple también ha dicho que tendrá en cuenta la privacidad del usuario. Lo que significa que la empresa no podrá acceder a ninguna de sus imágenes. Básicamente, el sistema compara las imágenes de sus dispositivos e iCloud con una base de datos preseleccionada de imágenes CSAM. Adjunta una firma criptográfica a cada imagen de su dispositivo, y las imágenes que coinciden con la base de datos se identifican por su firma. Se realizará una revisión humana en caso de que una imagen coincida y se informe al usuario.

En lo que respecta a la privacidad del usuario, Apple es quizás la más confiable entre todas las firmas de Big Tech del mundo. Sin embargo, el hecho es que este sistema estará integrado en sus dispositivos y escaneará todas y cada una de las imágenes de su dispositivo, independientemente de lo que sean. Los usuarios no sabrán qué imágenes hay en la base de datos de CSAM y tampoco sabrán cuándo se encuentra que una imagen es ofensiva.

“Hay dos características principales que la compañía planea instalar en todos los dispositivos de Apple. Una es una función de escaneo que escaneará todas las fotos a medida que se cargan en Fotos de iCloud para ver si coinciden con una foto en la base de datos de material conocido de abuso sexual infantil (CSAM) que mantiene el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). La otra función escanea todas las imágenes de iMessage enviadas o recibidas por cuentas de niños, es decir, cuentas designadas como propiedad de un menor, en busca de material sexualmente explícito y, si el niño es lo suficientemente pequeño, notifica a los padres cuando se envían o reciben estas imágenes. Los padres pueden activar o desactivar esta función ”, escribió la Electronic Frontier Foundation (EFF) en un blog.

¿Por qué es esto un problema de privacidad?

Como señaló el blog de EFF, los nuevos sistemas de Apple pueden tener el objetivo final correcto, pero esencialmente equivalen a una puerta trasera a las plataformas de la compañía, algo que las fuerzas del orden y los gobiernos han querido durante años.

“Lo dijimos antes, y lo diremos de nuevo ahora: es imposible construir un sistema de escaneo del lado del cliente que solo pueda usarse para imágenes sexualmente explícitas enviadas o recibidas por niños. Como consecuencia, incluso un esfuerzo bien intencionado para construir un sistema de este tipo romperá las promesas clave del cifrado del mensajero y abrirá la puerta a abusos más amplios ”, dijo el grupo de defensa de la privacidad en el blog vinculado anteriormente.

Además, el director ejecutivo (CEO) de WhatsApp, Will Cathcart, señaló que los gobiernos podrían hacer un mal uso del sistema. “Este es un sistema de vigilancia construido y operado por Apple que podría usarse muy fácilmente para escanear contenido privado en busca de cualquier cosa que ellos o un gobierno decidan que quieren controlar. Los países donde se venden iPhones tendrán diferentes definiciones sobre lo que es aceptable ”, dijo Cathcart en un tuit.

Leí la información que Apple publicó ayer y estoy preocupado. Creo que este es un enfoque equivocado y un revés para la privacidad de las personas en todo el mundo.

La gente ha preguntado si adoptaremos este sistema para WhatsApp. La respuesta es no.

– Will Cathcart (@wcathcart) 6 de agosto de 2021

“En lugar de centrarse en facilitar que las personas informen sobre el contenido que se comparte con ellos, Apple ha creado un software que puede escanear todas las fotos privadas de su teléfono, incluso las fotos que no ha compartido con nadie. Eso no es privacidad ”, agregó.

Se podría argumentar que Cathcart, al ser parte de la maquinaria de Facebook, no es la persona adecuada para hablar sobre privacidad, pero el nuevo sistema de Apple también ha sido criticado por el denunciante Edward Snowden, políticos, activistas, académicos y más.

Gracias por leer hasta el final de este artículo. Para obtener más contenido tecnológico informativo y exclusivo, como nuestra página de Facebook

Tabla de Contenido