Noticias, Gadgets, Android, Móviles, Descargas de Aplicaciones

¿Son realmente seguras las nuevas y controvertidas funciones de protección infantil de Apple?

Hace un par de semanas, Apple anunció sus planes de comenzar a escanear los teléfonos de los usuarios en un esfuerzo por combatir el material de abuso sexual infantil (CSAM). Si bien muchas personas han elogiado la nueva política, hay quienes creen que las nuevas políticas podrían abrir una “puerta trasera” que podría amenazar la privacidad del usuario.

Apple es una empresa que siempre ha tenido en muy alta estima la privacidad de sus usuarios. Sus recientes actualizaciones de la política de privacidad han sido elogiadas por los defensores de la privacidad en todas partes (mientras que al mismo tiempo irrita a Mark Zuckerberg en Facebook).

Pero esta nueva política hace que algunas personas se pregunten si los esfuerzos de Apple para combatir la explotación sexual infantil son seguros o no. Para desarrollar esta conversación, echemos un vistazo a exactamente lo que harán las nuevas políticas.

Nuevas políticas de protección infantil de Apple

Las nuevas políticas anunciadas a principios de este mes se resumen en tres categorías básicas. El primero es relativamente sencillo y no controvertido. Apple dirigirá ahora los temas de búsqueda relacionados con CSAM a recursos para informar a las fuerzas del orden u obtener otros tipos de ayuda.

La controversia radica en las siguientes dos características. Primero, Apple agregará un control parental que escanea Mensajes en busca de CSAM. Puede bloquear este contenido para usuarios menores de 18 años e incluso informarlo a los padres de usuarios menores de 13 años.

La última actualización incluye Fotos de iCloud. Apple dijo que también comenzará a escanear fotos que los usuarios sincronizan con iCloud para CSAM. Si la empresa encuentra suficientes coincidencias de CSAM de un usuario, enviará esas fotos a un moderador de Apple, quien luego podrá notificar al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).

Apple se ha asegurado de mantener la privacidad del usuario como una alta prioridad al diseñar estas funciones, pero hay algunos que no están de acuerdo. Entonces, ¿por qué a la gente le preocupan estas nuevas funciones?

¿Por qué algunas personas están preocupadas por las nuevas funciones de Apple?

ios apple iphone mostrando aplicaciones y conexión wifi

Imagen: Unsplash

La característica que parece ser la más controvertida hasta ahora es el escaneo de las fotos de iCloud de los usuarios, pero llegaremos a eso en solo un minuto. Primero, echemos un vistazo a la nueva función de Mensajes. Con esta nueva función, Apple les da a los padres más control, notificándoles si un usuario menor de 13 años ha recibido (y visto) imágenes que contienen CSAM.

La única preocupación real que ha surgido de esta función es que les da a los padres más capacidad para espiar a sus hijos. Algunas personas creen que esto podría dañar a los niños, al revelar a los niños queer y transgénero a sus padres entrometidos.

La mayor parte de la preocupación con respecto a estas nuevas políticas tiene que ver con la nueva función de escaneo de fotos de Apple. Para los usuarios de iOS o iPadOS de EE. UU., Apple pronto comenzará a escanear sus fotos cada vez que las sincronice con iCloud. Apple no es la única empresa que escanea fotos de usuarios para CSAM. Muchas plataformas escanean en busca de CSAM, pero la diferencia es dónde se realiza el escaneado.

¿Cómo funciona el nuevo escaneo CSAM de la empresa?

La mayoría de las plataformas escanean el contenido que se carga en sus servidores. En el caso de Apple, el escaneo se realizará de forma local, en su dispositivo. Lo sé, es un poco confuso, así que déjeme aclararlo. Siempre que sincronices tus fotos con Fotos de iCloud, Apple escaneará tu dispositivo en busca de fotos con CSAM. Luego, los moderadores de Apple reciben una alerta cuando se encuentran varias coincidencias de CSAM en su dispositivo, y tienen la capacidad de alertar a las autoridades correspondientes en el NCMEC.

Las preocupaciones con estas nuevas políticas radican principalmente en el hecho de que Apple ahora escaneará su teléfono localmente, en lugar de escanear sus servidores en la nube, para intentar encontrar CSAM. Un crítico de la nueva política, Ben Thompson, escribió esto en Stratechery:

“En lugar de agregar el escaneo CSAM a iCloud Photos en la nube que poseen y operan, Apple está comprometiendo el teléfono que usted y yo poseemos y operamos, sin que ninguno de nosotros tenga voz al respecto. Sí, puede desactivar Fotos de iCloud para desactivar el escaneo de Apple, pero esa es una decisión política; ahora existe la capacidad de acceder al teléfono de un usuario, y no hay nada que un usuario de iPhone pueda hacer para deshacerse de ella “.

El problema es que Apple ahora ha sentado un precedente que le permite ver los datos de los usuarios en sus teléfonos en lugar de en los servidores de la empresa. Aunque Apple dice que solo está escaneando las fotos que los usuarios están sincronizando con iCloud, el hecho es que la compañía pronto comenzará a escanear los dispositivos de los usuarios cada vez que utilicen el servicio iCloud.

Apple está luchando contra estas preocupaciones

iphone en la mesa

Imagen: Unsplash

A pesar de las crecientes preocupaciones sobre sus nuevas políticas, Apple se mantiene firme y trata de garantizar a los usuarios que su privacidad permanecerá intacta una vez que se hayan implementado las políticas. La compañía publicó un documento de preguntas frecuentes sobre las preocupaciones que la gente tiene sobre los cambios.

En el documento, Apple asegura a los usuarios que el cifrado de extremo a extremo de Mensajes no se verá afectado por estos cambios y que “nunca obtiene acceso a las comunicaciones como resultado de esta función en Mensajes”. Además, el documento de preguntas frecuentes amplió el escaneo de fotos de iCloud, reiterando que, aunque los escaneos se realizan localmente, solo se escanean las imágenes que se comparten con iCloud. Aún se cuestiona por qué este escaneo ocurre localmente en lugar de después de que se haya completado el intercambio.

La compañía también abordó las preocupaciones de que estas nuevas políticas podrían ser utilizadas por países que buscan infringir los derechos de los usuarios de Apple al profundizar en el contenido de su dispositivo. Apple confirmó que rechazaría cualquier solicitud de esta naturaleza, diciendo lo siguiente:

“Hemos enfrentado demandas para construir e implementar cambios exigidos por el gobierno que degradan la privacidad de los usuarios antes, y hemos rechazado firmemente esas demandas. Continuaremos rechazándolos en el futuro. Seamos claros, esta tecnología se limita a detectar CSAM almacenado en iCloud y no accederemos a la solicitud de ningún gobierno para expandirla ”.

Independientemente de las preocupaciones que hayan surgido hasta ahora, Apple no se ha retirado de estas nuevas funciones. Las tres actualizaciones de protección infantil llegarán a finales de este año en actualizaciones para iOS 15, iPadOS 15, watchOS 8 y macOS Monterey.

Por lo que he visto hasta ahora, estos cambios parecen bastante buenos. CSAM es absolutamente repugnante, y es bueno ver que Apple está siendo proactivo al tratar de eliminarlo de sus plataformas tanto como sea posible, sin dañar la seguridad del usuario. Parece que los pasos que ha tomado la empresa para proteger la privacidad son suficientes, pero tendremos que esperar y ver si ese sigue siendo el caso después de que se implementen.

¿Tienes alguna idea sobre esto? Háganos saber más abajo en los comentarios o lleve la discusión a nuestro Twitter o Facebook.