Noticias, Gadgets, Android, Móviles, Descargas de Aplicaciones

¿La controvertida función de detección de fotos CSAM de Apple está muerta en el agua?

Hace unos meses, Apple anunció sus planes de agregar una nueva función a los iPhones que podría escanear los teléfonos de los usuarios y las bibliotecas de fotos de iCloud en busca de material de abuso sexual infantil (CSAM). Ahora, el sitio web de la compañía está completamente desprovisto de información sobre la función. Esto nos hace preguntarnos si la idea se ha descartado por completo.

Descubierto por primera vez por MacRumors, parece que Apple ha eliminado por completo cualquier material sobre su posible escaneo CSAM de la página de Protección infantil en su sitio web.

La compañía había retrasado previamente la función después de que grupos de privacidad se pronunciaron contra el posible riesgo de privacidad. Tanto los grupos de defensa como los usuarios argumentaron que una característica como esta podría abrir una “puerta trasera” para que los malos actores se aprovechen de ellos y causen daño a los clientes de Apple.

A pesar de este rechazo de casi todos, parece que Apple no se ha rendido del todo con la función. Un portavoz habló con The Verge sobre la nueva característica potencial después de que se supo que la información de CSAM se eliminó del sitio web.

El portavoz de Apple, Shane Bauer, dijo que la postura de la compañía sobre la función no ha cambiado desde su actualización en septiembre:

“Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica”. – Declaración de septiembre de Apple sobre su nueva función CSAM

Entonces, parece que Apple todavía está avanzando en esta nueva función. A pesar de los contratiempos de esta característica de seguridad infantil en particular, la compañía ha agregado un par de otras características destinadas a proteger a los niños en los dispositivos Apple.

¿La próxima función de detección de CSAM será un riesgo importante para la privacidad? Háganos saber lo que piensas.

¿Tienes alguna idea sobre esto? Háganos saber más abajo en los comentarios o lleve la discusión a nuestro Twitter o Facebook.