Noticias, Gadgets, Android, Móviles, Descargas de Aplicaciones

Escaneo de iPhone: Apple elimina todas las menciones relacionadas con CSAM de su sitio web

Queda a su entera discreción que Apple acaba de actualizar su sitio web, eliminando todas las referencias a CSAM., lo que confirmaría la polémica en torno a las medidas previstas.

Este verano, Cupertino había presentado Nuevas funciones diseñadas para proteger a los niños y prevenir todo tipo de abusos o ataques por parte de depredadores sexuales. (Material de Abuso Sexual Infantil -CSAM). En general, estas son funciones en sus plataformas destinadas a proteger a los niños, incluido un sistema capaz de detectar pornografía infantil en iCloud mientras se mantiene la privacidad del usuario. Estos incluían tres áreas: iMessage, Siri, iCloud.

Ilustración: Escaneo del iPhone: Apple elimina todas las referencias a CSAM de su sitio web

A partir de este año (con iOS 15 y iPadOS 15), Según los informes, Apple pudo detectar imágenes que contienen características de abuso sexual infantil almacenadas en Fotos en iCloud, lo que permitiría informar estos casos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), una organización sin fines de lucro que trabaja en conjunto con las agencias de aplicación de la ley de EE. UU. Además, la firma californiana insistió sobre el hecho de que el análisis se hará solo en las fotos almacenadas en iCloud y no en el iPhone.

Apple continuó implementando funciones de seguridad de las comunicaciones para Mensajes, que se puso en marcha a principios de esta semana con el lanzamiento de iOS 15.2. Sin embargo, Apple ha decidido retrasar despliegue tras fuertes críticas.