Noticias, Gadgets, Android, Móviles, Descargas de Aplicaciones

Protección infantil: el sistema CSAM se divide, Apple publica preguntas frecuentes [sondage]

El nuevo programa de protección infantil, en particular el sistema de análisis de fotografías de carácter pedófilo, no parece ser unánime. Más allá del propósito de las medidas, son los procedimientos establecidos los que se oponen a dos bandos: los que apoyan la lucha contra la pornografía infantil por todos los medios y los que consideran que existe un riesgo demasiado grande en términos de pornografía infantil. .

Ilustración: Protección infantil: el sistema CSAM se divide, Apple publica preguntas frecuentes [sondage]

Este fin de semana, Varios CEO también se han pronunciado en contra de estas funciones futuras de iOS 15, denunciando una vulneración manifiestamente desproporcionada de las libertades individuales o temiendo una posible deriva (monitorear personas, introducir una puerta trasera, secuestrar el sistema, etc.). Entre ellos encontramos Will cathcart (WhatsApp), que está dando un paso al frente en Twitter, especificando que tal sistema nunca se implementará en la plataforma. O Tim Sweeney (Epic Games) cuya lucha contra Cupertino no se presentará.

También se publicó en línea una carta abierta, pidiendo a Apple que no despliegue sus nuevas herramientas de seguridad, con signatarios más o menos conocidos, como Edward Snowden o Matthew Green (quien dio a conocer el proyecto el jueves por la mañana).

En respuesta, Apple acaba de publicar una pregunta frecuente llamada Protecciones extendidas para niños, que tiene como objetivo disipar las preocupaciones de los usuarios sobre la privacidad y calmar las disputas. Ante la escala de los debates, la firma escuchó recordó que las funciones presentadas (el escaneo CSAM, el filtro de iMessage o el de Siri) son diferentes y no se superponen. Desde que anunciamos estas características, muchas partes interesadas, incluidas las organizaciones de privacidad y seguridad infantil, han expresado su apoyo a esta nueva solución y algunas han hecho preguntas. Este documento sirve para dar respuesta a estas preguntas y brindar más claridad y transparencia en el proceso.

Recordemos que El jueves por la noche, Apple anunció el despliegue de nuevas funciones destinadas a proteger a los niños y prevenir todo tipo de abusos o ataques por parte de depredadores sexuales.. El primero se refiere al mecanismo CSAM (para material de abuso sexual infantil, es decir, la capacidad de detectar contenido pedófilo), que por el momento solo se aplicará a los iPhones y iPads estadounidenses, con iCloud Photo activado.

Este último utiliza algoritmos muy específicos acoplados a una base de datos de hashes identificado como contenido pedófilo. Realizarán una comparación directamente en el dispositivo con las fotos del usuario y las marcará cuando las cargue en iCloud Photos.

Si la coincidencia tiene éxito, la foto recibirá un marcador específico. Después de un número determinado de veces, un equipo humano comprobará y aplicará un procedimiento específico, que implica la desactivación de la cuenta y la información de un Centro autorizado. Recordemos que Cupertino no menciona nada sobre un despliegue fuera de EE. UU.. Pero este nunca podría ser el caso dado el número de dispositivos en cuestión o simplemente las diferencias en la legislación de los países.