iPhone-scan: Apple verwijdert alle CSAM-gerelateerde vermeldingen van zijn website

Het is naar eigen goeddunken dat Apple zojuist zijn website heeft bijgewerkt, waarbij alle verwijzingen naar CSAM zijn verwijderd.wat de controverse rond de geplande maatregelen zou bevestigen.

Deze zomer presenteerde Cupertino Nieuwe functies ontworpen om kinderen te beschermen en allerlei vormen van misbruik of aanvallen door seksuele roofdieren te voorkomen. (Materiaal seksueel misbruik van kinderen -CSAM). Over het algemeen zijn dit functies op hun platforms die bedoeld zijn om kinderen te beschermen, waaronder een systeem dat kinderpornografie op iCloud kan detecteren met behoud van de privacy van de gebruiker. Deze omvatten drie gebieden: iMessage, Siri, iCloud.

Vanaf dit jaar (met iOS 15 en iPadOS 15), Apple zou naar verluidt afbeeldingen kunnen detecteren met kenmerken van seksueel misbruik van kinderen die zijn opgeslagen in iCloud-foto’swaardoor deze gevallen kunnen worden gemeld aan het National Center for Missing & Exploited Children (NCMEC), een non-profitorganisatie die samenwerkt met Amerikaanse wetshandhavingsinstanties. drong aan op over het feit dat de analyse alleen zal worden uitgevoerd op foto’s die zijn opgeslagen in iCloud en niet op de iPhone.

  

Apple ging door met het implementeren van communicatiebeveiligingsfuncties voor Berichten, die eerder deze week live ging met de release van iOS 15.2. Apple heeft echter besloten vertragen inzet na felle kritiek.

0 Shares:
You May Also Like