Zijn de controversiële nieuwe kinderbeschermingsfuncties van Apple echt veilig?

Een paar weken geleden kondigde Apple zijn plannen aan om de telefoons van gebruikers te gaan scannen in een poging om materiaal voor seksueel misbruik van kinderen (CSAM) te bestrijden. Hoewel veel mensen het nieuwe beleid hebben geprezen, zijn er mensen die geloven dat het nieuwe beleid een “achterdeur” zou kunnen openen die de privacy van gebruikers zou kunnen bedreigen.

Apple is een bedrijf dat de privacy van zijn gebruikers altijd zeer hoog heeft gehouden. De recente updates van het privacybeleid zijn overal geprezen door privacyadvocaten (terwijl ze Mark Zuckerberg op Facebook irriteren).

Maar door dit nieuwe beleid vragen sommige mensen zich af of de inspanningen van Apple om seksuele uitbuiting van kinderen te bestrijden wel of niet veilig zijn. Laten we, om voort te bouwen op dit gesprek, eens kijken naar wat het nieuwe beleid precies zal doen.

  

Het nieuwe kinderbeschermingsbeleid van Apple

Het nieuwe beleid dat eerder deze maand werd aangekondigd, valt uiteen in drie basiscategorieën. De eerste is relatief eenvoudig en niet controversieel. Apple zal nu CSAM-gerelateerde zoekonderwerpen doorverwijzen naar bronnen voor rapportage aan wetshandhavers of andere hulp.

De controverse ligt in de volgende twee kenmerken. Ten eerste zal Apple een ouderlijk toezicht toevoegen dat berichten scant op CSAM. U kunt deze inhoud blokkeren voor gebruikers onder de 18 jaar en zelfs melden aan ouders van gebruikers onder de 13 jaar.

De nieuwste update bevat iCloud-foto’s. Apple zei dat het ook foto’s gaat scannen die gebruikers synchroniseren met iCloud voor CSAM. Als het bedrijf genoeg CSAM-matches van een gebruiker vindt, stuurt het die foto’s naar een Apple-moderator, die vervolgens het National Center for Missing & Exploited Children (NCMEC) op de hoogte kan stellen.

Apple heeft ervoor gezorgd dat de privacy van gebruikers een hoge prioriteit heeft bij het ontwerpen van deze functies, maar er zijn er die het daar niet mee eens zijn. Dus waarom maken mensen zich zorgen over deze nieuwe functies?

Waarom maken sommige mensen zich zorgen over de nieuwe functies van Apple?

ios apple iphone met apps en wifi-verbinding

Afbeelding: Unsplash

De functie die tot nu toe de meest controversiële lijkt te zijn, is het scannen van iCloud-foto’s van gebruikers, maar daar komen we zo op terug. Laten we eerst eens kijken naar de nieuwe functie Berichten. Met deze nieuwe functie geeft Apple ouders meer controle door hen op de hoogte te stellen als een gebruiker jonger dan 13 jaar afbeeldingen met CSAM heeft ontvangen (en bekeken).

De enige echte zorg die uit deze functie is voortgekomen, is dat het ouders meer mogelijkheden geeft om hun kinderen te bespioneren. Sommige mensen geloven dat dit kinderen kan schaden, door queer en transgender kinderen aan hun nieuwsgierige ouders te onthullen.

De meeste zorgen over dit nieuwe beleid hebben te maken met de nieuwe functie voor het scannen van foto’s van Apple. Voor Amerikaanse iOS- of iPadOS-gebruikers zal Apple binnenkort beginnen met het scannen van uw foto’s elke keer dat u ze synchroniseert met iCloud. Apple is niet het enige bedrijf dat gebruikersfoto’s scant op CSAM. Veel platforms scannen op CSAM, maar het verschil is waar de scan plaatsvindt.

Hoe werkt de nieuwe CSAM-scan van het bedrijf?

De meeste platforms scannen de inhoud die naar hun servers wordt geüpload. Voor Apple wordt de scan lokaal op uw apparaat uitgevoerd. Ik weet het, het is een beetje verwarrend, dus laat me het ophelderen. Telkens wanneer u uw foto’s synchroniseert met iCloud-foto’s, scant Apple uw apparaat op foto’s met CSAM. Apple-moderators worden vervolgens gewaarschuwd wanneer er meerdere CSAM-overeenkomsten op uw apparaat worden gevonden en kunnen de juiste autoriteiten bij NCMEC waarschuwen.

De zorgen over dit nieuwe beleid komen voornamelijk voort uit het feit dat Apple je telefoon nu lokaal scant in plaats van de cloudservers te scannen om CSAM’s te vinden. Een criticus van het nieuwe beleid, Ben Thompson, schreef dit in Stratechery:

“In plaats van CSAM-scanning toe te voegen aan iCloud-foto’s in de cloud die ze bezitten en beheren, compromitteert Apple de telefoon die jij en ik bezitten en gebruiken, zonder dat we daar iets over te zeggen hebben. Ja, je kunt iCloud-foto’s uitschakelen om Apple-scanning uit te schakelen, maar dat is een politieke beslissing; nu is er de mogelijkheid om toegang te krijgen tot de telefoon van een gebruiker, en er is niets dat een iPhone-gebruiker kan doen om er vanaf te komen.”

Het probleem is dat Apple nu een precedent heeft geschapen waardoor het de gegevens van gebruikers op hun telefoons kan zien in plaats van op de servers van het bedrijf. Hoewel Apple zegt dat het alleen de foto’s scant die gebruikers synchroniseren met iCloud, is het een feit dat het bedrijf binnenkort begint met het scannen van de apparaten van gebruikers elke keer dat ze de iCloud-service gebruiken.

Apple bestrijdt deze zorgen

iphone op tafel

Afbeelding: Unsplash

Ondanks de groeiende bezorgdheid over het nieuwe beleid, houdt Apple stand en probeert het gebruikers te verzekeren dat hun privacy intact blijft zodra het beleid van kracht is. Het bedrijf plaatste een FAQ-document over zorgen die mensen hebben over de veranderingen.

In het document verzekert Apple gebruikers dat de end-to-end-codering van Berichten niet wordt beïnvloed door deze wijzigingen en dat “u nooit toegang krijgt tot communicatie als gevolg van deze functie in Berichten.” Bovendien breidde het FAQ-document zich uit over het scannen van iCloud-foto’s, waarbij herhaald wordt dat hoewel scans lokaal worden uitgevoerd, alleen afbeeldingen die met iCloud worden gedeeld, worden gescand. Waarom dit scannen lokaal gebeurt in plaats van nadat de swap is voltooid, is nog steeds de vraag.

Het bedrijf ging ook in op de bezorgdheid dat dit nieuwe beleid zou kunnen worden gebruikt door landen die inbreuk willen maken op de rechten van Apple-gebruikers door zich te verdiepen in de inhoud op hun apparaat. Apple bevestigde dat het elk verzoek van deze aard zou afwijzen en zei het volgende:

“We hebben eerder te maken gehad met eisen om door de overheid opgelegde wijzigingen te bouwen en te implementeren die de privacy van gebruikers aantasten, en we hebben die eisen resoluut afgewezen. We zullen ze in de toekomst blijven weigeren. Laten we duidelijk zijn, deze technologie is beperkt tot het detecteren van CSAM opgeslagen in iCloud en we zullen niet ingaan op het verzoek van een regering om het uit te breiden.”

Welke zorgen er tot nu toe ook zijn geuit, Apple heeft zich niet teruggetrokken voor deze nieuwe functies. De drie kinderbeveiligingsupdates komen later dit jaar in updates voor iOS 15, iPadOS 15, watchOS 8 en macOS Monterey.

Van wat ik tot nu toe heb gezien, zien deze veranderingen er redelijk goed uit. CSAM is absoluut walgelijk en het is goed om te zien dat Apple proactief probeert om het zo veel mogelijk van hun platforms te verwijderen, zonder de gebruikersveiligheid in gevaar te brengen. Het klinkt alsof de stappen die het bedrijf heeft genomen om de privacy te beschermen voldoende zijn, maar we zullen moeten afwachten of dat nog steeds het geval is nadat ze zijn geïmplementeerd.

Heb je hier enig idee van? Laat het ons hieronder weten in de comments of neem de discussie mee naar onze Twitter of Facebook.

0 Shares:
You May Also Like