Maandag 29/11/2021

Voor u uitgelegdPrivacy

Apple gaat apparaten van gebruikers scannen op foto’s van kindermisbruik. Maar wat met de privacy?

null Beeld AFP
Beeld AFP

Apple gaat de verspreiding van kinderporno aanpakken door afbeeldingen op de apparaten van gebruikers te analyseren. Critici vinden dat Apple hiermee veel te ver gaat en de privacy van zijn gebruikers verkwanselt.

Wat is er aan de hand?

Apple brengt later dit jaar software-updates uit (voor iPhones, iPads, horloges en computers) die zijn bedoeld om kinderen beter te beschermen. Zo kunnen – als ouders dat zo hebben ingesteld – kinderen een waarschuwing krijgen als ze via iMessage naaktbeelden krijgen toegestuurd. De software vervaagt die afbeeldingen dan.

Een andere ingreep is dat Apple in actie komt op het moment dat gebruikers via Search of spraakassistent Siri zoeken naar materiaal met kindermisbruik. Apple zal ze dan uitleggen dat interesse in dergelijk materiaal schadelijk en problematisch is.

De derde maatregel is verreweg het meest controversieel. De software gaat namelijk controleren of gebruikers afbeeldingen op hun apparaten hebben van (seksueel) kindermisbruik.

Apple gaat zijn gebruikers waarschuwen als ze zoeken naar illegaal materiaal. Beeld Apple
Apple gaat zijn gebruikers waarschuwen als ze zoeken naar illegaal materiaal.Beeld Apple

Hoe gaat Apple dat doen?

De fabrikant maakt gebruik van een bestaande database met 200.000 afbeeldingen van seksueel kindermisbruik. Die is afkomstig van het het National Center for Missing and Exploited Children (NCMEC) in de VS. Al deze afbeeldingen zijn gekoppeld aan een zogenoemde hash. Dit is een unieke code, een soort DNA van een foto. Vervolgens analyseert Apple ook alle afbeeldingen op de apparaten van zijn gebruikers voordat ze worden geüpload naar de online cloudopslag waar Apple-gebruikers de beschikking over hebben, de iCloud.

Zodra er een match is tussen de hashes gaan de alarmbellen af. Op dat moment denkt Apple tenslotte op illegaal materiaal te zijn gestuit. De vervolgstap: menselijke medewerkers van Apple nemen een kijkje op het iCloud-account van de verdachte gebruiker. Foto’s en video’s die hierin worden opgeslagen, zijn weliswaar versleuteld, maar anders dan bij bijvoorbeeld WhatsApp is dit geen end-to-endencryptie. Dat betekent dat Apple er gewoon bij kan. In dit soort gevallen zegt het bedrijf dit ook te gaan doen. Als de medewerker net als het systeem ziet dat het inderdaad foute boel is, krijgt de NCMEC een melding en wordt het iCloud-account van de Apple-gebruiker onklaar gemaakt. Deze kan wel in beroep tegen deze maatregel.

Maar Apple was toch altijd voor privacy?

Apple profileert zich de afgelopen jaren steeds nadrukkelijker ten opzichte van Facebook en Google als hoeder van de privacy van zijn gebruikers. Met de nieuwe maatregelen tracht de fabrikant behoedzaam te balanceren op het dunne koord tussen de druk van buitenaf om illegaal materiaal aan te pakken en de privacy van zijn gebruikers. Apple benadrukt in de uitleg van het nieuwe systeem dan ook de “grote privacyvoordelen” ten opzichte van andere methodes. Zo doet Microsoft al jarenlang iets vergelijkbaars, maar hier vindt de analyse van de foto’s direct in de cloud plaats. Bij Apple is er een tussenstap. Toch heeft de aankondiging direct tot scherpe kritiek geleid. “Apple doet afstand van privacy en maakt 1984 mogelijk”, zo stelt privacy-activist en beveiligingsonderzoeker Alec Muffett bijvoorbeeld in The Financial Times.

Ook Jaap-Henk Hoepman, universitair hoofddocent privacy aan de Radboud Universiteit en de Rijksuniversiteit Groningen in Nederland, is bijzonder kritisch. “Dit is een heel grote stap die ik niet had verwacht. Hiermee trekt Apple de Rubicon over”, zegt Hoepman aan de Volkskrant. Hoepman ziet verschillende problemen, te beginnen met de definitie van kinderporno, die per land kan verschillen. Maar ook: “Wat gebeurt er als iemand jou via WhatsApp, om wat voor reden dan ook, een dubieuze afbeelding stuurt? Als je dat zo hebt ingesteld, worden alle WhatsApp-afbeeldingen automatisch op een toestel opgeslagen. Zonder dat je het doorhebt, kunnen de alarmbellen al afgaan en ben je verdacht.”

Blijft het bij kinderporno?

Voorlopig gaat het alleen om afbeeldingen van seksueel kindermisbruik, maar voor Hoepman en andere critici lijdt het geen twijfel dat het systeem geleidelijk steeds breder zal worden ingezet. “Het hek is van de dam”, twitterde Matthew Green, hoogleraar security aan de Johns Hopkins University, al. Hij vreest dat regeringen overal ter wereld likkebaardend naar de nieuwe mogelijkheden voor overheidssurveillance zullen kijken.

Dat denkt Hoepman ook: “Het is een glijdende schaal. Je kunt uittekenen wat er gebeurt. Nu is het kinderporno, straks gaat het ook om afbeeldingen van onthoofdingen. Je kunt niet meer terug.” Ook verwacht hij dat de druk op andere techbedrijven erg groot wordt om hetzelfde te doen, nu zelfs Apple is gezwicht. “Aan alle kanten staat de privacy van gebruikers onder druk”, ziet Hoepman.

Wat betekent dit voor Belgen?

Apple benadrukt in zijn uitleg dat zijn nieuwe systeem vooralsnog alleen de apparaten van Amerikaanse gebruikers gaat scannen. Maar ook hier is Hoepman niet gerust op. “Dit zegt mij helemaal niets. Het geeft aan dat dit technisch overal mogelijk zal worden. En wat gebeurt er als ik van een Amerikaanse gebruiker een bericht met een afbeelding krijg dat niet door de beugel kan? Krijg ik dan ook niet een vinkje?”

Meer over

Nu belangrijker dan ooit: steun kwaliteitsjournalistiek.

Neem een abonnement op De Morgen


Op alle artikelen, foto's en video's op demorgen.be rust auteursrecht. Deeplinken kan, maar dan zonder dat onze content in een nieuw frame op uw website verschijnt. Graag enkel de titel van onze website en de titel van het artikel vermelden in de link. Indien u teksten, foto's of video's op een andere manier wenst over te nemen, mail dan naar info@demorgen.be.
DPG Media nv – Mediaplein 1, 2018 Antwerpen – RPR Antwerpen nr. 0432.306.234