Apple neemt maatregelen om kinderen beter te beschermen

Apple gaat in iMessage, Siri en iCloud Foto's nieuwe maatregelen toevoegen om te zorgen dat kinderen veilig zijn. Het moet ze onder andere beschermen tegen aanstootgevend materiaal.
Gonny van der Zwaag | iCulture.nl - · Laatst bijgewerkt:

Update 3 september 2021: Apple stelt de CSAM-maatregelen een paar maanden uit na kritiek van beveiligingsexperts en feedback van gebruikers.

Bekijk ook
Apple stelt CSAM misbruikdetectie een paar maanden uit

Apple stelt CSAM misbruikdetectie een paar maanden uit

Apple zal de controversiële functionaliteit omtrent het detecteren van kindermisbruik uitstellen. De functie zou onderdeel worden van iOS 15, wat deze maand wordt verwacht.

Veiliger voor kinderen

Het gaat om drie functies die op verschillende plekken in iOS, iPadOS en macOS te vinden zijn. Zo komt er een nieuw systeem om materiaal met kindermisbruik te detecteren, iets waar we vandaag al eerder over schreven. Op dat moment ging het nog om geruchten, nu heeft Apple de volledige reeks maatregelen onthuld. Op deze pagina staan ze allemaal opgesomd.

Alle maatregelen die Apple aangekondigd heeft, worden in eerste instantie alleen in de VS ingevoerd. Mogelijk volgt later nog een verdere uitrol.

FAQ Apple's functies tegen kindermisbruik
In een uitgebreide FAQ hebben we de belangrijkste vragen over Apple’s nieuwe functies tegen kindermisbruik voor je beantwoord, inclusief de nodige kritiek op de nieuwe maatregelen. We bespreken daarin zowel hoe de nieuwe functie werkt als de mogelijke gevaren.

Bekijk ook
FAQ: Apple’s functies tegen kindermisbruik; privacygevaar of noodzakelijk kwaad?

FAQ: Apple’s functies tegen kindermisbruik; privacygevaar of noodzakelijk kwaad?

Apple kondigde een reeks maatregelen aan om kinderen te beschermen en verspreiding van kinderporno tegen te gaan. Zo gaat Apple foto’s van kindermisbruik detecteren in iCloud-foto’s van gebruikers. Maar het leidt tot veel vragen. Betekent dit dat Apple jouw complete bibliotheek gaat scannen? En wat betekent het voor je privacy?

#1 Apple gaat iCloud Foto’s scannen

Ze moeten voorkomen dat zogenaamd CSAM (Child Sexual Abuse Material) zich verspreidt. Kinderen brengen veel tijd online door en lopen daarbij risico’s om ongeschikt materiaal onder ogen te krijgen. Tegelijk lopen kinderen het risico dat ze zelf worden vastgelegd in schokkend beeldmateriaal. Alle drie functies zijn geoptimaliseerd voor privacy. Dat houdt in dat Apple wel informatie over criminele activiteiten kan doorgeven aan de activiteiten, maar dat de privacy van brave burgers niet in het geding is.

Het scannen van iCloud Foto’s is het belangrijkste onderdeel. Als er CSAM wordt ontdekt zal het betreffende account worden voorzien van een vlaggetje. Apple zal het ook rapporteren aan een organisatie voor zoekgeraakte kinderen en zal medewerking verlenen aan wetshandhavingsinstanties in de VS. Apple benadrukt dat het voorlopig alleen in de VS gebruikt gaat worden. Mogelijk volgt er later nog een verdere uitrol.

Klik om inhoud van Twitter te tonen.
Learn more in Twitter’s privacy policy.

Apple scant de foto’s niet, maar gebruikt intelligentie op het apparaat om de CSAM te matchen met een database van reeds bekende foto’s, die zijn omgezet naar onleesbare hashes. Dit is een ingewikkeld proces waarbij gebruik wordt gemaakt van cryptografische technieken, om de privacy te garanderen.

Een verdacht account zal worden geblokkeerd na een handmatige inspectie. Gebruikers kunnen protest aantekenen als ze vinden dat hun account onterecht is afgesloten. Het geldt alleen voor iCloud Foto’s en niet voor foto’s die lokaal op het toestel staan.

Een uitgebreide technische uitleg vind je hier in PDF-formaat.

Bekijk ook
Gerucht: ‘Apple ontwikkelt tool om kindermisbruik te herkennen in foto’s van gebruikers’

Gerucht: ‘Apple ontwikkelt tool om kindermisbruik te herkennen in foto’s van gebruikers’

Apple zou binnenkort een zogenaamde CSAM-scanning tool aankondigen. Dit hulpmiddel kan foto’s met kindermisbruik herkennen, om zo illegale content op te sporen.

#2 Meer veiligheid bij iMessage-gebruik

Apple gaat ook nieuwe functies invoeren om te zorgen dat ouders op de hoogte zijn hoe hun kinderen online communiceren. Als kinderen een seksueel getinte foto ontvangen, zal deze automatisch onscherp worden gemaakt en krijgen ze een waarschuwing. Willen ze de foto toch bekijken, dan zal het bericht ook aan de ouders worden doorgestuurd.

Ook hierbij wordt gebruik gemaakt van machine learning om foto’s te analyseren en te bepalen of het om expliciete beelden gaat. Apple ontvangt geen kopie van de foto.

Veiligheid voor kinderen

#3 Siri en zoeken helpen je verder

Ook Siri en zoeken worden veiliger voor gebruikers. Je kunt bijvoorbeeld Siri om hulp vragen als je met CSAM geconfronteerd wordt. Siri stuurt je dan door naar de juiste bronnen. Apple benadrukt dat er niet alleen op privacy is gelet, maar ook op mogelijk misbruik door overheden in landen waar het minder veilig is. Ook is de versleuteling niet verzwakt om deze nieuwe tools mogelijk te maken. End-to-end versleutelde foto’s kunnen niet worden geanalyseerd.

CSAM-advies in Siri en zoeken

Toch zijn beveiligingsonderzoekers niet helemaal gerust. Apple baseert zich op een database met hashes die niet geraadpleegd kan worden. Blijkt een onschuldige foto dezelfde hash te hebben als een bekende CSAM, dan valt voor jou als gebruiker moeilijk te bewijzen dat het om twee heel verschillende foto’s gaat.

Revisiegeschiedenis:

  • 2021 - 03 september: De CSAM-functie is een paar maanden uitgesteld.
  • 2021 - 06 augustus: Link naar de nieuwe FAQ toegevoegd waarin we de belangrijkste vragen beantwoorden en de kritiek op Apple's maatregelen verder uitlichten.

Informatie

Laatst bijgewerkt
3 september 2021 om 15:45
Onderwerp
Categorie
Apple

Reacties: 23 reacties

Reacties zijn gesloten voor dit artikel.