‘Apple-medewerkers uiten kritiek op scannen van foto’s bij opsporen kindermisbruik’

Apple's eigen medewerkers zouden intern flinke discussie hebben over het uitrollen van de functies voor het opsporen van kindermisbruik. Met name het scannen van foto's ligt onder een vergrootglas.

Een week na de aankondiging dat Apple kinderen beter wil beschermen en kindermisbruik wil opsporen, overheerst nog altijd de kritiek van privacyexperts én gebruikers. De kritiek gaat voornamelijk over de functie waarbij Apple hashes van foto’s van gebruikers vergelijkt met hashes van bewezen kindermisbruikfoto’s. Reuters schrijft nu dat eigen Apple-medewerkers er ook niet op gerust zijn dat het bij deze functie blijft. Ze zijn bang dat de privacy van gebruikers in het geding komt.

‘Kritiek Apple-medewerkers op scannen iCloud-foto’s’

Bronnen bij Apple zeggen tegenover Reuters dat er een intern Slack-kanaal is waar meer dan 800 berichten gedeeld zijn. Daarin wordt voornamelijk kritiek geuit op Apple’s plannen. Het is niet voor het eerst dat er intern kritiek is over bepaalde beslissingen, maar de bronnen merken op dat de discussie nu een stuk heviger is en langer duurt dan bij eerdere privacygevallen. De kritiek komt voornamelijk van medewerkers buiten het privacy en securityteam.

CSAM matching van foto's tegen kindermisbruik.

Veel Apple-medewerkers zijn er bang voor dat het systeem in de toekomst misbruikt kan worden door bepaalde overheden om ook andere zaken op te sporen dan alleen kindermisbruikfoto’s. Denk dan aan foto’s waarin kritiek geuit wordt op de overheid. Dit heeft als gevolg een strenge vorm van censuur. Hoewel Apple dit in een eigen FAQ tegenspreekt en zegt dat het systeem ontworpen is voor louter het tegengaan van de verspreiding van kinderporno, zijn de medewerkers (en ook privacyexperts) hier niet gerust op. Medewerkers zijn ook bang dat Apple zijn reputatie op het gebied van privacy over boord gooit.

In het Slack-kanaal zijn ook medewerkers die het voor Apple opnemen. Andere zeggen dat Slack niet de juiste plek is om het onderwerp te bespreken.

Bekijk ook
Apple neemt maatregelen om kinderen beter te beschermen

Apple neemt maatregelen om kinderen beter te beschermen

Apple gaat in iMessage, Siri en iCloud Foto’s nieuwe maatregelen toevoegen om te zorgen dat kinderen veilig zijn. Het moet ze onder andere beschermen tegen aanstootgevend materiaal.

FAQ over scannen foto’s op kindermisbruik
De afgelopen week is er van meerdere kanten kritiek gekomen. Niet alleen privacyexperts en eigen medewerkers, maar ook andere personen van bedrijven als WhatsApp hebben kritiek geuit op de plannen van Apple. Het idee voor het bestrijden van kindermisbruik is goed, maar de vraag is of dit de beste manier is. In onze uitgebreide FAQ over CSAM-detectie en het scannen van iCloud-foto’s lees je hoe het systeem werkt en welke kritiek er is.

Bekijk ook
FAQ: Apple’s functies tegen kindermisbruik; privacygevaar of noodzakelijk kwaad?

FAQ: Apple’s functies tegen kindermisbruik; privacygevaar of noodzakelijk kwaad?

Apple kondigde een reeks maatregelen aan om kinderen te beschermen en verspreiding van kinderporno tegen te gaan. Zo gaat Apple foto’s van kindermisbruik detecteren in iCloud-foto’s van gebruikers. Maar het leidt tot veel vragen. Betekent dit dat Apple jouw complete bibliotheek gaat scannen? En wat betekent het voor je privacy?

Reacties: 22 reacties

Reacties zijn gesloten voor dit artikel.