EFF vindt dat Apple helemaal moet stoppen met CSAM

Apple stelt de controversiële CSAM-functies uit. Maar volgens de Electronic Frontier Foundation kan Apple de plannen beter helemaal schrappen.

De EFF uitte eerder al kritiek op Apple’s plannen om foto’s van gebruikers te scannen op ongepaste content. Apple stelt de plannen uit, zo werd afgelopen vrijdag bekend. Het bedrijf wil extra tijd nemen om er goed over na te denken. De EFF juicht dat toe en is “blij dat Apple nu luistert naar de zorgen die gebruikers hebben geuit”. Maar de organisatie wil dat Apple nog een stap verder gaat dan alleen luisteren en de plannen helemaal van tafel veegt.


EFF vat de kritiek samen die meer dan 90 organisaties wereldwijd hebben geuit op de CSAM-plannen. Daarin roepen ze op om de functie helemaal niet te implementeren. Het bedreigt je privacy en kan mensen in gevaar brengen in landen waar je niet zomaar je mening mag uiten. Een petitie van de EFF heeft meer dan 25.000 handtekeningen opgeleverd en als je alle andere petities erbij optelt zijn er volgens EFF meer dan 50.000 mensen die het niet eens zijn met de plannen. Dat is in schril contrast tot het totale aantal Apple-gebruikers, maar het gaat wel om prominente figuren zoals Edward Snowden. Die verklaarde eerder nog achter Apple’s privacybeleid te staan, maar denkt er inmiddels heel anders over.

CSAM matching van foto's tegen kindermisbruik.

EFF schrijft in een blogpost:

De enorme coalitie die zich heeft uitgesproken zal blijven eisen dat de smartphones van gebruikers – zowel hun berichten als hun foto’s – worden beschermd, en dat het bedrijf zijn belofte nakomt om echte privacy te bieden aan de gebruikers.

Het is moeilijk te voorspellen wat Apple zal doen. Een optie is dat de CSAM-functies alsnog worden ingevoerd, in de originele of in een afgezwakte vorm. Maar als de plannen op te veel protest stuiten is het ook mogelijk dat Apple ze gaandeweg ‘vergeet’ en dat ze nooit officieel worden ingevoerd. In ieder geval heeft Apple inmiddels voldoende tips en suggesties gekregen om er nog eens goed over na te denken.

Bekijk ook
FAQ: Apple’s functies tegen kindermisbruik; privacygevaar of noodzakelijk kwaad?

FAQ: Apple’s functies tegen kindermisbruik; privacygevaar of noodzakelijk kwaad?

Apple kondigde een reeks maatregelen aan om kinderen te beschermen en verspreiding van kinderporno tegen te gaan. Zo gaat Apple foto’s van kindermisbruik detecteren in iCloud-foto’s van gebruikers. Maar het leidt tot veel vragen. Betekent dit dat Apple jouw complete bibliotheek gaat scannen? En wat betekent het voor je privacy?

Informatie

Laatst bijgewerkt
6 september 2021 om 8:46
Onderwerp
Categorie
Apple

Reacties: 8 reacties

Reacties zijn gesloten voor dit artikel.