Apple kondigde eind 2021 twee plannen aan om kinderen te beschermen. De ene is al in productie gegaan en waarschuwt als een minderjarige een foto met veel naakt wil delen. De andere maatregel leidde tot een stuk meer ophef op: Apple wilde kinderporno opsporen door de foto’s te analyseren die je naar iCloud uploadt. Privacyexperts trokken aan de noodrem: Apple zou er helemaal mee moeten stoppen. En ook organisaties voor kinderbescherming waren erop tegen. Apple schrok van de reacties en stelde het uit.
Technisch gezien leek Apple de ‘perfecte’ oplossing te hebben gevonden. De foto’s zouden niet daadwerkelijk worden bekeken, maar er zou alleen een hash worden berekend, die werd vergeleken met de hashes van bekende foto’s van kindermisbruik. Apple heeft nu in een interview met The Wall Street Journal aangegeven dat ze er helemaal mee stoppen. Het interview gaat vooral over de nieuwe plannen rond Advanced Data Protection en maakt duidelijk dat Apple nu een andere insteek heeft gekozen.
Ook is er een officiële verklaring vrijgegeven:
Na uitgebreid overleg met deskundigen over initiatieven voor kinderbescherming die we vorig jaar hebben voorgesteld, gaan we meer investeren in de functie Communication Safety, die we voor het eerst in december 2021 beschikbaar stelden.
Verder hebben we besloten niet verder te gaan met onze eerder voorgestelde CSAM-detectietool voor iCloud Foto’s. Het is mogelijk om kinderen te beschermen zonder dat bedrijven persoonlijke gegevens doorspitten. We zullen blijven samenwerken met overheden, kinderorganisaties en andere bedrijven om jongeren te helpen beschermen, hun recht op privacy te respecteren en het internet een veiligere plek te maken voor kinderen en voor ons allemaal.
Apple heeft nu nieuwe functies aangekondigd, die ervoor zorgen dat iCloud-gegevens nog beter beveiligd zijn. Er komt end-to-end encryptie beschikbaar voor iMessage-berichten, foto’s en meer. Deze encryptie maakt het doorzoeken van foto’s op de server onmogelijk, waardoor Apple’s CSAM-plannen geen zin meer hebben. Tenminste, wanneer je het inschakelt, want de verbeterde encryptie is opt-in. Andere bedrijven zoals Google, Microsoft en Amazon, doen wel aan het scannen van content op de server. Apple denkt echter dat het probleem bij de bron aangepakt kan worden door voorlichting te geven en te voorkomen dat de content überhaupt wordt gemaakt en gedeeld.
Apple’s oplossing: preventie
Op het toestel wordt bijvoorbeeld gedetecteerd of je naar CSAM-content zoekt in Siri, Safari of Spotlight. Je wordt dan doorverwezen naar diensten die je kunnen helpen bij een seksuele afwijking. Ook zal de aandacht bij Apple meer op Communication Safety worden gericht, de functie waarbij kinderen gewaarschuwd worden bij het delen van foto’s met naakt. Lokale algoritmes waarschuwen het kind vóór het verzenden van dergelijke content, zonder dat de ouders een melding krijgen. Apple wil dit uitbreiden naar herkennen van naakt in video’s. Op een later moment kan de functie ook worden uitgebreid naar andere apps en naar apps van derden.
Eerder in het nieuws:
- Gerucht: ‘Apple ontwikkelt tool om kindermisbruik te herkennen in foto’s van gebruikers’
- ‘Apple-medewerkers uiten kritiek op scannen van foto’s bij opsporen kindermisbruik’
- FAQ: Apple’s functies tegen kindermisbruik; privacygevaar of noodzakelijk kwaad?
- Apple stelt CSAM misbruikdetectie een paar maanden uit
- EFF vindt dat Apple helemaal moet stoppen met CSAM
- EU wil dat techbedrijven scannen naar kindermisbruik
Taalfout gezien of andere suggestie hoe we dit artikel kunnen verbeteren? Laat het ons weten!
Het laatste nieuws over Apple van iCulture
- Overzicht: deze Apple-producten zijn in 2024 uitgebracht (en komt er nog meer aan?) (14-11)
- EU wil verbod op regiogebonden App Store en meer: alles voor iedereen in Europa gelijk (12-11)
- Apple biedt langere retourtermijn voor de feestdagen en geeft cadeautips (09-11)
- Apple koopt fotobewerking-app Pixelmator (01-11)
- Hier zijn 7 hoogtepunten uit de kwartaalcijfers FQ4 2024 (01-11)
De iPhone en iPad voor kinderen
De iPad en iPhone zijn ook leuk voor kinderen. Met deze artikelen zorg je dat kinderen ze veilig kunnen gebruiken, met onder andere informatie over delen met gezin, ouderlijk toezicht, tijdslot instellen en leuke apps vinden. En met Schermtijd beperk je de tijd die kinderen (of jijzelf) kunnen doorbrengen op de iPhone en iPad. Ook lees je hoe je een Apple ID voor kinderen kunt aanmaken.
- Ouderlijk toezicht gebruiken
- Schermtijd op iPhone en iPad
- Applimieten instellen in Schermtijd
- Begeleide toegang gebruiken
- iPad-gebruik van kinderen beperken
- Geschikte apps voor oudere iPad zoeken
- Leerzame programmeerapps voor kinderen
- Tijdslot voor kinderen instellen op iPhone en iPad
- Thuisknop blokkeren op de iPad
- iPad-apps filteren op leeftijd
- iPad kindveilig maken met beschermhoezen
- Apps voor kinderen tijdens lange autoritten
- Meldingen uitschakelen op een gezamenlijke iPad
- In-app aankopen uitschakelen
- Alles over Delen met gezin
- Apple ID voor kinderen
Reacties: 0 reacties