Apple: creatieve sessies met kinderen

Apple stopt definitief met plannen om naar kindermisbruik te scannen [video]

CSAM is nu echt van tafel
Apple gaat stoppen met de plannen om iPhone-foto's te scannen naar kindermisbruik. Het plan was vanaf het begin controversieel en werd vervolgens in de ijskast gezet. Nu stopt Apple er helemaal mee.
Gonny van der Zwaag | iCulture.nl - · Laatst bijgewerkt:

Apple kondigde eind 2021 twee plannen aan om kinderen te beschermen. De ene is al in productie gegaan en waarschuwt als een minderjarige een foto met veel naakt wil delen. De andere maatregel leidde tot een stuk meer ophef op: Apple wilde kinderporno opsporen door de foto’s te analyseren die je naar iCloud uploadt. Privacyexperts trokken aan de noodrem: Apple zou er helemaal mee moeten stoppen. En ook organisaties voor kinderbescherming waren erop tegen. Apple schrok van de reacties en stelde het uit.


Technisch gezien leek Apple de ‘perfecte’ oplossing te hebben gevonden. De foto’s zouden niet daadwerkelijk worden bekeken, maar er zou alleen een hash worden berekend, die werd vergeleken met de hashes van bekende foto’s van kindermisbruik. Apple heeft nu in een interview met The Wall Street Journal aangegeven dat ze er helemaal mee stoppen. Het interview gaat vooral over de nieuwe plannen rond Advanced Data Protection en maakt duidelijk dat Apple nu een andere insteek heeft gekozen.

Klik om inhoud van YouTube te tonen.
Learn more in YouTube’s privacy policy.

Ook is er een officiële verklaring vrijgegeven:

Na uitgebreid overleg met deskundigen over initiatieven voor kinderbescherming die we vorig jaar hebben voorgesteld, gaan we meer investeren in de functie Communication Safety, die we voor het eerst in december 2021 beschikbaar stelden.

Verder hebben we besloten niet verder te gaan met onze eerder voorgestelde CSAM-detectietool voor iCloud Foto’s. Het is mogelijk om kinderen te beschermen zonder dat bedrijven persoonlijke gegevens doorspitten. We zullen blijven samenwerken met overheden, kinderorganisaties en andere bedrijven om jongeren te helpen beschermen, hun recht op privacy te respecteren en het internet een veiligere plek te maken voor kinderen en voor ons allemaal.

CSAM matching van foto's tegen kindermisbruik.

Apple heeft nu nieuwe functies aangekondigd, die ervoor zorgen dat iCloud-gegevens nog beter beveiligd zijn. Er komt end-to-end encryptie beschikbaar voor iMessage-berichten, foto’s en meer. Deze encryptie maakt het doorzoeken van foto’s op de server onmogelijk, waardoor Apple’s CSAM-plannen geen zin meer hebben. Tenminste, wanneer je het inschakelt, want de verbeterde encryptie is opt-in. Andere bedrijven zoals Google, Microsoft en Amazon, doen wel aan het scannen van content op de server. Apple denkt echter dat het probleem bij de bron aangepakt kan worden door voorlichting te geven en te voorkomen dat de content überhaupt wordt gemaakt en gedeeld.

Bekijk ook
Apple verbetert beveiliging met Advanced Data Protection en meer

Apple verbetert beveiliging met Advanced Data Protection en meer

Apple heeft een reeks verbeteringen in de beveiliging aangekondigd. Dit houdt onder andere in dat er end-to-end encryptie van iMessage-berichten in iCloud komt en dat ook je foto’s en backups beter zijn beveiligd.

Apple’s oplossing: preventie
Op het toestel wordt bijvoorbeeld gedetecteerd of je naar CSAM-content zoekt in Siri, Safari of Spotlight. Je wordt dan doorverwezen naar diensten die je kunnen helpen bij een seksuele afwijking. Ook zal de aandacht bij Apple meer op Communication Safety worden gericht, de functie waarbij kinderen gewaarschuwd worden bij het delen van foto’s met naakt. Lokale algoritmes waarschuwen het kind vóór het verzenden van dergelijke content, zonder dat de ouders een melding krijgen. Apple wil dit uitbreiden naar herkennen van naakt in video’s. Op een later moment kan de functie ook worden uitgebreid naar andere apps en naar apps van derden.

Eerder in het nieuws:

Informatie

Laatst bijgewerkt
9 december 2022 om 8:23
Onderwerp
Bron
Bron Wired
Categorie
Apple

Reacties: 0 reacties

Reacties zijn gesloten voor dit artikel.