Toegankelijkheidsfuncties in iOS 17: Live spraak, Persoonlijke stem en meer
Apple kondigde eerder dit jaar in het kader van Global Accessibility Awareness Day (18 mei) een reeks nieuwe toegankelijkheidsfuncties voor iOS 17 aan. Het opvallende daarvan is dat ze al bekend werden gemaakt, ruim voordat iOS 17 zelf werd aangekondigd tijdens WWDC 2023. De nieuwe functies zijn breed van insteek: of je nu moeite hebt met spraak, horen, zien of bewegen, er zit voor iedereen wel iets bij. Ook zijn er enkele functies voor mensen die niet kunnen spreken of die het risico lopen hun vermogen om te praten kwijt te raken. Ze zijn mogelijk dankzij verbeteringen in de hard- en software, waaronder machine learning. Ook is er aan privacy gedacht en is er samengewerkt met allerlei belangengroepen. Dit zijn ze!
Hulpbedieningstoegang
Met Hulpbedieningstoegang (Assistive Access) wordt iOS 17 extra simpel gemaakt voor mensen met een cognitieve beperking. Schakel je deze functie in, dan verandert de complete interface van iOS. Je begint op een eenvoudig beginscherm, waarop de appiconen groot zijn afgebeeld. Ook de tekst is duidelijk leesbaar. Hulpbedieningstoegang beperkt veel van de functies van iPhone en iPad.
Er is alleen toegang tot apps die vooraf zijn gekozen, bijvoorbeeld: Muziek, Foto’s, Camera en een gecombineerde app voor telefoon en FaceTime gesprekken. Deze apps zelf zijn ook voorzien van een simpel design. Alleen essentiële functies zijn te gebruiken, zodat de apps zo eenvoudig mogelijk in gebruik zijn. De interface doet ook wel wat denken aan een seniorentelefoon en dat kan ook handig zijn voor wat oudere mensen die moeite hebben met de iPhone bedienen. Lees er meer over in onze tip over Hulpbedieningstoegang.
Persoonlijke stem en Live spraak
Voor mensen die hun stem dreigen kwijt te raken is er nu de functie Persoonlijke stem (Personal Voice). Door een kwartier lang zinnen in te spreken leert de iPhone jouw stem kennen. Met behulp van machine learning worden deze opnames omgezet naar een kunstmatige stem, die erg lijkt op jouw eigen stem.
Met Live spraak (Live Voice) kan deze stem worden ingezet tijdens het houden van telefoon- en FaceTime-gesprekken. Je typt zelf in wat er uitgesproken moet worden. Jouw kunstmatige stem spreekt dan deze zin uit.
Wijs en spreek
Wanneer je de Vergrootglas-app opent, kan je voortaan gebruik maken van Wijs en spreek (Point en Speak). Je richt de camera op een stuk tekst en brengt je vinger in beeld. De LiDAR-scanner van de iPhone kijkt naar de positie van jouw vinger. Wijs je vervolgens op een letter of woord, dan spreekt de iPhone deze voor je uit. Apple toont een voorbeeld waarbij de functie gebruikt wordt voor het opwarmen van een maaltijd. Hierbij worden de cijfers van de magnetron uitgesproken. Ideaal voor het dagelijks leven!
‘Wijs en spreek’ is speciaal ontwikkeld voor blinden en slechtzienden. Objecten zonder braille zijn niet langer een struikelblok en lost veel lastige situaties op, waarbij je normaal gesproken hulp nodig zou hebben. Denk bijvoorbeeld aan een conservenblik, waarbij je als blinde gebruiker niet kan zien wat erin zit.
Het persbericht over deze nieuwe toegankelijkheidsfuncties in iOS 17 vind je hier. Apple heeft een groot aanbod aan toegankelijkheidsfuncties, die ook nuttig zijn voor mensen zonder een beperking. Probeer ze vooral een keer uit! Misschien zit er wel iets tussen dat het gebruik van jouw iOS device nog leuker maakt!
Taalfout gezien of andere suggestie hoe we dit artikel kunnen verbeteren? Laat het ons weten!
Het laatste nieuws over Apple van iCulture
- Shazam heeft nu 100 miljard keer muzieknummers herkend: hoeveel Shazams heb jij? (20-11)
- Weekend kijktips: Silo, Mike Tyson, Zondebokken en meer (16-11)
- EU wil verbod op regiogebonden App Store en meer: alles voor iedereen in Europa gelijk (12-11)
- Apple Music Classical nu eindelijk via CarPlay te beluisteren (12-11)
- Apple werkt samen met luchtvaartmaatschappijen voor nieuwe Zoek mijn-functie (11-11)
Reacties: 5 reacties