Opinie: Waarom Apple’s oogcontact-functie voor FaceTime geniaal is
Kunstmatig oogcontact
Apple verraste deze week met een nieuwe functie, die voorlopig alleen in de derde beta van iOS 13 en iPad OS te vinden is. Het heet ‘FaceTime Attention Correction‘ en het zorgt ervoor dat mensen je aankijken tijdens een FaceTime-gesprek. Oogcontact! Dat maakt FaceTime-gesprekken nog persoonlijker. Voorheen leek het alsof je langs iemand heen keek, of zat je in het zwarte oog van de camera te staren. Het laat ook goed zien hoe je met slimme, kunstmatige technieken kunt zorgen dat een gesprek veel ‘echter’ wordt. Dat lijkt een tegenstelling, maar dat is het niet.
Apple investeert miljoenen in kunstmatige intelligentie en machine learning, maar voor gebruikers is niet altijd duidelijk wat nou het voordeel ervan is. Het feit dat de Foto’s-app een paard van een banaan kan onderscheiden is leuk, maar het zorgt er niet voor dat je in een nieuwe iPhone gaat investeren. De nieuwe FaceTime-functie is wél een reden: er zijn heel wat mensen die via videochat contact met elkaar houden – en dat zijn echt niet allemaal grootouders die wekelijks bellen met de kleinkinderen. Ik zie regelmatig mensen op straat die via FaceTime aan het bijpraten zijn of iets kwijt willen waar face-to-face contact toch iets handiger voor is. Maar dan moet het wel echt face-to-face zijn, waarbij je elkaar kunt aankijken. Dat was tot nu toe niet mogelijk. Je kijkt altijd langs elkaar heen.
Ik ben daarom blij verrast dat Apple nu met deze functie komt. Het was tijdens WWDC 2019 blijkbaar nog niet klaar om als demo te laten zien. Het werkt op alle toestellen met A12 Bionic-processor zoals de iPhone XS en toestellen met A12X Bionic-processor zoals de iPad Pro 2018. Het is een combinatie van ARKit en de TrueDepth-camera om je gezicht te onderscheiden van de achtergrond en kleine aanpassingen te doen, zodat het lijkt alsof je in de camera kijkt. ARKit ziet diepte en kijkt naar de positie van je ogen en je gezicht, zoals Dave Schukin op Twitter laat zien. Je ogen worden daardoor met augmented reality aangepast, waardoor het lijkt dat je naar voren kijkt. Het effect is erg subtiel, zonder dat het er heel nep uit ziet. Het leidt dan ook niet tot opvallende vervormingen in je gezicht. Je kunt die vervormingen te zien krijgen als je een recht voorwerp op ooghoogte in beeld houdt, bijvoorbeeld een Apple Pencil:
Wat deze oogcontact-functie voor mij vooral laat zien, is hoe Apple allerlei ontwikkelingen in hard- en software heeft samengevoegd om iets te maken dat echt praktisch is. Apple praat vaak over het ‘verrijken van je leven’ en mensen ’empoweren’ om nieuwe dingen te doen. Deze functie is een perfect voorbeeld daarvan. Want hoe intensief mensen ook de hele dag met elkaar aan het appen zijn: er blijft altijd behoefte om elkaars gezicht te zien, ook als die andere persoon op grote afstand zit.
En Android dan?
Er komt heel wat aan te pas om deze functie mogelijk te maken en juist daarom is het wat lastiger voor bedrijven als Huawei en Xiaomi om het na te doen. Gezichtsherkenning, foto’s met diepte-effect en augmented reality zijn toepassingen die los van elkaar gemakkelijk na te maken zijn. Maar bij deze aandachtsfunctie trekt Apple meteen alles tegelijk uit de kast: AR-effecten, een dieptebeeld van je gezicht, sensoren, geavanceerde chips die alle bewerkingen lokaal op je toestel uitvoeren en nog veel meer.
Waarom we dit nog niet bij Android-toestellen hebben gezien? Ik denk dat het komt omdat er te weinig high-end Android-toestellen in omloop zijn. Veel mensen kiezen voor goedkope Android-budgettoestellen waar die geavanceerde sensoren niet in zitten. Het is voor fabrikanten daardoor minder interessant om te investeren in écht geavanceerde toepassingen, voor een relatief kleine groep high-end gebruikers. Dat is praktisch gezien vaak ook onmogelijk, omdat ze afhankelijk zijn van Google. Een toestel ontgrendelen met gezichtsherkenning of Mimoji Memoji nabootsen lukt nog wel, maar een toepassing waarbij opeens heel veel hard- en softwarefuncties met elkaar moeten samenwerken is een stuk ingewikkelder.
Xiami’s interpretatie van Memoji heet Mimoji
Dat Apple er wel toe in staat, komt omdat de toestellen duurder zijn en daardoor ook duurdere sensoren en andere componenten kunnen bevatten. Maar het komt ook omdat Apple zowel de hard- en software in eigen hand heeft. Dat argument roepen we wel vaker op iCulture, maar het geldt bij deze oogcontact-functie nog eens extra, omdat er zoveel bij komt kijken.
En Google dan?
Google heeft met de Pixel-telefoons wel een aantal slimme technieken toegepast, onder andere om met één cameralens toch een diepte-effect te creëren, maar ook Google heeft te maken met een schaalprobleem. Er worden zo weinig Pixels verkocht dat al die mooie functies praktisch gezien voor bijna niemand beschikbaar zijn. Het is er wel, maar niemand gebruikt het.
Het mooie van deze nieuwe ontwikkelingen zoals Siri-spraakfuncties, machine learning en beeldherkenning is dat ze na verloop van tijd ook beschikbaar komen voor externe ontwikkelaars. Zo kunnen ontwikkelaars met CoreML al een jaar lang aan de slag met machine learning-functies die door Apple ontwikkeld zijn. Met ARKit kunnen ontwikkelaars profiteren van de tools die Apple op het gebied van augmented reality heeft ontwikkeld en voor het herkennen van kattenfoto’s hoeven ze ook niet meer zelf het wiel opnieuw uit te vinden. Google doet op dat gebied minder. ARCore is nog maar net beschikbaar en omdat Google te maken heeft met fragmentatie van honderden verschillende Android-toestellen, is het niet eenvoudig om tools te ontwikkelen die voor elke ‘TrueDepth-kloon’ geschikt zijn. En dan is er ook nog de fragmentatie van het besturingssysteem: onder iPhone-gebruikers zit bijna 90% momenteel op iOS 12, bij Android is het een lappendeken van versies.
Kortom, Apple heeft met deze nieuwe oogcontact-functie in FaceTime goud te pakken. Het is lastiger na te maken door anderen, het zorgt voor echt persoonlijk contact en het lost een probleem op dat al bestaat sinds de eerste webcams. Het is dus niet alleen geniaal omdat het zoveel intelligente technieken combineert, maar ook omdat het echt een praktisch probleem oplost.
Taalfout gezien of andere suggestie hoe we dit artikel kunnen verbeteren? Laat het ons weten!
Het laatste nieuws over Apple van iCulture
- Getest: de nieuwe gehoorfuncties op de AirPods Pro (21-10)
- iCulture peilt: wat was jouw favoriete aankondiging van het september-event? (12-09)
- 'Wachtwoorden van Vision Pro-gebruikers waren te achterhalen' (12-09)
- Thread 1.4 komt naar je smart home: dit zijn de 6 verbeteringen (09-09)
- HomeComputerMuseum in Helmond heeft onvoldoende geld binnengehaald (07-09)
Reacties: 15 reacties