De augmented en virtual reality-headset waar Apple aan zou werken, bedien je mogelijk met je ogen, hoofdbewegingen en gezichtsuitdrukkingen. Apple legt uit hoe de AR-bril werkt.
Taalfout gezien of andere suggestie hoe we dit artikel kunnen verbeteren? Laat het ons weten!
Artikelcorrectie, spelfout of -aanvulling doorgeven?
Reacties: 4 reacties
Lemco Luehof
Allemaal wel leuk en aardig, maar hoe los je dat op voor mensen die een bril nodig hebben op sterkte? Er zijn zat mensen met minder zicht of een andere afwijking. Daarnaast moet het qua kosten uit kunnen.
Kortom iets bedenken en uitvoeren en op de markt zetten verschilt nogal.
DennisU
FaceID is een grotere innovatie dan wordt gezien. We zagen de techniek, en op Apples manier krijgenw e er een ‘magische’, leuke functie bij in de vorm van Animoji. Nu komen we al bij de praktische zaken als het bewerken van je ogen zodat je iemand aankijkt bij het Facetimen, maar er komt een moment waar – zoals het artikel laat zien – systemen gekoppeld gaan worden, zodat je in data kunt kiezen. De volgende stap is dat content ook daarwerkelijk aan gaat passen op de data van FaceID, misschien zelfs gekoppeld aan je hartslag via AppleWatch. Stel je voor:
– Facebook laat berichten zien waar je daarwerkelijk op reageert. Emotie wordt de nieuwe drijfveer en currency voor deze bedrijven. Engagement drijven door emotie. FaceID geeft de mogelijkheid om likes of smilies uit te delen aan de hand van fysieke handelingen, of zelfs onderbewuste handelingen zoals afschuw in mimiek.
– Horrorgames die zien dat je hartslag omhoog gaat bij het zien van spinnen zullen je vaker de stuipen op het lijf jagen door middel van het laten zien van spinnen.
– Muziek kan qua tempo, toonsoort, complexiteit en volume aanpassen op je handelingen op dat moment: het tempo van hardlopen, emotionele verbinding met de hoofdpersoon in een film, eerder waarschuwen voor aankomende problemen op een route om vervoer zo rustgevend genoeg te laten verlopen, etc.
Edwin
Er zijn als VR brillen die de rendering optimaliseren naar de locatie waarnaar je kijkt. Dat gedeelte wordt dan fijner gerenderd dan de rest van de scene, voor performance. Dus de ogen volgen wordt door concurrenten al toegepast. Maar dit gebruiken voor interactie is de volgende stap. En je hoofd bewegen om de scene te bekijken is natuurlijk standaard.
Overigens zullen de camera’s geen “virtuele versie van je daadwerkelijke omgeving” laten zien, zoals beschreven. Want dan zou het een VR bril treffen. Die camera’s zijn nodig om informatie van de omgeving te scannen (zoals ARKit ook al doet) en er content overheen (of sinds ARKit 3.0 erachter) te projecteren.
Ik kan begrijpen dat ze voor interactie liever geen controllers nodig hebben. Vraag me af of ze ook nog handen gaan herkennen. Maar nu is eindelijk duidelijk waarom we die Animoji’s hebben: om je gezichtspieren te trainen, want die ga je dan wel nodig hebben. 😉
Robbert
Dit alles lezende, is mijn gelaatsuitdrukking er inmiddels één van uiterste gereserveerdheid.
Hopelijk kunnen ze daar hun voordeel mee doen en snel die bril vertonen…
Allemaal wel leuk en aardig, maar hoe los je dat op voor mensen die een bril nodig hebben op sterkte? Er zijn zat mensen met minder zicht of een andere afwijking. Daarnaast moet het qua kosten uit kunnen.
Kortom iets bedenken en uitvoeren en op de markt zetten verschilt nogal.
FaceID is een grotere innovatie dan wordt gezien. We zagen de techniek, en op Apples manier krijgenw e er een ‘magische’, leuke functie bij in de vorm van Animoji. Nu komen we al bij de praktische zaken als het bewerken van je ogen zodat je iemand aankijkt bij het Facetimen, maar er komt een moment waar – zoals het artikel laat zien – systemen gekoppeld gaan worden, zodat je in data kunt kiezen. De volgende stap is dat content ook daarwerkelijk aan gaat passen op de data van FaceID, misschien zelfs gekoppeld aan je hartslag via AppleWatch. Stel je voor:
– Facebook laat berichten zien waar je daarwerkelijk op reageert. Emotie wordt de nieuwe drijfveer en currency voor deze bedrijven. Engagement drijven door emotie. FaceID geeft de mogelijkheid om likes of smilies uit te delen aan de hand van fysieke handelingen, of zelfs onderbewuste handelingen zoals afschuw in mimiek.
– Horrorgames die zien dat je hartslag omhoog gaat bij het zien van spinnen zullen je vaker de stuipen op het lijf jagen door middel van het laten zien van spinnen.
– Muziek kan qua tempo, toonsoort, complexiteit en volume aanpassen op je handelingen op dat moment: het tempo van hardlopen, emotionele verbinding met de hoofdpersoon in een film, eerder waarschuwen voor aankomende problemen op een route om vervoer zo rustgevend genoeg te laten verlopen, etc.
Er zijn als VR brillen die de rendering optimaliseren naar de locatie waarnaar je kijkt. Dat gedeelte wordt dan fijner gerenderd dan de rest van de scene, voor performance. Dus de ogen volgen wordt door concurrenten al toegepast. Maar dit gebruiken voor interactie is de volgende stap. En je hoofd bewegen om de scene te bekijken is natuurlijk standaard.
Overigens zullen de camera’s geen “virtuele versie van je daadwerkelijke omgeving” laten zien, zoals beschreven. Want dan zou het een VR bril treffen. Die camera’s zijn nodig om informatie van de omgeving te scannen (zoals ARKit ook al doet) en er content overheen (of sinds ARKit 3.0 erachter) te projecteren.
Ik kan begrijpen dat ze voor interactie liever geen controllers nodig hebben. Vraag me af of ze ook nog handen gaan herkennen. Maar nu is eindelijk duidelijk waarom we die Animoji’s hebben: om je gezichtspieren te trainen, want die ga je dan wel nodig hebben. 😉
Dit alles lezende, is mijn gelaatsuitdrukking er inmiddels één van uiterste gereserveerdheid.
Hopelijk kunnen ze daar hun voordeel mee doen en snel die bril vertonen…