Reacties voor: Opinie: Waarom Apple’s oogcontact-functie voor FaceTime geniaal is
Taalfout gezien of andere suggestie hoe we dit artikel kunnen verbeteren? Laat het ons weten!
Taalfout gezien of andere suggestie hoe we dit artikel kunnen verbeteren? Laat het ons weten!
Al FaceTime ik nooit, dit kan je m.i. dan toch wel weer een innovatie noemen. Grappig!
P.S. Ik maak zelden selfies, maar zou dit (dus) ook voor selfies gelden?
Ik vind het maar creepy! Vooral omdat het er kennelijk ‘niet heel erg nep’ uitziet. Volgende stap is om (zelf of vanuit machine learning) je gezichtsuitdrukking aan te passen op wat je aan het zeggen bent…
@JB: of nog een stap verder: een App die voor jou het hele FaceTime gesprek voert.
Zoals google een restaurant voor je kan bellen en een reservering maakt zonder dat de restaurant medewerker weet dat hij met een AI spreekt?
Heel interessante ontwikkeling! Alleen begrijp ik de twee foto’s van Facetime niet goed. De linker lijkt je min of meer recht aan te kijken, de rechter kijkt naar boven de notch? Is de linker foto dan een gemanipuleerde versie van rechts? Dat zou best knap zijn, omdat ook de oogleden dan meebewerkt zijn, wat ik me nauwelijks kan voorstellen… Wat is dan precies de vervorming van de foto met het potlood? Ik zie het rechteroog langs het randje richting Facetime scherm (boven de notch) kijken, is dat het?
De behandelde functie is zo onvoorstelbaar (je ogen real time in richting aanpassen en toch je natuurlijke expressie behouden?) dat ik graag meer toelichting bij de voorbeelden zie.
De linker foto is “normaal”, waarbij je naar het scherm kijkt en dus ONDER de camera kijkt.
Rechts is met AI aangepast, waardoor je IN de camera lijkt te kijken, dat is de hele functie.
Prima ontwikkeling dat Apple eindelijk ook eens laat zien dat ze met Ar/machine Learning bezig zijn.
Waar Google met oa night sight lichtjaren (- pun intended) vooruit loopt doet Apple iets terug door je ogen de “goede” kant op te laten kijken in FaceTime…
Ik begrijp de hype om eerlijk te zijn niet zo goed. Het effect bij een iPhone schermpje is toch marginaal omdat dit sowieso relatief klein is en daardoor je ogen nooit extreem af zullen wijken als ze naar het scherm kijken i.p.v. in de camera?
@Walden: je zou het kanaal The Fakening even moeten bekijken op YouTube. Er zitten daar een aantal video’s bij waar je wel van zal schrikken.
Noem het Faceswap 2.0 met video én audio.
En even on topic. Deze functie moet er voor zorgen dat het lijkt alsof je elkaar in de ogen kijkt. Omdat je vanzelf naar jezelf kijkt in zo’n gesprek, kijk je de ander niet echt aan: met deze techniek veranderen ze dat dus.
Ik vind het een hele belangrijke functie en slim dat Apple dit voor elkaar krijgt! Sommige mensen vinden het eng, maar ik denk dat je het moet zien als een technische hulp waardoor je er bij het gesprek juist natuurlijker uitziet en meer ‘oogcontact’ hebt. Je zult snel vergeten dat iOS je daar technisch mee helpt.
Een volgende fase is volgens mij het plaatsen van de camera(s) onder het scherm. Apple heeft daar volgens mij al patenten voor. Dan hoeft deze AR techniek niet meer in FaceTime en kan ook de ‘notch’ verdwijnen!
😂 Inderdaad…
@Micha: ok, ik heb dat kanaal bekeken. Bij The Fakening gaat het als ik enkele filmpjes goed begrijp, om technieken die gebaseerd zijn op tenminste een aantal beelden van het fake-gezicht die via ai gematched worden met beelden van het slachtoffer. Uit het artikel hierboven begrijp ik, dat bij Facetime in iOS 13 het met ieder willekeurig gezicht lukt waarbij het niet om matching met bestaande oogplaatjes gaat maar om real time afleiden van de passende oogopslag. Dan zou dit dus een fundamenteel andere, volgens mij geavanceerdere, ai techniek zijn dan ik gezien heb bij de voorbeelden op The Fakening. Of ik heb het artikel niet goed begrepen, natuurlijk.
Ik doel eigenlijk op de techniek zelf. Dat dit deel wat ze hier laten zien bij apple maar een klein deel is van wat er nu mogelijk is. Het is inderdaad een totaal andere toepassing. We zien veel selfies etc waarbij er niet in de camera gekeken is omdat mensen naar hunzelf kijken ipv in de lens.
Maar de techniek is inmiddels een stuk verder. Ze kunnen tegenwoordig een heel gezicht in bewegende beelden op een ander hoofd zetten. Zie dit briljante voorbeeld. Is eigenlijk gewoon eng.
@JustinK: Dat lukte in de demo prima, maar in de echte wereld?
@Micha: je kijkt in een videogesprek juist wel de ander aan, maar om in beeld de ander aan te kijken moet je recht in de camera kijken.
Het een ziet er voor de ander onnatuurlijk uit, het ander is voor jezelf onnatuurlijk.
Als je er heel bewust mee om gaat heb je niet echt AI nodig.
(Ik heb zo’n tien jaar zeer regelmatig professionele videogesprekken gevoerd en presentaties gegeven.)
Ik vind wel dat mensen er erg ‘stoned’ van gaan kijken. De ogen halfdicht.
@Driek: Klopt helemaal!