A mozgásrögzítés, avagy motion capture jó ideje része a játékok, valamint animált filmek világának. Különféle technológiák, szoftverek és hardverek jelentek meg, amelyek arra szolgálnak, hogy valós karakterek mozgását digitális adattá alakítsák, hogy aztán ezek alapján lehessen animálni virtuális karaktereket. Jar-Jar Binkstől Gollamon át sokféle megvalósítást láttunk már, de eddig a mo-cap terén mindig volt egy komoly akadály.
Ezt pedig az jelentette, hogy ugyan az emberek mozgását egyre szebben és részletesebben lehet rögzíteni, az arc változásaihoz kifejezetten komoly megoldásokat kellett bevetni. A mimika rögzítéséhez a színészek arcát tele kellett ragasztgatni érzékelőkkel, majd bonyolult eszközökkel és eljárásokkal követni ezek mozgását, ráadásul még ez is viszonylag "darabos" eredményt adott, hiszen az nehezen megoldható, hogy milliméterenként kerüljenek érzékelők a szájakra, orrokra, szemekre és egyéb helyekre.
Az Epic Games újonnan megjelent iOS appja viszont most "földközelbe" hozza a motion capture eme szegletét is. Az ígéretek szerint innentől nem kell semmiféle bonyolult felszerelés a mimika rögzítéséhez, csak egy iPhone X vagy ennél újabb Apple mobil, amely támogatja az ARKit kiterjesztett valóság platformot, valamint rendelkezik TrueDepth mélységérzékelős kamerával. Az új funkció használatához a Live Link Face appot kell letölteni az App Store-ból, és már kezdhetik is az Unreal Engine-t használók az arckifejezések felvételét.
Az Apple AR-technológiáját már mások is használták hasonló, bár persze nem ilyen széles körben alkalmazható feladatra. 2018-ban például megjelent a Walking Dead AR-játék, amelyben hasonlóképpen alkothattunk arckifejezéseket a játékbeli karakterek számára. Viszont azzal, hogy a funkciót most beemelték az Unreal Engine-be, játékok ezrei készülhetnek gyorsabban, hatékonyabban és persze ilyen téren olcsóbban is.
Az Epic szerint az app használata kifejezetten könnyű, és felkészítették arra, hogy steril környezettől egészen a szabadtérig jól érzékelje az arcok változásait, akár "kézből", akár pedig a mocap-színész arca elé rögzített módon. Az alkalmazás távirányítható, és akár több iPhone-t is lehet egyszerre vezérelni a még jobb hatás kedvéért. Ha fejlesztő vagy és érdekel a technológia pontos működése, a dokumentációt megtalálod az Unreal Engine aloldalán.