Noen få tinker-utviklere har faktisk brukt ansiktsdataene som er samlet inn fra iPhone Xs TrueDepth-kamerasystem for å lage 3D-modeller av ansiktet. Man kunne til og med 3D trykke ansiktet, men med tvilsomme resultater.
I en kort video klarte kunstneren Elisha Hung, visuelle effekter, å bruke dataene som ble samlet inn fra TrueDepth-kameraet for å lage et 3D flytende hode, i stand til å etterligne bevegelsene hans. Han brukte iPhone Xs kamera, brukte deretter ARKit og Xcode for å hente disse dataene, og senere transformerte det til full 3D-gjengivelse.
Selv om det faktisk ser ganske bra ut, krever det en kunstner av visuelle effekter å oppnå dette resultatet. Selve bildene som samles inn av iPhone-kameraet er langt mindre presise.
Den samler ikke helt nok poeng til å lage en så realistisk modell, så det krever mye effekt å glatte ut dataene til noe som ser mer ut som et ansikt. Brad Dwyer, grunnlegger av spillselskapet Hatchlings, viste hvordan en faktisk ramme ser ut som samlet av TrueDepth-kameraet.
Her er en ny skanning. Ryddet opp litt. Sannsynligvis en bedre representasjon av hva den "ser"
Jeg må merke meg at dette er en ramme fra #TrueDepth-kameraet. Du kan sannsynligvis prøve flere rammer for å lage et bedre dybdekart. pic.twitter.com/yweJ7hBJ1U
- Brad Dwyer (@braddwyer) 15. november 2017
I denne formen er det mye blokkering.
Fortsatt har de vist hvilke imponerende bragder som kan oppnås ved å bruke den nyeste teknologien innebygd i Apples telefoner. Siden utviklere kan dra nytte av disse APIene, vil det være interessant å se hva utviklere gjør med dette i fremtiden.