Bloomberg rapporterte i morges at Apple jobber med en bakre 3D-sensor som er annerledes enn TrueDepth-kameraet som vil forbedre forbedrede virkelighetsfunksjoner og dybdekartlegging.
TrueDepth-kameraet bygger et tredimensjonalt nettverk av brukerens ansikt ved å projisere et mønster på 30 000 infrarøde prikker på det. Ved å utnytte en strukturert lys-tilnærming, måler systemet deretter forvrengningen av hver prikk for å lage et 3D-bilde for autentisering.
Den planlagte bakovervendte sensoren for iPhones i 2019 sies å dra nytte av en teknikk kjent som tid for flyging som beregner tiden det tar for en infrarød lysstråle å sprette av omkringliggende objekter for å lage et tredimensjonalt bilde av miljøet.
"Det forventes at selskapet beholder TrueDepth-systemet, så fremtidige iPhones vil ha både front-og bakovervendt 3-D sensing-evner," la rapporten til.
En bakre sensor vil muliggjøre mer sofistikerte augmented reality-apper, nøyaktig dybdekartlegging og mer pålitelig sporing. ARKit smelter for tiden rå kameratilførsel og bevegelsesdata fra ombord sensorer for å oppdage flate overflater og spore virtuelle objekter som er lagt på den virkelige verden, men den sliter med vertikale plan som vegger eller vinduer.
Som et eksempel, hvis en digital tiger går bak en ekte stol, vises stolen fremdeles bak dyret, som ødelegger illusjonen. En bakre 3D-sensor ville avhjelpe det.
"Selv om den strukturerte lystilnærmingen krever at lasere er plassert veldig nøyaktig, er tid for flygingsteknologi i stedet avhengig av en mer avansert bildesensor," skrev forfatterne Alex Webb og Yuji Nakamura. "Det kan gjøre tid for flyging lettere å montere i høyt volum."
Apples angivelige startet diskusjoner med noen få leverandører som ville bygge den nye sensoren, inkludert Infineon, Sony, STMicroelectronics og Panasonic. Interessant nok har Google jobbet med Infineon om dybdekartlegging som en del av Project Tango som ble avduket i 2014.
Skulle fremtidige iPhones ha både front- og bakovervendt 3D-sensing?
Lyd av i kommentarene!