Apple tester Deep Fusion-kamerafunksjonen i iPhone 11 og iPhone 11 Pro i iOS 13 utvikler beta

Apple har oppdatert iOS 13 i rekordhastighet, delvis for å legge til nye funksjoner, men, for det meste, for å korrigere feil.

Men det betyr ikke at tilleggsfunksjoner ikke fremdeles er i horisonten. For eksempel Deep Fusion-kamerafunksjonen, som Apple kunngjorde under sin "by innovation only" -hendelse tidligere i år sammen med iPhone 11 og iPhone 11 Pro. Apple har alltid sagt at funksjonen vil starte på et senere tidspunkt, med en påfølgende programvareoppdatering til iOS 13, og nå er funksjonen i beta.

Kanten har rapporten i dag, hvor han skisserer hvordan Apple jobber med den forestående offentlige lanseringen av Deep Fusion og hvordan funksjonen vil gjøre de allerede imponerende kameraene i Apples nyeste flaggskip-smarttelefoner enda bedre.

Du kan se resultatet av et bilde tatt med Deep Fusion på bildet øverst i denne artikkelen.

Deep Fusion er en viktig funksjon for bilder med “middels til lavt lys”. Det er også en funksjon som kjører helt i bakgrunnen, og jobber for å optimalisere og forbedre bilder mens iPhone 11/11 Pro-eieren tar bilder mens du er på farten.

Rapporten har en fin oversikt over hvordan den skal fungere i bakgrunnen:

  1. Når du trykker på utløserknappen, har kameraet allerede grepet tre bilder med en rask lukkerhastighet for å fryse bevegelse i skuddet. Når du trykker på utløseren, tar det tre ekstra skudd, og deretter en lengre eksponering for å fange detaljer.
  2. De tre vanlige bildene og skuddet med lang eksponering blir slått sammen til det Apple kaller en "syntetisk lang" - dette er en stor forskjell fra Smart HDR.
  3. Deep Fusion velger det korte eksponeringsbildet med mest mulig detalj og fusjonerer det med den syntetiske lange eksponeringen - i motsetning til Smart HDR, fusjonerer Deep Fusion bare disse to rammene, ikke mer. Disse to bildene blir også behandlet for støy på annen måte enn Smart HDR, på en måte som er bedre for Deep Fusion.
  4. Bildene kjøres gjennom fire detaljprosesseringstrinn, pixel for pixel, hver skreddersydd for økende mengder detaljer - himmelen og veggene er i det laveste båndet, mens hud, hår, tekstiler og så videre er på høyeste nivå. Dette genererer en serie vektinger for hvordan du kan blande de to bildene - ta detaljer fra den ene og tone, farge og lysstyrke fra den andre.
  5. Det endelige bildet genereres.

I følge rapporten vil teleobjektivet mest bruke Deep Fusion, med Smart HDR-funksjonen som bare tar over i et skudd når det er veldig lyse scener. Standard vidvinkellinsen vil i mellomtiden mest stole på Smart HDR-funksjonen for lyse til middels lyse scener, og Deep Fusion vil sparke inn med scenene med middels til lav lys. Det ultrabrede objektivet vil aldri bruke Deep Fusion eller Night Mode, fordi det bare støtter Smart HDR-funksjonen, og ingen av de andre funksjonene.

Nattmodus vil alltid sparke inn og være den viktigste funksjonen i et lite lys-scenario.

Som nevnt i rapporten, tester Apple for tiden funksjonen i en beta av iOS 13. Imidlertid er den beta foreløpig ikke tilgjengelig for utviklere, og heller ikke offentlige betatestere. Apple vil sannsynligvis frø den første betaen, med Deep Fusion, en gang snart, muligens enda senere i dag som iOS 13.2.

Gleder du deg til ankomst av Deep Fusion?