Deep Fusion i iOS 13.2 gjør kameraet til iPhone 11 Pro enda bedre

Da Apple introduserte iPhone 11, iPhone 11 Pro og iPhone 11 Pro Max, sammen med de forbedrede kamerasystemene, viste det også frem en funksjon som heter Deep Fusion. Dette vil faktisk gjøre et allerede imponerende kamera enda bedre, men dessverre var det ikke klart for offentlig bruk da de nye iPhonene ble lansert i september.

Endelig endrer det seg med offentlig lansering av iOS 13.2. Deep Fusion er nå tilgjengelig for publikum, noe som betyr at bilder tatt med kameraene i iPhone 11 og iPhone 11 Pro vil bli enda mer imponerende - spesielt hvis du vil bruke gensere (dette er bare en vits).

Det er den enkle forklaringen på en sannferdig komplisert prosess, en som krever maskinlæring, flere eksponeringer av et enkelt skudd, og alt som kommer sammen i bakgrunnen for å produsere enda bedre fotografier i spesifikke situasjoner. Deep Fusion blir ikke brukt til hver foto tatt med iPhone 11s dobbeltkameraer eller iPhone 11 Pro sitt trippelkamera-system, men målet er at når det gjør bli tappet i resultatene som taler for seg selv.

Her er Apples grunnleggende beskrivelse av funksjonen:

iOS 13.2 introduserer Deep Fusion, et avansert bildebehandlingssystem som bruker A13 Bionic Neural Engine for å ta bilder med dramatisk bedre struktur, detaljer og redusert støy i svak lys, på iPhone 11, iPhone 11 Pro og iPhone 11 Pro Max.

Selv om det bare handler om detaljene.

Så hvorfor legger Apple til dette? Det hele kommer til resultatene for bilder tatt i middels til lite lys-scenarier. Det er der den skiller seg ut. Men la oss gå foran og bryte ned hvordan det fungerer først.

Bedre bilder med lite lys, mindre støy

Når du trykker på utløserknappen for kameraet, har programvaren allerede tatt tre bilder fra det du tar. Dette gjøres med en rask lukkerhastighet i et forsøk på å få en frysebok for skuddet. Og etter at du har trykket på utløserknappen, fanger programvaren tre ekstra rammer, og tar samtidig en lengre eksponering for å få enda mer detalj.

For å nå det Apple kaller en "syntetisk lang", kombineres de tre normale rammene deretter med lang eksponering.

Deep Fusion vil deretter velge det korte eksponeringsbildet med den mest tilgjengelige detalj, og det vil da automatisk kombinere det med den syntetiske lange eksponeringen som ble opprettet i bakgrunnen. Disse to rammene er det som smelter sammen, ikke noe mer. (Det er det som først og fremst skiller Deep Fusion fra Smart HDR-funksjonen, i det minste når det gjelder prosess.)

Neste, ytterligere behandling. Pixel-for-piksel skuddet kjøres gjennom ytterligere fire trinn, alt i bakgrunnen og i utgangspunktet øyeblikkelig, alt sammen arbeider for å få frem mest mulig detaljer. Himmelen og veggene i et gitt skudd fungerer på det laveste båndet. Hår, hud, tekstiler og andre elementer kjøres gjennom det høyeste båndet. Deep Fusion vil velge detaljer fra hver av eksponeringene som er gitt til den for å plukke ut mest mulig detalj, farge, lysstyrke og tone for det endelige skuddet.

Etter alt det som er gjort - for øyeblikket skjer alt i bakgrunnen med en latterlig mengde hastighet - det endelige bildet blir generert.

Et skudd som Apple hjelper til med å demonstrere Deep Fusion, vises på toppen av denne artikkelen. Så langt har Apple virkelig hatt glede av å vise frem Deep Fusion brukt sammen med en enkelt person som har på seg en genser.

Smart HDR

Som nevnt over vil ikke kamerasystemene i iPhone 11 og iPhone 11 Pro alltid bruke Deep Fusion, og noen kameraer har ikke tilgang til funksjonen i det hele tatt. Slik ser det ut:

Teleobjektivet bruker Deep Fusion for det meste, men Smart HDR (High Dynamic Range) vil sparke inn når scenariet inkluderer veldig lyse scener. Standard vidvinkellinsen vil bruke Deep Fusion i situasjoner med middels til lite lys, mens Smart HDR-funksjonen vil aktiveres i lyse til mellomstore scener. Til slutt vil ikke iPhone 11 Pro's ultrabrede objektiv noen gang bruke Deep Fusion-funksjonen fordi den bare støtter Smart HDR.

Og det er verdt å merke seg at Night Mode-funksjonen Apple introduserte med de nyeste iPhonene, er det som først og fremst vil håndtere lite lysfotografier, med Deep Fusion fra det spesifikke scenariet.

Deep Fusion er mulig på grunn av A13 Bionic-prosessoren som er tilgjengelig i iPhone 11, iPhone 11 Pro og iPhone 11 Pro Max. Som et resultat, selv om dette sannsynligvis vil være en drapsmessig funksjon på eldre iPhones, vil de aldrende enhetene ikke kunne dra nytte av funksjonen.

Fotografer, og til og med menneskene som kanskje ikke kaller seg det, men tar sine bilder veldig alvorlig likevel, vil sannsynligvis få mest mulig ut av Deep Fusion. Imidlertid er enhver støt i forbedring av bilder tatt med en telefon som iPhone 11 eller iPhone 11 Pro - som ikke er billige enheter - et velkomment tillegg.

Ser du frem til tillegg av Deep Fusion? Gi oss beskjed i kommentarene!