Et av de beste aspektene ved ARKit, Apples nye rammeverk for å bygge augmented reality-apper, er det faktum at det gjør alle de utrolige komplekse tunge løftene som å oppdage romdimensjoner, horisontale plan og lyskilder, og frigjøre utviklere til å fokusere på andre ting.
ARKit analyserer scenen presentert av kameravisningen, i sanntid.
Kombinert med sensordata er det i stand til å oppdage horisontale plan, som bord og gulv, samt spore og plassere objekter på mindre funksjonspunkter med stor presisjon.
Og fordi den bruker kamerasensoren, kan ARKit nøyaktig anslå den totale mengden lys som er tilgjengelig i en scene for å bruke riktig belysning på virtuelle objekter.
Først, sjekk ut denne demoen fra Tomás Garcia.
Barnas leggetidhistorier vil aldri være de samme som kommer i høst!
En annen utvikler har satt sammen en rask demo som viser frem sin AI-bot, kalt "Pepper".
I følge videoens beskrivelse:
Jeg har jobbet med en AI-bot en stund nå. For å være kort, det er som V.I.K.I i filmen “Jeg, robot”. Ved hjelp av ARKit klarte jeg å bringe den nær en ekte assistent.
Av åpenbare grunner demonstrerer jeg ikke funksjonaliteten hennes i denne videoen. Så jeg endte opp med å vise dere hvor enkelt og enkelt det er å få liv i 3D-modeller med Apples nye rammeverk.
Disse videoene viser tydelig hvor enkelt ARKit gjør det for utviklere å matche skyggene av deres virtuelle objekter til lysforholdene i den virkelige verden.
Her er noen ekstra ARKit-aktiverte demonstrasjoner.
ARKit krever A9- eller A10-prosessorer, noe som betyr at ARKit-apper vil kreve en iPhone 6s eller nyere eller en av de nyeste iPad Pro-modellene, enten 9,7-tommers eller 10,5-tommers.
Hvis noe, demonstrerer disse videoene hvor enkelt Apple har gjort det å sette sammen en AR-app. Gleder du deg til ARKit, og hvorfor? Legg igjen en kommentar nedenfor for å gi oss beskjed.