eBay har kunngjort en ny åpen kildekodeteknologi som kan gjøre det lettere for personer med motoriske funksjonsnedsettelser å handle eller flytte rundt på apper. HeadGaze bruker Apples TrueDepth-kamera sammen med Apple ARKit for å tillate deg å navigere i en app ved å bruke hodebevegelsen.
HeadGaze ble opprettet som en del av et internship-prosjekt på eBay, og involverer en virtuell stylus som følger bevegelsen til hodet ditt (opp, ned, side til side), og tar hodets 3D-informasjon fra ARKit og bruker 3D geometri-kartlegging for å få plasseringen til "markøren" på skjermen.
Herfra forstår grensesnitt widgets og reagerer på "markør" -interaksjonen. På samme måte som hvordan en mus navigerer markøren på et skrivebord, lar designen deg peke til ethvert sted på skjermen med hodet og aktivere utpekte "knapper."
Ta en titt:
Muratcan Cicek, eBay Intern og Ph.D. Kandidat ved University of California, Santa Cruz forklarer:
HeadGaze lar deg bla og samhandle på telefonen din med bare subtile hodebevegelser. Tenk på alle måtene dette kan bli levende på. Lei av å prøve å bla gjennom en oppskrift på telefonen din med fete fingre mens du lager mat? For rotete til å følge bruksanvisningen på mobilen mens du piper med bilmotoren under panseret? For kaldt til å fjerne hanskene til å bruke telefonen?
HeadGaze høres ut som et spennende prosjekt, og fordi det er åpen kildekode, kan hvem som helst begynne å bruke det. Programvaren er tilgjengelig gjennom GitHub.com. Enda bedre er antallet Apple-enheter med et TrueDepth-kamera forventet å øke betydelig de kommende dagene. Nå bare tilgjengelig på iPhone X, TrueDepth og Face ID forventes å utvide til tre nye iPhones og to nye iPad Pro-nettbrett.
Du kan lese mer om HeadGaze på denne lenken.