CROWDSOURCED DATA KAN LÆRE TELEFONEN Å FØLGE ØYNENE DINE - TECHCRUNCH - MOBIL - 2019

Anonim

Øyesporing har alltid vært et vanskelig problem. Multi-kamera løsninger eksisterte for å fornemme posisjonen til øynene i 3D-rom, men generelt ser hvor peepers dine pekte var for vanskelig for mobiltelefoner. Nå har forskere ved MIT og University of Georgia skapt et øye-tracking system som avhenger av crowdsourced data.

Laget opprettet en enkel app som viste en prikk på skjermen og spurte om den var på venstre eller høyre side. Emner ville trykke hvor de så prikken og telefonen ville ta opp video og bilder av samspillet. De brukte Amazons Mekaniske Turk til å ansette hundrevis av brukere til å utføre testen og brukte deretter bildebehandlingsteknikker til å asses nøyaktig hvor øynene deres pekte når de tappet på bestemte stopp.

"Feltet er ganske fast i denne kylling-og-eggsløyfen, " sa Aditya Khosla, en MIT-kandidatstudent. "Siden få personer har eksterne enheter, er det ikke noe stort incitament til å utvikle applikasjoner for dem. Siden det ikke finnes noen applikasjoner, er det ikke noe incitament for folk å kjøpe enhetene. Vi trodde vi skulle bryte denne sirkelen og prøve å få en eye tracker som Fungerer på en enkelt mobilenhet, bare ved å bruke kameraet foran deg. "

De fleste øye-sporing systemer brukte mindre utvalg størrelser og pleide å mislykkes når i praksis. Med 800 datapunkter kunne forskerne imidlertid "se" hvor øynene pekte uten problemer.

De bruker maskinlæringsteknologi til å føle øyeposisjon fra de 1600 bildene systemet tok av hver bruker.

Forskernes maskinlæringssystem var et neuralt nettverk, som er en programvareabstraksjon, men kan betraktes som et stort nettverk av svært enkle informasjonsprosessorer ordnet i diskrete lag. Trening endrer innstillingene til de enkelte prosessorene, slik at et dataelement - i dette tilfellet, blir et stillbilde av en mobilenhetsbruker - matet til bunnlaget behandlet av de etterfølgende lagene. Utgangen fra topplaget vil være løsningen på et beregningsfaktor - i dette tilfellet et estimat av retningen til brukerens blikk.

Dette betyr at app-utviklere kan føle øyebevegelse i smarttelefoner og potensielt legge til denne funksjonaliteten til enhetene sine. Det er en interessant bruk av crowdsourced data og Mechanical Turk som kan ha implikasjoner i telefonbruk blant funksjonshemmede

.

og gjør det lettere å målrette annonser.