Jak pewnie każdy z Was zauważył, coraz bardziej uzależniamy się od nowych technologii. I nie chcę przekonywać wszystkich, że to złe – sam spędzam niemal całą dobę ze smartfonem i całą dobę ze smartbandem. Już teraz telefony robią za nas prawie wszystko, jeśli tylko klikniemy parę razy lub coś do nich powiemy. Teraz deweloperzy chcą, abyśmy mogli kierować urządzeniem za pomocą oczu.

Na początek chciałbym zaznaczyć, iż nie jest to projekt żadnej firmy, która zajmuje się produkcją smartfonów. Za to wszystko nie jest odpowiedzialny ani Samsung, ani LG, ani Xiaomi tylko… ekipa z MIT, Uniwersytetu w Georgii i niemieckiego Instytutu Informatyki Maxa Plancka. Już teraz udało im się osiągnąć dokładność na poziomie jednego centymetra w przypadku smartfonów i 17 milimetrów w przypadku tabletu. Jest nieźle, szczególnie jeśli będziemy chcieli, aby na przykład odwrócenie wzroku od telefonu automatycznie go zablokowało, a spojrzenie w dół strony internetowej ją przewijało (podobne rozwiązanie miał już kiedyś Samsung, ale chyba na dłuższą metę mało kto z nich korzystał). Nie jest to całkowita kontrola oczami, raczej wykonywanie drobnych poleceń, ale życie ułatwiłoby niewątpliwie. Na przykład, gdy ktoś zagaduje nas w autobusie, możemy od razu  „schować” prywatne rozmowy.

Według badań MIT, dokładność można poprawić dzięki większej ilości danych. I w ten sposób powstała aplikacja GazeCapture, która zbierała informacje, jak ludzie patrzą na urządzenie w różnych warunkach. Zaznaczę tylko, że nazwa aplikacji w wolnym tłumaczeniu nazywa się „przechwytywanie spojrzenia”, więc myślę, że każdy był tego świadomy. „Zabawa” była prosta – patrzysz na pulsujące kropki w konkretnych miejscach ekranu, a przednia kamera to wszystko rejestruje. Dodatkowo, w kropce były literki L lub R i trzeba było potwierdzić zobaczenie danej kropki klikając w lewą (left) lub prawą (right) część ekranu, tak aby mieć pewność dokładności. Do czego wykorzystano zebrane informacje? Do uczenia oprogramowania nazwanego iTracker (które może działać także na urządzeniach Apple). Jego zasada działania będzie prosta – na podstawie twojej twarzy i oczu zostanie określone, na które miejsce ekranu patrzysz. Obecnie z GazeCapture korzystało 1,5 tysiąca osób, ale według badaczy zwiększenie badanych do 10 tysięcy osób pozwoli zredukować błąd do pięciu milimetrów. Badania zostały zaprezentowane na konferencji IEEE w Seattle.

A Wy, uważacie, że kontrolowanie smartfonu oczami to przyszłość, lenistwo czy „zamach” na bezpieczeństwo?

źródło: tech.firstpost.com
grafika główna: Stock Photo

Leave a Reply

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

2 replies on “Kontrolowanie smartfonu oczami – rozwój czy lenistwo?”

  • No przecież
    6 lipca 2016 at 11:20

    To np. ułatwienie dla niepełnosprawnych lub gdy zajęte ręce.

    • Paweł
      6 lipca 2016 at 11:53

      Hmm, to pierwsze brzmi dla mnie jak rzeczywisty argument. jeśli chodzi o zajęte ręce – smartfon trzymać raczej i tak musisz, szczególnie, że aby funkcja działała musisz mieć twarz na przeciwko frontu urządzenia. A jeśli go trzymasz, to można obslugiwać go jedną ręką