Dzieci za kilka lat będą kręciły głową z niedowierzaniem, nie mogąc pojąć, jak to możliwe, że do obsługi telefonu komórkowego używaliśmy pięciu palców, a komputera – dziesięciu. Będzie dla nich oczywiste to, co już dziś próbują nam przekazać projektanci nowoczesnych interfejsów użytkownika: że do pracy i zabawy będziemy potrzebować całego ciała.
Nie chodzi jednak o żadną formę przymusowej aktywności fizycznej, tylko o sterowanie za pomocą gestów. Już dziś korzystamy z ich namiastki: szczypiąc ekran komórki, by zmniejszyć czcionkę, czy przesuwając palec od jednej krawędzi do drugiej, by odebrać rozmowę. Dzisiejsze gesty są jednak tak samo śmieszne, jak urzędy wymagające przynoszenia danych na dyskietkach, które niemal wyszły już z użycia.
Na pierwszy ogień – gry Pierwszą oznaką, że zmieni się sposób naszej komunikacji z elektroniką, były czujniki ruchu wprowadzone w konsolach do gier. Zarówno Nintendo w swoim Wii, jak i Microsoft w Xboxie 360 miały funkcje wykrywania ruchu. Ta druga firma poszła o krok dalej, umożliwiając sterowanie całym urządzeniem za pomocą ruchów rąk (jak w filmie „Raport mniejszości”), choć nie działało to bezbłędnie.
Szybko pojawiło się mnóstwo gier, także na trzecią dużą platformę – PlayStation 3 firmy Sony – w których trzeba było wyginać ciało. Aplikacje pomagające utrzymać formę, sprawdzające, czy poprawnie wykonujemy pompki, skłony i taneczne ruchy, zaczęły się wysypywać jak grzyby po deszczu. Microsoft był zdecydowanie najbliżej wizji, która może ziścić się lada dzień: do korzystania z ich technologii potrzeba było wyłącznie ciała.
Palcem w powietrzu
Ekrany komputerów, telefonów i tabletów są jednak wciąż w tyle za konsolami – choć wiele z nich reaguje na dotyk. Przykładem bardzo zaawansowanego rozwiązania jest najnowsza wersja systemu operacyjnego dla telefonów BlackBerry o numerze 10, w której wykonanie ruchu palcem do góry i w lewo po ekranie pozwala przejść do poprzedniej aplikacji, a inne kombinacje odpowiadają za uruchamianie aplikacji albo wyświetlanie ich listy. Firma Research In Motion, producent telefonu, tak dalece zaufała gestom, że zrezygnowała z przycisków w telefonie.
Rok 2013 ma przynieść przełom w sterowaniu gestami. Nie będziemy już zmuszeni do rysowania linii na ekranach – będziemy to robić w powietrzu. Największe wrażenie robi rozwiązanie firmy Leap Motion: mała przystawka do komputera pozwoli pisać, sterować mapami, grami i programami za pomocą ruchów dłoni, a także rozpoznawać pismo ręczne – wprowadzane poprzez pisanie palcem w powietrzu przez użytkownika.
Ciekawe są też zmiany wprowadzone do czwartego modelu flagowego smartfona Galaxy firmy Samsung. To telefon, którego przednia kamera przez cały czas obserwuje właściciela. Użytkownikowi, któremu nie podoba się aktualnie odtwarzany utwór, wystarczy jeden ruch głowy, by go zmienić. Chcesz odebrać rozmowę? Kiwnij głową. A może odczytać nowości na Twitterze? Odpowiedni ruch ręką, bez dotykania telefonu, załatwi sprawę. Samsung zapowiada też funkcje oparte na śledzeniu ruchu gałek ocznych – odtwarzanie
plików wideo ma się zatrzymać, gdy użytkownik przeniesie wzrok gdzie indziej
a tekst ma się przewinąć niżej, gdy dojedziemy z czytaniem do końca widocznego na ekranie tekstu.
Prąd z mięśni
Nad zaawansowanym systemem do odczytywania gestów pracuje Microsoft. Będzie to bransoletka przetwarzająca ruchy dłoni na trójwymiarowe siatki, dzięki którym komputer pojmie intencje użytkownika. Taka bransoletka jest rozwinięciem stosowanego do tej pory w tym samym celu Kinecta.
W Kinekcie kamery na podczerwień umieszczone pod telewizorem odczytują pozycję kilkunastu punktów na całym ciele użytkownika, co przekłada się na niezbyt dużą dokładność, gdy idzie o szczegóły. Taka sama bateria kamer podczerwonych, umieszczonych po wewnętrznej stronie nadgarstka, będzie dużo precyzyjniej interpretować ruchy dłoni. Możliwe ma być nie tylko sterowanie systemem kina domowego, ale także obsługa smartfonów i gier wideo.
Urządzenie o nazwie kodowej „Digits” jest na etapie dość rozbudowanego prototypu. Zanim nie zmniejszy się jego rozmiarów, nie ma co mówić o rynkowej adaptacji. Być może w tę niszę wstrzeli się więc Myo – inna bransoletka, znacznie bardziej kompaktowa. Myo będziemy nosić niczym tenisista opaskę do wycierania czoła – na przedramieniu lub nadgarstku. Urządzenie będzie lekkie i cienkie – nie wyposażono go bowiem w kamery, lasery ani fotodiody.
Wynalazek odczytuje zmiany w napięciu elektrycznym generowanym przez mięśnie człowieka. Ruch palców powodowany jest bowiem przez skurcze mięśni przebiegających przez przedramię (są to tzw. zginacze, prostowniki i odwodziciele). Skurcze mięśni zaś wiążą się z przepływem jonów, czyli naładowanych elektrycznie atomów. Bransoletka ma trafić do sprzedaży
na początku przyszłego roku. Już teraz na stronie producenta można składać
zamówienia. Urządzenie kosztuje 150 dolarów.
Rosjanie robią mgłę
Do boju stają także inne firmy. Pośród nich Microchip, który ma ambicję uczynić
odczytywanie gestów popularnym i tanim. Proponowane rozwiązanie to układ
elektroniczny, który analizuje zmiany pola elektrycznego, tworzącego się przed wyświetlaczem czy telewizorem. W przeciwieństwie do kamer nie wymaga kalibrowania, nie ma także martwego pola, w którym nie widać byłoby gestów.
Z kolei firma Syntact stworzyła obsługiwany gestami instrument muzyczny,
i ma ambicję zmienić sposób, w jaki pracują artyści: za pomocą dłoni będzie
można komponować rozbudowane utwory z przygotowanych wcześniej elementów składowych. Dłoń muzyka, niczym pałeczka dyrygenta, pozwoli dojść do głosu coraz to innym partiom dźwiękowym.
Program będzie łatwy do opanowania nawet dla kilkuletniego dziecka. Tym, którzy lubią aurę tajemniczości, spodoba się zapewne inne rozwiązanie,opracowane przez rosyjską firmę DisplAir.
Generator mgły, projektor i kamera pozwalają rysować w powietrzu przedmioty, a następnie odczytywać ruchy rąk użytkownika. Dzięki temu człowiek może niemal wejść do wirtualnego świata. Są też inne rozwiązania: jak choćby interfejs do Windows 8, przygotowany przez amerykańską Elliptic Labs.
Zamiast kamer korzysta z ultradźwięków, czyli działa na podobnej zasadzie, co nietoperze; technologia LG pozwala zmieniać kanał w telewizorze, wypisując jego numer w powietrzu. Sterowanie gestami wkrada się do rozmaitych sfer życia: Hyundai zaprezentował samochody koncepcyjne, w których systemem dźwięku i chłodzenia steruje się właśnie za pomocą odpowiednich machnięć rękoma, zaś firma Moen opracowała kran, w którym temperaturę wody reguluje się nie dotykając armatury, za pomocą ruchów dłoni.
Wszystko wskazuje więc na to, że prędzej niż później praca na elektronicznych
urządzeniach będzie wiązała się z wysiłkiem fizycznym. Bo jednego nie można
odmówić klawiaturze i myszy: zapewniając oparcie dłoniom, nie wymagają zbyt
wielkiego wydatku energetycznego. Machanie rękoma przed monitorem będzie
bardziej wyczerpujące. Z jednej strony to dobrze, bo zmusi nas do wysiłku, z drugiej jednak ustawiczne powtarzanie kilku gestów może powodować kontuzje.
Kłopotem, na który zwracają uwagę analitycy i naukowcy, jest także brak standardowych gestów. Zanim przyjęto, że powiększanie wyświetlanych w telefonach treści będzie odbywać się poprzez rozszerzanie dwóch palców, producenci stosowali inne kombinacje, np. kazali rysować na ekranach spirale. Multidotyk, który dziś jest oczywisty, opracowano dopiero po kilku latach.
Poplątane palce
To samo będzie dotyczyć gestów, wykonywanych w powietrzu. Każde urządzenie, każdy program będą interpretować to samo zachowanie na różne sposoby. Zapamiętanie, który program należy obsługiwać w określony sposób, i przestawianie się między tymi programami może być zbyt dużym wysiłkiem dla przeciętnego użytkownika.
Nawet więc jeśli od strony technicznej sterowanie komputerem na migi jest już możliwe, to do jego rzeczywistego rozpowszechnienia się potrzebny jest
standardowy zestaw gestów. Możliwe, że na początku, jak w wielu podobnych
przypadkach, czeka nas wojna różnych standardów. Byleby nie potrwała zbyt
długo – bo przecież polem bitwy w tej wojnie będą nasze dłonie.