2. 1 Metody nawigacji 1 Wprowadzenie do nawigacji



Pobieranie 86.33 Kb.
Data08.05.2016
Rozmiar86.33 Kb.
INTERFEJS UŻYTKOWNIKA DLA PRZESTRZENI WIRTUALNEJ


2.1 Metody nawigacji
2.1.1. Wprowadzenie do nawigacji
Interakcja człowiek-komputer jest bardzo szybko rozwijającą się dziedziną wiedzy. Niestety szybkiemu tempu rozwoju towarzyszy zazwyczaj wielość pomysłów i propozycji, co z reguły powoduje chaos standaryzacyjny. Taka sytuacja występuje w zagadnieniach interakcji w środowisku wirtualnym (ang. Virtual environment). Zajmiemy się teraz szczególną odmianą interakcji, a mianowicie nawigacją rozumianą jako nadzorowanie ruchów punktu widzenia w trójwymiarowym środowisku. Chociaż niektórzy autorzy [1, 2] rozdzielają jeszcze nawigację na dwie części: swobodne przemieszczanie się (ang. Travel), czyli przemieszczanie się obserwatora w środowisku 3D i odnajdywanie drogi (ang. Wayfinding), czyli poruszanie się po zadanej ścieżce zgodnie z zaobserwowanymi znakami, znajomością uwarunkowań środowiska czy za pomocą dodatkowych urządzeń takich jak mapy lub kompasy, to w poniższym rozdziale nawigacja jest traktowana jako ogólnie rozumiane przemieszczanie się.

Nawigacja jest najczęściej implementowanym rodzajem interakcji w wirtualnych środowiskach. To dzięki niej obserwator musi mieć możliwość uzyskania widoku sceny z różnych miejsc i kierunków, co nadaje sens kwestii zanurzenia w przestrzeni 3D. Jeśli więc aplikacja ma sprostać wysokim wymaganiom użytkowników to kwestia nawigacji powinna być dobrze przemyślana i zaprojektowana. Ponad to nawigacja nie jest dla aplikacji celem samym w sobie, a jedynie możliwością przemieszczenia się w pewien obszar środowiska 3D, z którego można następnie przeprowadzać inne ważne zadania. Narzuca to na nawigację konieczność łatwości użytkowania i nauki oraz intuicyjności. Powinniśmy więc używać do nawigacji tych zmysłów, które wykorzystujemy w rzeczywistości, a mianowicie: oczu, uszu rzeczywistość rąk. Wirtualna rzeczywistość ma ponad to tę niewątpliwą zaletę, że oprócz standardowych form interakcji znanych z rzeczywistości możemy implementować rozwiązania niemożliwe do zastosowania w realnym świecie.

Niestety nie powstały jeszcze oficjalnie żadne standardy, według których można oceniać różne techniki nawigacji, więc o funkcjonalności i przydatności tych technik muszą zadecydować eksperymenty i formalna analiza. Następny podrozdział zawiera propozycję wprowadzenia taksonomii dla nawigacji, mogącą ułatwić projektowanie różnych systemów nawigacji i ocenę ich przydatności. Kolejne rozdziały proponują nawigację w wirtualnej galerii sztuki wykorzystującą: kask HMD, rękawicę cyfrową oraz komendy wydawane głosem.
2.1.2. Różne techniki nawigacji i ich kategoryzacja

Istnieje obecnie wiele technik nawigacji, które poprzez wykorzystanie w różnych aplikacjach można poddać ocenie ze względu na ich użyteczność w eksploracji wirtualnych światów. Jednakże bardzo trudno jest stwierdzić, która z technik jest najlepsza. Dzieje się tak zarówno ze względu na nieprecyzyjne kryteria oceny i zmienność środowiska, w którym dana metoda jest wykorzystywana, jak i ze względu na określenie, która część składowa danej techniki ma znaczący wpływ na polepszenie lub pogorszenie możliwości nawigacyjnych. Celowe jest zaproponowanie pewnej hierarchii własności, która pozwoli lepiej analizować obecnie istniejące techniki nawigacji jak i projektować nowe rozwiązania.

Wśród technik nawigacji można wyodrębnić trzy elementarne zagadnienia [1, 2]:


  • określenie kierunku, w którym będziemy się poruszać,

  • określanie prędkości i przyspieszenia podczas poruszania się,

  • określanie warunków krańcowych, czyli rozpoczęcia, zakończenia lub kontynuowania nawigacji.

Schemat z rysunku II.2.1 przedstawia niektóre możliwości rozwiązań dla poszczególnych zagadnień. Jest on propozycją rozszerzenia taksonomii technik nawigacji w środowisku wirtualnym przedstawionej w [1, 2] przez Doug A. Bowman’a. Taksonomia Bowman’a została na podstawie prowadzonych w projekcie badań rozszerzona o nowe sposoby określania kierunku: z wykorzystaniem komend głosowych i przez oddziaływanie czynników zewnętrznych.









Rys. II.2.1. Taksonomia technik nawigacji w wirtualnej rzeczywistości. Podkreślono techniki wybrane dla wirtualnej galerii sztuki.

Wśród metod określania kierunku ruchu najbardziej intuicyjną wydaje się metoda poruszania się w kierunku patrzenia. Wtedy kierunek, w którym patrzy obserwator jest jednocześnie kierunkiem poruszania się. To pozornie intuicyjne rozwiązanie jest jednak bardzo uciążliwe w przypadku rozglądania się podczas marszu. Następują wtedy bowiem ciągłe zmiany kierunku ruchu. Zamiast używać do określania kierunku ruchu systemu śledzenia powiązanego z kaskiem, można użyć system śledzenia związany z rękawicą cyfrową. Taka metoda wykorzystuje kierunek wskazywany rękawicą, czyli orientację systemu śledzenia rękawicy, jako domniemany kierunek poruszania się. Inną rozważaną przez nas grupę metod stanowią te, które wykorzystują do


wyboru kierunku ruchu komendy słowne. Sposób ten wymaga jedynie mikrofonu i jest niezależny od pozostałych urządzeń wejściowych. Rozwiązanie to wydaje się bardzo wygodne gdyż nie wymaga od użytkownika żadnych ruchów ani gestów a jedynie wykorzystuje to, co dla ludzi naturalne - mowę. Metoda ta ma ponad to jedną niezaprzeczalną zaletę - jest w stanie obsłużyć bardzo dużą ilość komunikatów, które ze względu na specyfikę mowy będzie bardzo łatwo zapamiętać, czego nie można powiedzieć np. o gestach, których większa ilość jest zarazem trudna do wykonania jak i do zapamiętania.

Kolejnym zagadnieniem jest określanie prędkości i przyspieszenia podczas przemieszczania się. Najprostsze jest zastosowanie stałej prędkości dla całej sceny, jednak należy pamiętać, że przyjęta prędkość powinna pozwolić obserwatorowi w sensownym czasie pokonać całą scenę. Możemy dopuścić zmianę prędkości przez użytkownika, bądź to przez wybór dyskretnej wartości – komendą słowną, bądź przez płynną zmianę wartości prędkości – prędkość obrotu zależna od kąta obrotu ręki wokół własnej osi..

Ostatnim zagadnieniem jest określenie warunków krańcowych, które decydują o rozpoczęciu, zakończeniu lub zmianie warunków poruszania się. Najczęstszymi zdarzeniami określającymi warunki krańcowe są różne zdarzenia inicjowane przez obserwatora: użycie gestów czy wydawanie komend słownych. Natomiast określanie kierunku poruszania się jest najczęściej implementowane w taki sposób aby zmiany zachodziły płynnie, a więc np.: zmiana nachylenia ręki, kierunku patrzenia czy położenia myszki od razu wpływa na orientację punktu widzenia.

Zaproponowany podział technik nawigacji na mniejsze komponenty może nie być kompletny, jednak większość znanych technik doskonale pasuje do tego schematu. Dzięki temu można przyjrzeć się technikom nawigacji, a tym samym dokładnie je zanalizować i określić właściwości danej techniki na poziomie poszczególnych metod. Można więc ulepszać daną technikę nawigacji na poziomie pojedynczych komponentów. Podział technik nawigacji na komponenty zachęca również do tworzenia nowych technik. Poprzez mieszanie propozycji rozwiązań dla poszczególnych komponentów jesteśmy w stanie uzyskać zupełnie nowe techniki. Choć niektóre połączenia mogą być pozbawione sensu, to inne z pewnością zaowocują całkiem błyskotliwymi rozwiązaniami.



Kolejną kwestią jest ocena technik nawigacji. Wprowadzenie podziału technik na mniejsze komponenty ułatwiło jedynie analizę zjawiska. Do pełnej oceny nawigacji potrzebny jest zestaw wyraźnych kryteriów, których kwantyfikacja da pełne oszacowanie zjawiska. Proponowane czynniki decydujące o jakości technik nawigacji to [2]:

  • odpowiednia prędkość,

  • właściwa dokładność,

  • orientacja przestrzenna,

  • łatwość nauki,

  • łatwość użytkowania,

  • gromadzenie informacji z otoczenia podczas nawigacji,

  • stopień zagłębienia w wirtualnej rzeczywistości,

  • komfort użytkownika (brak nudności, senności czy zawrotów głowy).

Choć lista ta może być niekompletna, to pokazuje, że nie tylko prędkość i dokładność świadczą o jakości wybranej techniki. Na podstawie wymienionych czynników możemy zarówno dokładniej ocenić analizowaną technikę jak i projektować nowe techniki dla konkretnych aplikacji.

2.1.3. Realia wirtualnej galerii sztuki
Przestrzeń wirtualnej galerii sztuki wymaga na wstępie dogłębnej analizy. Nawigacja była początkowo testowana w wirtualnej Sali Neoplastycznej Muzeum Sztuki w Łodzi (rys. II.2.2) zawierającej cztery kompozycje przestrzenne Katarzyny Kobro. Przyjęte rozwiązanie przetestowano następnie natomiast innych wirtualnych galeriach. Okazało się ono uniwersalne.




Rys.II.2.2 Sala Neoplastyczna Katarzyny Kobro wraz z dziełami artystki
Wśród rozważanych w poprzednim rozdziale kryteriów niewątpliwie najważniejszymi są łatwość nauki, łatwość użytkowania, orientacja przestrzenna i stopień zagłębienia w wirtualnej rzeczywistości. Są to o tyle ważne zagadnienia, że od ich implementacji zależeć będzie odbiór doznań w kontakcie z prezentowanymi dziełami sztuki. Łatwość nauki i użytkowania to cecha niezbędna, aby sztuką mogły delektować się osoby niezwiązane do tej pory z wirtualną rzeczywistością. Niedopuszczalna jest, bowiem sytuacja, w której założone na obserwatora urządzenia wejściowe wirtualnej rzeczywistości stanowią zaporową barierę techniczną blokującą odbiór doznań estetycznych. Nie mniej ważna jest orientacja przestrzenna i stopień zanurzenia w wirtualnej rzeczywistości. Stworzona aplikacja powinna umożliwić widzowi przekroczenie granicy między realnością a nierealnością i dostarczyć poczucia obecności w postrzeganej przestrzeni. Prędkość bądź dokładność nawigacji w galerii sztuki pozwala na odrobinę swobody. Nie są to jednak zagadnienia strategiczne. Dokładność w przypadku oglądania dzieł przestrzennych powinna uwzględniać jedynie zadowalający sposób określania kierunku patrzenia i odległości od obserwowanej bryły. Prędkość natomiast, z uwagi na stosunkowo niewielkie rozmiary pomieszczeń muzealnych, nie wymaga specyficznych implementacji. Może być stanowczo jednakowa dla całej sceny i powinna jedynie mieć tak dobrany współczynnik, aby jakiekolwiek błędy użytkownika nie powodowały utraty orientacji przestrzennej. Natomiast zapewnienie odpowiedniego komfortu użytkowania może być kłopotliwe. Spełnienie tego wymagania jest bowiem nierozerwalnie połączone z rodzajem sprzętu wykorzystywanego w eksploracji przestrzeni.
2.1.4. Analiza sprzętu i narzędzi oraz wybór metody nawigacji
Już wstępne rozważania określają rolę sprzętu w eksploracji wirtualnej galerii sztuki. Wykorzystywane przeze mnie urządzenia są najnowocześniejszymi osiągnięciami technologii (rys. II.2.3), jednak od momentu ich zakupu do chwili obecnej pojawiło się wiele nowych i lepszych urządzeń.

W projekcie wykorzystany jest hełm multimedialny V6 HMD firmy Virtual Research z zainstalowanym systemem śledzenia o trzech stopniach swobody firmy Intersense [4], ponadto dwie rękawice cyfrowe (lewa i prawa) 5DT 5-W firmy Digital Technology pozwalające na obsługiwanie zginania wszystkich palców w anatomicznym zakresie i obrotów wokół dwóch wybranych osi układu współrzędnych. Rękawice są opcjonalnie bezprzewodowe, co nie wpływa na funkcjonalność implementacji a jedynie na komfort użytkowania. Dodatkowo hełm wyposażony jest w mikrofon, dzięki któremu jesteśmy w stanie wydawać polecenia głosem. Klasyczne urządzenia takie jak myszka, monitor i klawiatura służyły w dochodzeniu do wersji ostatecznej, lecz w środowisku głęboko zanurzonych (ang. Immersive environments) nie są brane pod uwagę (rys. II.2.3).









Rys.II.2.3 Urządzenia wejściowe głębokiego zanurzenia: kask V6 firmy Virtual Research z systemem śledzenia firmy Intersense (po prawej) i rękawica cyfrowa firmy 5 Digital Technology (po lewej)
Biblioteką umożliwiającą obsługę syntezy i rozpoznawania mowy jest Microsoft Speech API 5.1 [6]. Biblioteka ta powstała dzięki długoletnim staraniom firmy Microsoft, aby każdy program działający w środowisku Windows równie łatwo wykorzystywał mowę jak obecnie wykorzystuje okienkowy interfejs użytkownika (GUI). Omawiana biblioteka pozwala jedynie na obsługę języka angielskiego. Niestety nie powstało jeszcze równie dobre środowisko dla języka polskiego. Ponieważ dostarczone biblioteki bazują na języku C++, a wybrana biblioteka Speech API jest produktem Microsoftu, to obowiązującym środowiskiem programistycznym dla naszych prac był Microsoft Visual C++ 6.0. Szczegóły implementacyjne podane zostały w publikacji [8]. Proponowany poniżej sposób nawigacji uwzględnia taksonomię przedstawioną w podrozdziale drugim i specyfikę posiadanego oprzyrządowania. Na wstępie należy zauważyć, że brak w jakimkolwiek z wykorzystywanych przez nas urządzeń sześciu stopni swobody uniemożliwia bezpośrednie mapowanie ruchów ręką lub tułowiem użytkownika na przemieszczenia w wirtualnej przestrzeni. Ta bezpośrednia możliwość przekładania ruchów w rzeczywistej przestrzeni na ruchy w przestrzeni wirtualnej, choć wydaje się bardzo intuicyjna, ma jednak bardzo poważne ograniczenia. Dzieje się tak przede wszystkim w przypadkach, gdy zasięg działania urządzenia wejściowego jest znacznie mniejszy od odległości panujących w eksplorowanym świecie (np. przełożenie odległości pokonywanych krokami na poruszanie się po scenie 3D lub wyciąganie ręki po znacznie oddalony obiekt).

Pierwszym zagadnieniem, które należy rozważyć jest wybór metody określania kierunku ruchu. Nasze urządzenia posiadają jedynie trzy, a w przypadku rękawic dwa stopnie swobody. Wydaje się naturalne przypisanie stopniom swobody kierunków nawigacji. Można w tym celu zaangażować stopnie swobody z kasku multimedialnego, a wtedy kierunek patrzenia będzie zgodny z kierunkiem ruchu. Można również wykorzystać stopnie swobody rękawic i wtedy sposób ustawienia ręki będzie determinował kierunek poruszania się. Badania [1, 2] pokazują jednak, że najdogodniej jest przypisać kierunek marszu do kierunków pochylenia ręki (tab. II.2.1), zaś stopnie swobody systemu śledzenia zamontowanego na kasku należy pozostawić dla swobodnego rozglądania się w czasie marszu. Ponieważ nasze rękawice mogą rozpoznawać tylko dwie osie obrotu, celowe wydaje się uznanie za najistotniejsze skrętów w lewo i prawo, aby zapewnić najczęstsze zmiany kierunku ruchu, zaś obroty wokół drugiej osi ręki mogą być odpowiedzialne za skręty w górę i w dół. Gdy korzystamy z kasku wtedy jego stopnie swobody umożliwiają obserwatorowi rozglądanie się we wszystkich kierunkach i pod każdym kątem. Używając kasku skręty rękawicy w górę i dół pozostają nie wykorzystane. Gdy nie używamy kasku wtedy implementacja pochylania ręki w górę i w dół zastępuje obroty systemu śledzenia kasku (tab. II.2.1). Przy określaniu kierunku poruszania się w wirtualnej galerii zakładam dodatkowo, że poziomy podłogi i oczu obserwatora nie ulegają zmianie podczas symulacji, co odpowiada faktycznej sytuacji w świecie rzeczywistym.




Tabela II.2.1 Sposoby nawigacji w wirtualnej galerii sztuki. Nawigacja w biurkowych systemach VR wymaga używania zarówno myszy jak i klawiatury


Metoda nawigacji

Akcja użytkownika

Ruch do przodu/tyłu

Obrót w lewo/prawo

Obrót dół/góra

Zatrzymanie ruchu

Klawiatura

Klawisz strzałki do góry/dołu

Klawisz strzałki lewo/prawo

Klawisz S/W

Puszczenie klawisza

Mysz 2D




Wciśnięcie prawego klawisza myszy i ruchy myszką w lewo/prawo

Wciśnięcie prawego klawisza myszy i ruchy myszką w dół/góra

Puszczenie klawisza myszy

Komendy głosowe

Komendy głosowe „MOVE FPRWARD”/”MOVE BACK”

Komendy głosowe “TURN LEFT”/”TURN RIGHT”




Komenda głosowa “STOP”

Gesty

Ruch do przodu - palec wskazujący i serdeczny wyprostowany, reszta zagięta.

Ruch do tyłu - palec wskazujący wyprostowany, reszta zagięta.





Wykonanie gestu zagięcia palca serdecznego i środkowego oraz obrót dłoni w lewo/prawo



Wykonanie gestu zagięcia palca serdecznego i środkowego oraz obrót dłoni w przód/tył



Rozluźnienie ręki





Kwestia prędkości i przyspieszenia podczas poruszania się przysparza najmniej problemów. Zgodnie z uprzednio przyjętymi założeniami pozostawiono stałą prędkość, której współczynnik można ustalić w zależności od wielkości pomieszczenia. Nie implementowano również poruszania się z przeskokami, czyli takiego, w którym pomijana jest kwestia szybkości i przyspieszenia ruchu swobodnego, a obserwator jest przenoszony do miejsca wcześniej wyselekcjonowanego w scenie.

Ostatnim zadaniem jest określenie warunków krańcowych, determinujących momenty początku, końca lub zmiany kierunku ruchu. Ponieważ wszystkie przydatne stopnie swobody z rękawic i kasku są już wykorzystane, sposobem na rozpoczęcie ruchu lub jego zatrzymanie może być oprogramowanie gestów, po których rozpoznaniu punkt obserwacji będzie stawał, bądź wznawiał ruch. Istnieje również możliwość wydania komend słownych. Gesty postanowiłem wykorzystać dla pozostałych zadań interakcji, takich jak selekcja bądź manipulowanie obiektami, ponieważ są one naturalne w takich sytuacjach. Ponadto mnożenie gestów nie jest pożądane. Ich liczba powinna być ograniczona do najprostszych i najbardziej intuicyjnych. Znacznie naturalniejszym sposobem określania warunków krańcowych jest wydawanie komend głosem (tab. II.2.1). Cóż bowiem jest bardziej naturalnego i mniej wyczerpującego od wypowiedzenia polecenia, które następnie wykonywane jest przez komputer.


2.1.5. Podsumowanie i wnioski
Jakkolwiek głównym celem poprzedniego rozdziału była analiza nawigacji w przestrzeni wirtualnej galerii sztuki, to większość poruszanych zagadnień dotyczyła ogólnych problemów nawigacji. Wniosek, który od razu się nasuwa to fakt, że przestrzeń jest ogromna, a możliwości zgubienia się w niej lub stracenia orientacji jest bardzo wiele. Głównym więc problemem przy projektowaniu nawigacji jest takie określenie warunków, aby obserwator jak najszybciej zaaklimatyzował się w nowym środowisku i potrafił z niego sprawnie korzystać. Z doświadczenia wynika, że gdybyśmy dali użytkownikowi do dyspozycji wszystkie możliwości, jakie dają urządzenia wejściowe to użytkownik bardzo prędko straciłby orientację. Jednym z podstawowych zabiegów jakie stosuje się w nawigacji jest wprowadzenie licznych ograniczeń, które nie będą negatywnie odbierane przez użytkownika, a jednocześnie zapobiegną jego dezorientacji w przestrzeni.

Testowany przez nas sprzęt wyposażony jest maksymalnie w trzy stopnie swobody, a więc zbyt mało, aby przenieść do rzeczywistości wirtualnej zwykłe przemieszczanie się. Stąd główną rolę odegrały komendy wydawane głosem, a obecne w kasku 3 stopnie swobody wykorzystane zostały do rozglądania się po wirtualnej galerii. Można było zaprzęgnąć do nawigacji cały zestaw gestów, których niezliczoną ilość jesteśmy w stanie zdefiniować. Ta metoda rodzi jednak niezbyt intuicyjne rozwiązania, które wymagały by nauki szeregu skomplikowanych gestów. Dodatkowo przy definiowaniu gestów pojawił się problem anatomiczny użytkowników. Okazuje się, że różne osoby mają różne zakresy zginania palców, a co za tym idzie niektóre gesty stawały się niemożliwe do wykonania jedną ręką, lub w najlepszym przypadku te same gesty u różnych osób dawały inne współczynniki zgięcia palców i zarazem różną interpretację. Uwzględniając te doświadczenia, staraliśmy się ograniczyć używanie rękawic w nawigacji do minimum, aby zarezerwować je dla tych zadań interakcji, w których jest ona faktycznie niezbędna. W nawigacji rękawica wykorzystywana jest jedynie do wskazywania kierunku ruchu (obroty dłoni, z określonym gestem, powodują zmianę kierunku ruchu w lewą bądź w prawą stronę), co ma uniezależnić kierunek patrzenia od kierunku ruchu i umożliwić rozglądanie się podczas przemieszczania się.

Pewną innowacją jest wykorzystanie w nawigacji komend głosowych. Było to możliwe dzięki wykorzystaniu Microsoft Speech API. Biblioteka ta umożliwia rozpoznawanie mowy w języku angielskim w dwojaki sposób: swobodne rozpoznawanie tekstu mówionego i rozpoznawanie komend wybranych spośród predefiniowanego zbioru. Pierwsza z tych metod okazała się zupełnie bezużyteczna, ponieważ obecny stopień jej zaawansowania dawał ok. 30% skuteczność. Druga zaś, przy odpowiednio zdefiniowanych komendach daje niemalże stu procentową skuteczność, a tym samym zadowolenie użytkowników. Jedyną kwestią, na którą należy zwrócić uwagę definiując komendy to fakt, że definiując krótkie komendy mamy pewność, że na pewno zostaną one zrozumiane, nawet gdy osoba mówi niewyraźnie. Wadą jest to, że przy krótkich komendach wiele dźwięków pochodzących z otoczenia jest przyporządkowywanych przez gramatykę do komend i wykonywane są one pomimo naszej woli. Można sobie jednak z tym łatwo poradzić. Wystarczy definiować komendy wielowyrazowe, najlepiej krótkie zdania, a możemy mieć pewność, że zostaniemy dobrze zrozumiani przez komputer.

Mamy świadomość, że zaproponowaną przeze nas metodę nawigacji można udoskonalić, szczególnie, jeśli wykorzystywane będą urządzenia wejściowe o większej liczbie stopni swobody, jednak zaproponowane rozwiązania dały wskazówki odnośnie specyfiki poruszania się w wirtualnej przestrzeni.


2.2. Interakcja
2.2.1. Dotychczasowy stan zagadnienia i cele badań
Powstało już wiele prac z dziedziny interakcji i modelowania zachowań obiektów. Dość obszerne prace z dziedziny problemów interakcji w środowiskach zanurzonych zostały zaprezentowane przez Douglas’a A. Bowmana [10] i Marka R. Mine’a [3]. Analiza interakcji rozumianej jako: nawigacja, selekcja i manipulacja zaowocowało stworzeniem taksonomii, będącej bardzo cennym narzędziem podczas tworzenia i analizowania nowopowstałych rozwiązań. Kolejne dwie prace [13, 14], opisują nowe metody selekcji i manipulacji oraz wprowadzają ciekawe ulepszenia do propozycji Bowman’a i Mine’a. Wspomniane prace wraz z dwoma innymi pracami Bowman’a [15, 16] przedstawiają bardzo cenne, z punktu widzenia nauki, testy proponowanych metod pozwalające na testowanie i porównywanie implementacji. Trochę inne podejście do zasad interakcji zaprezentowali w swoich pracach Marcello Kallmann [11] i Kulwinder Kaur [12]. Ich rozwiązania wykraczają poza proste implementacje wirtualnych urządzeń i uzupełniają je o inteligentne zachowania wspomagające działania użytkownika.

Większość sztuki współczesnej to rzeźby lub instalacje posiadające cechy grupy 2 lub 3 (tab. II.1.1), co czyni je predysponowanymi do prezentacji w wirtualnym środowisku. Podczas zwiedzania wirtualnej galerii użytkownik ma, bowiem nie tylko możliwość swobodnego poruszania się po przestrzeni galerii i obserwowania dzieł sztuki z różnych kierunków, ale przede wszystkim może wchodzić z nimi w interakcję. Interakcja z działami sztuki bywa szczególnie kłopotliwa, gdy mamy do czynienia ze złożonymi modelami przestrzennymi, którego elementy zależne są od bezpośredniej akcji użytkownika, bądź specyficznych warunków środowiskowych (np. elementy rzeźby poruszane podmuchami wiatru). W takich sytuacjach interakcja powinna być rozważana równolegle z zachowaniami komponentów dzieł sztuki.

Aby najlepiej zaprojektować wirtualną prezentację takich dzieł trzeba przeanalizować różne techniki interakcji, aby wybrać rozwiązania, które są najprostsze, najbardziej intuicyjne i co najważniejsze najlepiej pasują do intencji twórcy danego dzieła sztuki. Poniższe rozważania oparte zostaną na przykładzie dwóch wybranych prac studentów Akademii Sztuk Pięknych w Łodzi. Zaproponowany model interakcji będzie uwzględniał ograniczenia wykorzystywanego sprzętu: rękawicy cyfrowej firmy 5DT oraz kasku wirtualnego HMD V6, wyposażonych odpowiednio w 2 i 3 stopnie swobody.
2.2.2. Analiza interakcji

Powodzenie i użyteczność wirtualnej rzeczywistości leżą głównie w możliwościach technik interakcji. Programista musi wybrać, spośród różnych technik interakcji, te rozwiązania, które najlepiej odpowiadają wymogom aplikacji. Analizę trzeba rozpocząć od przestudiowania odpowiedniej taksonomii. Techniki interakcji można bowiem podzielić na pewne elementarne zadania takie jak: selekcja, manipulacje i warunki krańcowe dla chwytania i uwalniania aplikacji [10] (rys.II.2.4).










Rys. II.2.4 Taksonomia interakcji


Przedstawiona powyżej kategoryzacja to czysta analiza możliwości interakcji, jaką może przeprowadzić użytkownik wykorzystując różne możliwości urządzeń wejściowych. Jednakże w najnowszych badaniach nie powinno zabraknąć rozwiązań interakcji, które oprócz ograniczeń sprzętowych pokonują problemy związane z brakiem przyzwyczajenia użytkownika do zachowania w wirtualnej rzeczywistości i dezorientacją w wirtualnej przestrzeni.

Wysiłki badaczy zmierzają w stronę udoskonalenia procesu projektowania środowiska wirtualnej rzeczywistości i samych obiektów, tak aby zakres możliwych zachowań był łatwiejszy do opanowania i kontrolowania [12].

Wirtualna rzeczywistość wymaga również zdefiniowania funkcjonalnych implementacji różnych zachowań, które maksymalnie dokładnie powinny odzwierciedlać zjawiska charakterystyczne dla realnego świata. Zachowanie natomiast rozumiane jest jako zestaw funkcjonalności dostępnych dla wybranego dzieła w konkretnych okolicznościach. Funkcjonalności, czyli naturalne, intuicyjne zachowania będące wynikiem chemio-fizycznych właściwości obiektu jak również działań będących bezpośrednim wynikiem interakcji, ograniczonej przez użytkownika bądź inny obiekt. W większości przypadków obiekty umieszczane w wirtualnej rzeczywistości to ciała stałe, a brak cech charakterystycznych dla płynów i gazów czyni je łatwiejsze do opisywania i modelowania. Ponieważ są one zazwyczaj wkomponowane w otaczającą rzeczywistość to ich zachowanie podlega pewnym ograniczeniom [17]. Najważniejsze ograniczenia to oczywiście prawa fizyki, które nieodłącznie towarzyszą otaczającej rzeczywistości i muszą być zaimplementowane w wirtualnym środowisku. Inne ograniczenia dotyczą zachowań, które w znacznym stopniu ułatwiają chwytanie i manipulowanie obiektów. Bardzo cenną innowację dla zwiększenia realizmu sceny stanowi implementacja ciągu przyczynowo-skutkowego zachowań. Takie logiczne połączenia zdarzeń powodują, że zachowania obiektów stają się bardziej przewidywalne i intuicyjne. Co więcej definicje takich zachowań powinny być zbudowane w sposób pozwalający na wpływanie na poczynania użytkownika. Niektóre definicje powinny zachęcać, a niektóre zniechęcać do podjęcia pewnych czynności. Wszystkie z powyższych innowacji zwiększają wrażenie zanurzenia i realizmu w wirtualnej rzeczywistości.

Kolejnym elementem analizy procesu interakcji jest problem mierzaloności jakości zaproponowanych rozwiązań. O ile taksonomia daje użytkownikowi możliwość tworzenia nowych rozwiązań interakcji jako kombinacji: selekcji, manipulacji i warunków krańcowych o tyle lista właściwości technik interakcji pozwala użytkownikowi na ocenę testowanych technik jak i wprowadzanie nowych rozwiązań zgodnych z ograniczeniami eksplorowanych środowisk. Sugerowana lista właściwości technik manipulacji i selekcji może obejmować [10]:

- prędkość (efektywność przeprowadzenia zadania)

- dokładność selekcji (możliwość wyselekcjonowania wybranego obiektu)

- dokładność pozycji (możliwość osiągnięcia zamierzonej pozycji bądź orientacji)

- łatwość nauki (łatwość opanowania techniki przez nowicjuszy)

- łatwość użytkowania (złożoność wykonywania zamierzonych czynności z punktu widzenia użytkownika)

- zanurzenie (stopień zanurzenia użytkownika w wirtualnej rzeczywistości podczas korzystania z techniki interakcji)

- cechy selekcji (ilość obiektów i odległość od obiektu, który ma być wyselekcjonowany)

- cechy manipulacji (możliwość określenia pozycji i orientacji obiektu w środowisku)

- komfort użytkownika (brak fizycznego dyskomfortu i nudności podczas używania techniki)

Wszystkie wymienione powyżej czynniki powinny być rozważone podczas tworzenia docelowych aplikacji. Z drugiej strony systemy, które wykorzystują do manipulacji obiektu sześć stopni swobody mogą zmuszać użytkowników systemów do wykonywania dziwnych ruchów lub przyjmowania kłopotliwych pozycji. Z takich względów implementację każdej techniki powinna poprzedzać dokładna analiza i decyzja, które z wymienionych czynników są najważniejsze, a które mogą być całkowicie pominięte.


2.2.3. Interakcja w wirtualnej galerii sztuki
2.2.3.1. Analiza wymagań

Rozwiązania interakcji implementowane w wirtualnej galerii sztuki są niejednokrotnie bardzo specyficzne. Projektanci aplikacji muszą niejednokrotnie pokonywać problemy związane zarówno z istotą wirtualnej rzeczywistości jak i wymaganiami narzuconymi na prezentację dzieł sztuki (tabela II.2.2 [9]). Zachowania dzieł sztuki zależą od ich potencjalnych możliwości ruchowych wywołanych przez akcję użytkownika lub wpływ otaczającego środowiska. Ponadto zachowania użytkowników powinny być możliwie zbliżone do rzeczywistego i realnego kontaktu z dziełem sztuki: łatwe, nie wyszukane, pozbawione elementów destrukcji i zachowań nie wnoszących nic do poznania eksplorowanego działa sztuki. Tak postawione założenia muszą oczywiście powodować pewne ograniczenia w zachowaniach dzieł sztuki.




Tabela II.2.2. Analiza wymagań, które muszą być spełnione podczas prezentacji czasoprzestrzennych dzieł sztuki w wirtualnej rzeczywistości (oparte na pracach studentów Akademii Sztuk Pięknych w Łodzi), gdzie: A – dzieła z ustaloną przestrzenną orientacją, B – dzieła bez ustalonej pozycji w przestrzeni. Grupy I, II i III są zdefiniowane w pierwszym rozdziale; część tabeli II.1.1.


    Zachowania dzieł sztuki

    Zachowania użytkownika

    Grupa II (A, B)

    Grupa III (A)

    Grupa I (A)

    Grupa II (A, B)

    Grupa III (A)

  1. 3. Ruchowość elemetów dzieł sztuki zgodna z intencjami artysty



  1. 3. Ruchowość elemetów dzieł sztuki zgodna z intencjami artysty

    1. Swobodna nawigacja w przestrzeni (pominięta grawitacja)

    2. Wszystkie przestrzenne cechy dzieł (założone przez artystę) dostępne do obserwacji z dowolnego miejsca przestrzeni.

3. Wolny wybór jak i w jakiej kolejności elementy są obserwowane.



3. Określona kolejność i sposób oglądania elementów dzieła sztuki przez:

  1. przemieszczenia,

  2. obroty,

  3. podnoszenie, (dotyczy B),

    mm np.: ruszając poszczególne elementy (zgodnie z możliwościami konstrukcji modelu)

    3.Możliwość poruszenia i zatrzymania ruchomych elementów

    4. Znalezienie miejsca w przestrzeni, które jest optymalne I najlepsze z punktu widzenia artysty.

    4. Symulacja zjawisk powodowanych ruchowością elementów




Sugestie zawarte w tabeli II.2.2 dotyczą zarówno problemów interakcji jak i implementacji zachowań. Pomimo wymagań odzwierciedlających punkt widzenia artysty, które zawiera tabela II.2.2 są również ogólne ograniczenia, nie wymienione w tabeli, które powinny być zaimplementowane.

Analiza czynników określających jakość poszczególnych metod może dostarczyć głównych zarysów szukanych rozwiązań. Prędkość interakcji powinna być wystarczająca, aby użytkownik był w stanie zapoznać się z wybranym dziełem. Ponadto powinna być wystarczająca, aby zapewnić użytkownikowi płynną realizację zamierzonych celów. Kolejnymi czynnikami są dokładność selekcji i pozycjonowania. Tutaj problem wybierania ogranicza się do wybrania całych obiektów, co nie jest trudne zważywszy na rozmiar wybieranych dzieł. Bardzo ważnymi czynnikami są natomiast łatwość nauki i łatwość użytkowania. Większość użytkowników to osoby, które nie są profesjonalistami, a wirtualna rzeczywistość jest dla nich kompletną nowością. Aplikacja powinna więc stanowić źródło nowych sposobów poznania, a nie zniechęcać trudnością obsługi. Wrażenie zanurzenia w wirtualnej rzeczywistości zależy głównie od sprzętu, którym dysponujemy, a jedynie w pewnym zakresie od zaimplementowanych sposobów interakcji. Zła implementacja interakcji, jak chociażby szybkie zmiany pozycji, mogą jednak osłabić wrażenie zanurzenia.

Ponieważ sale wirtualnej galerii stuki nie są zbyt duże, a użytkownicy wolą manipulować dziełami będącymi w zasięgu ręki, wskazane jest ograniczenie ilości wyselekcjonowanych obiektów do jednego dzieła. Nawet, jeśli użytkownik może wyselekcjonować dzieło, ze znacznej odległości, to po selekcji powinien mieć możliwość przeniesienia się w miejsce najdogodniejsze do manipulowania nim.

Ostatnim, ale niezmiernie ważnym czynnikiem jest komfort użytkownika. Trzeba przyznać, że właśnie ten czynnik wpływa bezpośrednio na popularność danej metody interakcji. Główne czynniki wpływające na komfort to wykorzystywany sprzęt oraz implementacja interakcji i nawigacji. W czasie testowania metod interakcji i nawigacji zauważyliśmy, że pomimo usilnych starań aby uczynić eksplorację maksymalnie przyjemną dla użytkownika, zdarzały się przypadki zawrotów głowy i nudności podczas eksploracji przestrzeni z wykorzystaniem kasku wirtualnego. Działo się tak przede wszystkim w przypadku szybkich zmian w bliskim polu widzenia obserwatora, które raczej nie występują w rzeczywistości (sytuację można porównać do jazdy na karuzeli i patrzenia się w jej środek – u niektórych ludzi wywołuje to mdłości).

Należy więc wziąć pod uwagę, że wirtualna rzeczywistość przełamując bariery, których nie da się przełamać w rzeczywistym świecie może nie być zbyt przyjazna dla odbiorcy. Zaproponowane przez nas rozwiązania są przyjazne użytkownikowi, efektywne a co najważniejsze dają odbiorcy potężne narzędzie do poznawania dzieł sztuki w wirtualnej przestrzeni.
2.2.3.2. Implementacja interakcji

Implementacje omawiane w tym rozdziale opierają się na dwóch przykładowych pracach studentów Akademii Sztuk Pięknych w Łodzi. Są to: czarna skrzynka z cylindrem obracającym się wokół jego osi symetrii (rys. II.2.5a) i labirynt, którego obroty wokół dwóch niezależnych osi poziomych powodują ruchy dwóch niezależnych kulek (rys. II.2.5b). Zgodnie z przedstawioną wcześniej tabelą II.2.2 prace te należą odpowiednio do II i III grupy.


a)

b)

Rys. II.2.5. Wirtualne modele prac studentów Akademii Sztuk Pięknych w Łodzi - a) czarna skrzynka, b) labirynt

Zaproponowane dla powyższych przykładów techniki interakcji powinny dostarczyć odbiorcy jak najwięcej możliwości poznawczych oraz charakteryzować się dużą efektywnością. Należy więc oprzeć wybór technik na analizie czynników określających jakość ich poszczególnych elementów składowych.

Dla przykładowych prac studenckich problem prędkości interakcji prawie nie istnieje, gdyż selekcja następuje w trybie natychmiastowym, gdy bryła otaczająca awataru ręki przetnie się z bryłą otaczającą wybranego obiektu lub gdy przedłużenie wektora przechodzącego przez punkt widzenia i awatar ręki przetnie bryłę otaczającą zadanego obiektu (zdalne wskazanie obiektu). Kolejna metoda selekcji to wykorzystanie komend głosowych. Dzieła sztuki mają swoje nazwy odpowiednio dla czarnej skrzynki box i dla labiryntu maze, które jednoznacznie identyfikują dane dzieło i użytkownik automatycznie przenoszony jest w tryb selekcji. Trzeba w tym momencie podkreślić, że dopiero wyselekcjonowanie obiektu daje użytkownikowi możliwość chwycenia go. Tryb selekcji jest pokazywany odbiorcy przez zmianę koloru awatara ręki. W momencie wykonania gestu pięści dajemy programowi jednoznaczny sygnał o przejściu w tryb manipulacji. Jest to dodatkowo sygnalizowane zniknięciem awataru ręki na czas manipulowania obiektem. Rozluźnienie (wyprostowanie) ręki powoduje pojawienie się awatara i płynne opuszczenie trybu manipulacji oraz przejście w tryb selekcji.

W przypadku manipulacji, jej prędkość jest ściśle związana z prędkością ruchu ręki, która bezpośrednio wpływa na prędkość manipulacji obiektu. Takie rozwiązanie daje użytkownikowi bezpośredni wpływ na prędkość manipulowania wybranym obiektem. Tak więc, gdy wybierzemy czarną skrzynkę, a właściwie jej obrotowy cylinder to dopóki będziemy obracać rękawicą i utrzymywać gest pięści dopóty będziemy mogli zaobserwować odpowiednie obroty cylindra wokół jego osi symetrii (rys. II.2.5a). Podobnie jest w przypadku labiryntu, który może obracać się wokół dwóch poziomych, prostopadłych osi w zakresie 40 stopni dla każdego z kierunków obrotu. Powyższe ograniczenia wynikają z założeń artysty, który nie chciał, aby można było obrócić labirynt do góry nogami i spowodować wypadnięcie kulek (rys. II.2.5b).

Problem łatwości nauki i użytkowania jest wspomagany na różnych płaszczyznach. Wizualne cechy takie jak zmiana koloru awataru przy przejściu w tryb selekcji czy jego znikniecie po przejściu w tryb manipulacji dostarczają bardzo cenną pomoc widzowi. Do ułatwień bez wątpienia można zaliczyć również ograniczenia w manipulacji takie jak obracanie cylindra czarnej skrzynki tylko wokół osi symetrii, a dla labiryntu obroty bryłą wokół jedynie dwóch osi i to w ograniczonym zakresie. Dzięki tym zabezpieczeniom unikamy sytuacji zdemontowania dzieła lub niepożądanego przemieszczenia jego elementów składowych.

Ostatnim zagadnieniem jest kwestia uwolnienia obiektu i przejścia do swobodnej nawigacji lub następnej selekcji. W naszym modelu odbywa się to całkiem intuicyjnie. Rozprostowanie ręki (wykonanie dowolnego gestu różnego od pięści) powoduje automatyczne zwolnienie obiektu i przejście w tryb nawigacji.

Interakcję z obiektami można ograniczyć do trzech elementarnych czynności: obrotów, przesunięć i wciśnięć – uproszczonych przesunięć. Dla przykładowych prac studentów zaimplementowano tylko obroty, gdyż to stanowiło podstawę ich działania. Rozwiązanie sposobu obrotów okazało się na tyle uniwersalne, że zastosowaliśmy je również do innych modeli wirtualnej galerii sztuki („rolki z nitkami” i „Rolki” Jacka Robaczewskiego). Różnice pomiędzy poszczególnymi pracami w wirtualnej galerii pojawiają się dopiero w sferze szeroko rozumianych zachowań: dodatkowe zaimplementowanie inercji, powiązanie obrotów z poruszaniem się kulki po równi pochyłej czy nawijanie się nitki na rolkę, która to z kolei pociąga za sobą klapkę. Pomimo tak różnych modeli wprowadzono jeden uniwersalny sposób manipulowania nimi. W wirtualnej galerii nie zaimplementowano przesunięć, gdyż omawiane utwory nie powinny zmieniać swojego położenia. Jedynie w przypadku włącznika neonu zaimplementowano wciśnięcie przycisku za pomocą prostego gestu (zagięcie palca wskazującego). Nie trzeba bowiem dla prostych przełączników stosować całego mechanizmu przesuwania obiektów, a jedynie obsłużyć zmianę za pomocą odpowiednio zdefiniowanego zdarzenia (gest, komenda słowna).

Dyskutując o zaproponowanych implementacjach interakcji trzeba mieć na uwadze ograniczenia wykorzystywanego sprzętu. Przykładowo rękawica cyfrowa posiada dwa stopnie swobody, co jest zupełnie wystarczające do obrotów omawianymi obiektami, jednak nastręcza poważnych problemów w przypadku sterownia pozycją obiektu. Trzeba wtedy uciekać się do stosowania dodatkowych rozwiązań, tj. gestów lub komend słownych. Chociaż wymienione niedogodności łatwo zniwelować zmieniając wykorzystywany sprzęt to zaproponowane przez nas rozwiązania pozwalają na stabilny i satysfakcjonujący model interakcji w wirtualnym środowisku.


2.3. Bibliografia
[1] A Methodology for the Evaluation of Travel Techniques for Immersive Virtual Environments, Doug A. Bowman , David Koller, Larry F. Hodgas, College of Computing Graphics, Visualization and Usability Center, Atlanta, 1997

[2] Travel in Immersive Virtual Environments: An Evaluation of Viewpoint Motion Control Techniques, Doug A. Bowman , David Koller, Larry F. Hodgas, College of Computing Graphics, Visualization and Usability Center, Georgia Institute of Technology, Atlanta, 1997

[3] Virtual Environment Interaction Techniques, Mark R. Main, Department of Computer Science, University of North Carolina, Chapel Hill, 1995

[4] Eksploracja przestrzeni 3D przy wykorzystaniu systemu śledzenia, IX Konferencja „Sieci i Systemy Informatyczne”, Adam Wojciechowski, Łódź, październik 2001

[5] User Manual for InterTrax 1.0 and above, InterSense Inc., Burlington, Massachusetts 01803, USA

[6] Microsoft Speech API SDK 5.1, http://www.microsoft.com/speech

[7] 5DT Data Glove 5-W User’s Manual, 5 Digital Technolody, 0020 Pretoria, South Africa

[8] Sterowanie mową w wirtualnej galerii Sztuki, A. Wojciechowski, X Konferencja „Sieci i Systemy Informatyczne”, Łódź, październik 2002

[9] Presentations of time-spatial works-of-art in virtual reality, Lesław Miskiewicz, Maria Pietruszka, (2002), IAESTD

[10] Interaction techniques for common tasks in immersive virtual environments, Douglas A. Bowman, (1999), A Thesis Presented to The Academic Faculty, Georgia Institute of Technology

[11] Direct 3D interaction with smart objects, Marcello Kallmann, Daniel Thalmann

[12] Improving interaction with virtual environments, Kulwinder Kaur, Alistair Sutcliffe and Neil Maiden, (1998), Paper presented at IEE Colloquium on “The 3D interface for the information worker”, London

[13] A study techniques for selecting and positioning objects in immersive VEs: effects of distance, size and visual feedback, Ivan Poupyrev, Suzanne Weghorst, Mark Billinghurst, Tadao Ichikawa

[14] Aperture Based Selection for Immersive Virtual Environments, Andrew Forsberg, Kenneth Herndon and Robert Zeleznik, (1996), roceedings of UIST’96, ACM, 95-96

[15] Testbed Evaluation of Virtual Environment Interaction Techniques, Doug A. Bowman, Donald B. Johnson, Larry F. Hodgas, (1999), Proceedings of the ACM Symposium on Virtual Reality Software and Technology, 26-33

[16] An Evaluation of Techniques for Grabbing and Manipulating Remote Objects in Immersive Virtual Environments, Doug A. Bowman, Larry F. Hodges, (1997), Proceedings of the ACM Symposium on Interactive 3D Graphics, 35-38



[17] 3D Games . Real-time Rendering and Software Technology, Alan Watt, Fabio Palicarpo, Addison-Wesley 2001




©absta.pl 2016
wyślij wiadomość

    Strona główna