Wiedza o tym, jak lokalizujemy nasze kończyny, pomaga w udoskonaleniu interfejsów komputerowych
Dzięki propriocepcji możemy z łatwością opisać lokalizację naszej lewej dłoni lub wskazać ją prawą ręką, nawet z zamkniętymi oczami. Co więcej, nigdy nie czujemy, że nasza dłoń znajduje się w dwóch miejscach na raz, choć przetwarzamy jednocześnie informacje wzrokowe i propriocepcyjne o jej aktualnym położeniu. W ramach projektu LOCANDMOTION (Sensory integration for limb localization and action), finansowanego ze środków UE, badano, w jaki sposób zmysł wzroku i propriocepcja wspólnie określają lokalizację dłoni i obiektu docelowego. Uczeni sprawdzili hipotezę, zgodnie z którą propriocepcja opiera się na korygowaniu linii wzroku, a korygowanie międzysensoryczne nie jest potrzebne do efektywnego działania. Analiza piśmiennictwa przedmiotu oraz doświadczenia dowiodły, że propriocepcja może nie być szczególnie skuteczna w identyfikacji położenia dłoni względem obiektu docelowego. Podczas wykonywania wielu ruchów w ciemności dłoń może oddalać się od obiektu docelowego bez wiedzy jej właściciela. Uczeni dowiedli, że oddalanie to wynika z uprzedniego przekonania osoby wykonującej ruch co do tego, że jej zdolność znalezienia obiektu docelowego jest bardzo duża, co może być efektem codziennych doświadczeń płynących z wykonywania ruchów przy pełnej kontroli wzrokowej. Błędy w ruchu ulegają akumulacji do momentu, aż błąd propriocepcji zacznie podważać wiarę w polecenia motoryczne (nakazujące dłoni, w którym kierunku ma się poruszać). Oddzielne badanie, którego uczestników poproszono o opisanie postrzeganego przez nich położenia niewidzianej dłoni, pokazało, że oczekiwanie co do zdolności poleceń motorycznych może być traktowane przez mózg jako ważniejsze od sygnałów czuciowych. To i wcześniejsze badanie polegało na określaniu położenia nieruchomej dłoni po poruszeniu nią. Kolejne dwa badania koncentrowały się na lokalizacji dłoni podczas ruchu. W pierwszym badaniu zaobserwowano, że kiedy obiekt docelowy był widoczny, wówczas informacje wzrokowe były ważniejsze dla kontroli ruchu, ale w sytuacji gdy obiekt był propriocepcyjny, uczestnicy polegali w większym stopniu na propriocepcji. W ramach drugiego badania opisano model wyjaśniający, dlaczego ludzie mają skłonność do przeszacowywania położenia niewidocznej dłoni podczas ruchu oraz do niedoszacowywania w przypadku sięgania w kierunku obiektu docelowego. Projekt LOCANDMOTION poszerzył naszą wiedzę na temat przyczyn stosowania propriocepcji, zjawiska poznanego gorzej niż wzrok. Znajomość integracji sensorycznej pomoże poprawić adaptację ludzi do systemów rzeczywistości wirtualnej, rzeczywistości mieszanej i telesterowania, a w efekcie przyczyni się do powstania lepszych interfejsów komputerowych.
Słowa kluczowe
Interfejsy komputerowe, propriocepcja, integracja sensoryczna, lokalizacja kończyn, polecenie motoryczne