EU-Wissenschaftler schaffen virtuelle Realität zum Anfassen
Es klingt wie Science-Fiction, aber ein europäisches Forscherteam hat dank der Fortschritte in haptischer Technologie und eines neuen Konzepts zum Generieren von Inhalten der virtuellen Realität (VR) wirkliche Objekte "virtuell" durch den Cyberspace teleportiert, virtuelle Gegenstände "angefasst" und sogar die Bewegungen eines virtuellen Tanzpartners gefühlt. Die EU unterstützte die Forschungen über das Projekt IMMERSENCE ("Immersive multi-modal interactive presence") mit 5,5 Mio. EUR aus dem Themenbereich "Technologien für die Informationsgesellschaft" (IST) des Sechsten Rahmenprogramms (FP6). Die Wissenschaftler bauten auf Fortschritten in der Haptiktechnologie - Technologie, die auf den Tastsinn des Benutzers anspricht - sowie einem neuen Ansatz zur Generierung von VR-Inhalten auf, mit dem virtuelle Erfahrungen geschaffen werden sollen, die weitaus realistischer und umfassender sein sollen, als jemals zuvor. Über das Sehen und Hören ihrer virtuellen Umgebung, von Objekten und Avataren, hinaus können Benutzer diese jetzt auch anfassen. Damit ist der Weg für neue Anwendungen in den Bereichen Telepräsenz, Telemedizin, Industriedesign, Spiele und Unterhaltung bereitet. "Was das Sehen und Hören angeht, wurden in den letzten Jahren schon weitreichende Fortschritte erzielt. Nun ist der nächste Schritt, auch Berührungen im künstlichen Datenraum zuzulassen", sagte Andreas Schweinberger, Forscher an der Technischen Universität München in Deutschland und Koordinator von IMMERSENCE. "Wir wissen, dass VR-Anwendungen umso realistischer wirken, je mehr Sinne in das virtuelle Erleben einbezogen werden und je mehr Interaktion stattfindet. Und ein stärkeres Gefühl der Präsenz bedeutet ein durchdringenderes und realistischeres Erlebnis." Schweinberger leitete ein Gruppe mit Forschern von neun Universitäten und Forschungseinrichtungen aus ganz Europa, die eine Technologie schaffen wollten, mit deren Hilfe man VR-Objekte und -Charaktere anfassen kann. Sie entwickelten innovative haptische und multimodale Schnittstellen, neue Signalverarbeitungstechniken und eine bahnbrechende Methode zum Generieren von VR-Objekte als Darstellung realer Objekte in Echtzeit. Für die letztere Technik, entwickelt am Institut für Bildverarbeitung (Computer Vision Laboratory) der Eidgenössischen Technischen Hochschule (ETH) Zürich in der Schweiz, wurde mithilfe eines dreidimensionalen Scanners und einem modernen Modellierungssystem eine virtuelle Darstellung eines realen Objekts geschaffen. Diese kann dann über weite Entfernungen übertragen und am Zielort mit einer VR-Brille betrachtet und über ein haptisches Interface bewegt, gestoßen und gestupst werden. "Die haptische Technologie befindet sich noch im Anfangsstadium", erklärte Schweinberger. "Für das haptische Interface verwendeten wir einen Roboterarm namens PHANTOM, der über einen Kontaktpunkt verfügt. Man erhält dadurch das Gefühl, einen Gegenstand zu berühren, aber man kann ihn nicht aufnehmen oder handhaben." Er fügte jedoch hinzu, dass Forscher an der Universidad Politécnica in Madrid in Spanien diese Technologie gerade "um einen zweiten Kontaktpunkt erweitern. Dann ist das Objekt mit einer virtuellen Hand auch zu greifen." Unterdessen haben sich die Wissenschaftler an der Technischen Universität München auf die Mensch-zu-Mensch-Interaktion in einer virtuellen Umgebung konzentriert. Sie benutzten eine mobile Roboter-Plattform als Tanzpartner für einen echten menschlichen Tänzer. Mit einer VR-Brille konnte der Benutzer einen Tänzer oder eine Tänzerin sehen und mit ihm oder ihr tanzen, indem er die Roboterhände hielt, sagte Andreas Schweinberger. Forscher an der Universität Evry bei Paris in Frankreich gingen einen Schritt weiter und untersuchten, wie man die virtuelle Wahrnehmung der Handhabung eines Objekts durch zwei Menschen schaffen könnte. Die Forscher sagten, Spieler würden von den Entwicklungen "begeistert" sein. Sie unterstrichen aber, dass die Technologie auch für ernsthaftere Anwendungen eingesetzt werden könnte: Ärzte, zum Beispiel, könnten Patienten aus der Ferne behandeln und Industriedesigner könnten über die Entfernung hinweg zusammenarbeiten, indem sie berührbare Entwürfe digital über das Internet teleportieren. "Die Forschung wird auch bei der Entwicklung kognitiver Roboter helfen, die besser mit Menschen interagieren können", sagte Schweinberger. Sein Team wird an diesem Aspekt des Projekts weiter forschen, während die ETH Zürich ihren virtuellen Teleporter weiterentwickeln wird. Andere Partner werden ihre Arbeiten im Rahmen des EU-finanzierten Projekts BEAMING ("Beaming through augmented media for natural networked gatherings") weiterführen, das 9,2 Mio. EUR aus dem Themenbereich "Informations- und Kommunikationstechnologien" (IKT) des Siebten Rahmenprogramms (RP7) erhielt.