Tastsinn
Die Interpretation stimulierender Einflüsse unserer Umgebung erzeugt Abbilder unserer Umgebung, auf denen unsere Aktionen, Gedanken und spontanen Reaktionen basieren. Dieser beeindruckend komplexe Vorgang wird solange als selbstverständlich angesehen, bis ein Sinn verloren geht. Ziel des Projektes mit dem passenden Namen SENSEMAKER war die Entwicklung elektronischer Geräte, die sensorische Informationen unterschiedlicher Modalitäten als Eingabe nutzen. Nach der Informationsverarbeitung erhält der Benutzer eine Darstellung seiner Umgebung. Vergleichbar mit dem Gehirn, das relevante Informationen aus der sensorischen Darstellung extrahieren kann, ist die Softwareplattform in der Lage, ausgewählte Informationen aus Modalitäten zu verarbeiten. Die Projektpartner haben die Sinne Sehen, Hören und Fühlen mithilfe interner motorischer Befehle untersucht. Im Rahmen der biologischen Komponente des Projektes haben sich Forscher am Trinity College in Dublin/Irland dazu entschlossen, den Tastsinn und den zugehörigen Interpretationsmodus im Gehirn zu untersuchen. Wie das zentrale Nervensystem sensorische Informationen tatsächlich verarbeitet, ist ein wichtiges Merkmal für die Entwicklung der Software des Projektes. Beispielsweise ist bekannt, dass der Gesichtssinn zwei unterschiedliche Information verarbeitet, räumliche Wahrnehmung und Erkennung. Das Team hat beide Verhaltensparameter mithilfe funktioneller MRI (functional magnetic resonance imaging, fMRI) untersucht, um Reaktionen auf unbekannte Stimulationen zu untersuchen. Ergebnisse der Kernspintomografie haben gezeigt, dass haptische Informationen in Teilen des Kortex ein gemeinsam genutztes Netzwerk belegen. Insgesamt werden räumliche Informationen jedoch von der occipitoparietalen Sehbahn gehandhabt, die Erkennung dagegen von der occipitotemporalen Sehbahn. Verhaltenstests haben diese Ergebnisse unterstützt und gezeigt, dass die beiden Funktionen aufgabenabhängig sind und sich nicht gegenseitig beeinflussen. Eine weitere interessante Erkenntnis ist, dass der Gesichtssinn Auswirkungen auf den räumlichen Tastsinn und die Erkennung von Objekten hat. Bei der Verringerung visueller Informationen wird die Verhaltensleistung durch eine Kombination der beiden Sinne verbessert. In Zusammenarbeit mit der Electronic Vision Group am Kirchhoff-Institut für Physik der Universität Heidelberg hat das Team aus Dublin das Virtual Haptic Display (VHD) entwickelt. Das im Vergleich zum Vorgängermodell innovative Merkmal ist, dass es sich nicht auf passive Eingaben verlässt, sondern aktive Untersuchungen erforderlich sind. Das Abbild wird entweder ganz angezeigt oder mithilfe einer regelbaren Blende nur teilweise. Für diese Technologie gibt es eine breite Palette an Anwendungsmöglichkeiten. Patienten mit beeinträchtigter sensorischer Wahrnehmung profitieren genauso wie Systeme für Lernhilfen und Umgebungsanalyse sowie die Darstellung gefährlicher Situationen. Jetzt und zukünftig gibt es nahe liegende Anwendungen in den Bereichen kognitive Robotik, autonome Systeme und verteilte Intelligenz.