Mejora de las interfaces informáticas a partir de la localización humana de las extremidades
Gracias a la propriocepción, una persona puede decir dónde se encuentra su mano izquierda o señalarla con la mano derecha, incluso con los ojos cerrados. Es más: nunca sentirá que una mano se encuentra en dos sitios a la vez, a pesar de que el cerebro procesa simultáneamente la información visual y proprioceptiva relativa a su ubicación en un momento dado. En el marco del proyecto financiado con fondos europeos LOCANDMOTION (Sensory integration for limb localization and action) se investigó cómo se conjugan la visión y la propriocepción a fin de generar estimaciones de la ubicación de las manos y un objetivo determinado. El equipo investigador comprobó la hipótesis de que la propriocepción se resiste a un reajuste visual y que no se precisa una concordancia intersensorial para obrar con eficacia. Se realizó un estudio sobre bibliografía y experimentos pertinentes que indicó que la propriocepción quizás no sea tan útil para determinar la ubicación de una mano en relación a determinado objetivo. De hecho, muchas veces los movimientos que se realizan a oscuras pueden acabar con la mano a cierta distancia del objetivo sin que el individuo se percate de ello. Los investigadores demostraron que ese distanciamiento se debe a una creencia previa, por parte del individuo, de que su capacidad de hallar el objetivo es muy elevada, quizás a consecuencia de su experiencia cotidiana al realizar movimientos precisos contando con plena capacidad visual. Los movimientos erróneos se van acumulando hasta que un error de propriocepción socava la confianza en el control motor (que indica dónde colocar la mano). Se hizo otro estudio en el que los participantes tenían que indicar dónde percibían que se encontraba su mano, sin poder verla. Se observó que la expectativa en cuanto a la capacidad del control motor puede imponerse sobre los estímulos sensoriales. En este estudio y en el anterior había que mover la mano, dejarla inmóvil y determinar su ubicación. Hubo dos estudios más, centrados en la localización en el transcurso del movimiento. El primero de estos dos estudios mostró que, si el objetivo era visible, la información visual tenía mayor importancia para el control en línea, pero que si el objetivo era proprioceptivo entonces los participantes se fiaban más de la propriocepción para dicho control en línea. El segundo de estos dos estudios describió un modelo con el que explicar el porqué de que las personas tengan una tendencia a sobreestimar la ubicación de su propia mano al mover ésta sin poder verla, y el porqué de que la infraestimen cuando tratan de tocar un objetivo. Gracias a LOCANDMOTION se entiende mejor de qué forma las personas se valen de la propriocepción, un mecanismo menos conocido que la visión. Estos nuevos conocimientos sobre la integración sensorial servirán para mejorar el modo en que las personas se adaptan a los sistemas de teleoperación, realidad virtual y realidad mixta, por lo que depararán interfaces humano-ordenador con diseños mejorados.
Palabras clave
Interfaces informáticas, propriocepción, integración sensorial, localización de extremidades, control motor