Uso del sonido para ver a través de un sistema audiovisual único para personas con discapacidad visual
La Organización Mundial de la Salud calcula que hay 285 millones de personas que padecen discapacidad visual en el mundo. El envejecimiento de la población, junto con las enfermedades que provocan problemas de visión como la diabetes de tipo 2, hace que esta cifra esté aumentando vertiginosamente. Las personas con discapacidad visual, actualmente sin cura conocida, dependen de dispositivos de asistencia como, por ejemplo, los bastones de guía o los perros lazarillos. Sin embargo, aunque estos métodos permiten salvar obstáculos, no ayudan a las personas a comprender mejor su entorno. El proyecto financiado con fondos europeos EyeSynth ha desarrollado un sistema audiovisual para las personas con discapacidad visual, el cual consiste en unas gafas con cámaras integradas que graban el entorno en tres dimensiones (3D). A través de una conexión con un microordenador, los datos recopilados son transformados en sonidos abstractos que transmiten información espacial. Una tecnología radicalmente diferente El punto de partida del sistema EyeSynth no fue la tecnología, sino el encéfalo. «Nuestro sistema no describe el entorno con palabras, sino que proporciona información espacial sin procesar y el encéfalo del usuario la decodifica. El codiseño con nuestros probadores fue fundamental para desarrollar esta interfaz fácil de usar y efectiva», comenta el Sr. Antonio Quesada, coordinador del proyecto. El equipo llevó a cabo un gran número de pruebas, calibrando el algoritmo subyacente en base a los comentarios de los usuarios, hasta que los usuarios pudieron identificar formas y espacios, así como cuantificar la profundidad y localizar objetos con precisión. «El sistema está diseñado para ser intuitivo y los usuarios tardan en promedio entre cuarenta y cinco minutos y una hora y media en dominarlo. Este tiempo es suficiente para distinguir objetos simples o desplazarse por la oficina evitando obstáculos», dice Quesada. El sistema se compone de dos elementos principales, a saber: las gafas y la unidad de procesamiento de imágenes, que se trata de una pequeña unidad central de procesamiento con un tamaño similar al de un teléfono móvil inteligente y una batería interna que alimenta el sistema. También se puede conectar a un cargador de baterías USB convencional. El resultado son unas gafas ligeras que permiten libertad de movimiento. Existen dos modos de procesamiento de imágenes de alta calidad (60 fotogramas por segundo): el modo rastreo, en el que solo se analiza la zona central de la imagen y el usuario tiene hacer un barrido con la cabeza de izquierda a derecha, de forma similar al uso de un bastón guía; y el modo panorámico, en el que se representa simultáneamente todo el entorno, lo que proporciona mucha más información sonora y hace innecesario el rastreo. En ambos modos, en función de las necesidades diarias, la distancia de análisis ajustable es de 0,8-6 metros. Este rango es muy útil para la detección de obstáculos en la calle. Los datos en 3D son transformados en representaciones acústicas en tiempo real que recuerdan al rumor del mar, con su composición y timbre correspondientes a las formas grabadas. Estos sonidos se transmiten directamente a través de los huesos del cráneo, por lo que los oídos quedan libres para escuchar. «Decidimos prescindir del lenguaje hablado, en parte porque es difícil describir fenómenos verbalmente, causaría mucha distracción y habríamos tenido que desarrollar versiones en diferentes idiomas», comenta Quesada. Dado que las pruebas contaron con la participación principal de usuarios invidentes, el equipo está llevando a cabo un estudio médico con especialistas en oftalmología en el Hospital Provincial de Castellón (España) con el fin de trabajar con pacientes con una visión reducida. Hasta el momento, los resultados también han sido prometedores. Tecnología de empoderamiento EyeSynth mejora la autonomía e independencia de las personas con discapacidad visual, lo que evita los problemas y accidentes relacionados con las barreras físicas, a la vez que ayuda al usuario a navegar por lugares desconocidos. El objetivo del equipo es tener el primer lote en las tiendas este verano. Quesada concluye: «Seguiremos actualizando el sistema con nuevas prestaciones como, por ejemplo, el reconocimiento facial o de texto. Para que este siga funcionando como una tecnología de empoderamiento que ayude en la educación, el empleo, el ocio y, en último término, mejore la calidad de vida, escucharemos sin descanso a nuestros usuarios».
Palabras clave
EyeSynth, invidente, discapacidad visual, cámaras, acústico, sonoro, sonar, 3D, sonidos, gafas, teléfono móvil inteligente