Skip to main content
European Commission logo
español español
CORDIS - Resultados de investigaciones de la UE
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

Representational Mechanisms of Neural Location Encoding of Real-life Sounds in Normal and Hearing Impaired Listeners.

Article Category

Article available in the following languages:

Extracción de la señal en el ruido: apoyo para las personas con discapacidad auditiva

Una red neuronal convolucional de inspiración neurobiológica que procesa sonidos reales del mismo modo que las personas podría presagiar un cambio radical en el rendimiento de los implantes cocleares.

Las personas son bombardeadas por una cacofonía de sonidos a lo largo del día, pero, incluso en estos entornos repletos de sonidos, son capaces de localizar la dirección de una fuente de sonido pertinente desde el punto de vista conductual ―como la voz de un amigo en una sala abarrotada de gente― con una precisión notable. Sabemos muy poco sobre los mecanismos neuronales subyacentes al cálculo de la ubicación tridimensional de sonidos complejos de la vida real en entornos ruidosos. Por consiguiente, los implantes cocleares (IC) no filtran bien la señal en el ruido. Esta deficiencia deja en desventaja a las personas con discapacidad auditiva y reduce su calidad de vida, incluso en cuanto a sus oportunidades de empleo. Con el apoyo de las Acciones Marie Skłodowska-Curie (MSCA), en el proyecto SOLOC se emplearon métodos informáticos y experimentales para obtener información sobre los mecanismos de localización de sonidos del encéfalo. Esta información se utilizará con el fin de establecer estrategias de procesamiento de señales para unos IC que puedan simular el comportamiento de localización de los sonidos de las personas.

El problema de la relación señal a ruido en los implantes cocleares

Según Kiki van der Heijden, beneficiaria de una beca de investigación MSCA en el Instituto Donders para el Cerebro, la Cognición y el Comportamiento de la Universidad de Radboud, entidad coordinadora del proyecto: «Debido a las limitaciones técnicas de los IC, se pierde información temporal y espectral fundamental cuando las señales auditivas se transmiten al nervio auditivo del usuario del IC en forma de una serie de impulsos. La representación degradada resultante del escenario auditivo es insuficiente para que el encéfalo filtre las fuentes de sonido de interés y elimine el ruido de fondo». El éxito de los IC en la percepción del habla en un entorno silencioso no se traduce en una percepción satisfactoria del habla en ruido. «Las investigaciones deben centrarse en los sonidos reales en escenarios de escucha ecológicamente válidos con el fin de optimizar las estrategias de procesamiento de sonidos para la tecnología de apoyo. Por lo tanto, un componente fundamental del proyecto fue la creación de una base de datos de sonidos reales espacializados que se publicarán con el fin de respaldar nuevas investigaciones en neurociencia, audición y modelización informática», señala van der Heijden.

Redes neuronales convolucionales de inspiración neurobiológica respaldan la extracción de características

El equipo del proyecto aprovechó su base de datos y la inteligencia artificial para comprender el procesamiento de sonidos en escenarios de escucha reales, conocimientos que se utilizarán para optimizar las estrategias de procesamiento de sonidos de los IC. Las redes neuronales profundas (RNP) son algoritmos entrenados para aprender una representación de los datos con unos niveles crecientes de abstracción (de «profundidad» creciente) como el procesamiento del encéfalo. Esto les permite realizar tareas complejas y con alta dimensionalidad, tales como la identificación de imágenes o la localización de sonidos. El aprendizaje profundo se ha convertido en el patrón de referencia entre los algoritmos de aprendizaje automático. Las redes neuronales convolucionales (RNC) son un tipo específico y muy satisfactorio de RNP que pueden extraer características fundamentales de los datos a través de una serie de operaciones convolucionales. «Desarrollamos una RNC de inspiración neurobiológica entrenada con los sonidos reales de nuestra base de datos. Demostramos que puede simular satisfactoriamente el comportamiento de localización de los sonidos de las personas. Además, utilizamos registros intracraneales intervencionistas en pacientes neuroquirúrgicos que escuchaban mezclas de sonidos con dos hablantes separados espacialmente para obtener información sobre el procesamiento del habla en ruido del encéfalo», declara van der Heijden.

De RNC a IC: un cambio radical en la localización de sonidos para las personas con discapacidad auditiva

El éxito del proyecto confirma que los proyectos de investigación multidisciplinarios en la interfaz de la neurociencia, la modelización informática y la investigación clínica son fundamentales para el desarrollo de nuevas tecnologías de apoyo. SOLOC proporcionó modelos informáticos con validez ecológica y biológica sobre el procesamiento espacial de los sonidos del encéfalo humano. Estos respaldarán la optimización de algoritmos que maximicen la disponibilidad de señales espaciales para los oyentes con discapacidad auditiva, reforzando así el puente de los IC entre el encéfalo y el entorno.

Palabras clave

SOLOC, sonido, IC, localización de los sonidos, personas con discapacidad auditiva, implante coclear, RNC, red neuronal convolucional, RNP, red neuronal profunda

Descubra otros artículos del mismo campo de aplicación