Estrarre il segnale nel rumore: un supporto per gli ipoudenti
Gli esseri umani sono sottoposti a una cacofonia di suoni nel corso di tutta la giornata. Anche in questi ambienti ricchi di suoni, sono in grado di localizzare, con notevole precisione, la direzione di una fonte sonora rilevante dal punto di vista comportamentale, come la voce di un amico in una stanza affollata. Poco sappiamo dei meccanismi neurali alla base del calcolo della localizzazione tridimensionale dei suoni complessi della vita reale, in ambienti rumorosi. Ne consegue che gli impianti cocleari (IC) non riescono a filtrare il segnale nel rumore. Questo lascia le persone ipoudenti in una posizione di svantaggio e riduce la loro qualità di vita, comprese le opportunità di lavoro. Con il sostegno del programma di azioni Marie Skłodowska-Curie, MSCA, il progetto SOLOC ha utilizzato metodi computazionali e sperimentali per comprendere i meccanismi cerebrali di localizzazione del suono. Questi verranno utilizzati per sviluppare strategie di elaborazione del segnale per gli IC in grado di simulare il comportamento umano di localizzazione del suono.
Il problema del rapporto segnale/rumore con gli impianti cocleari
Secondo Kiki van der Heijden, borsista MSCA presso l’istituto che coordina il progetto, il Donders Institute for Brain, Cognition and Behaviour della Radboud University, «a causa delle limitazioni tecniche degli IC, quando i segnali uditivi vengono trasmessi al nervo acustico dell’utente IC sotto forma di serie di impulsi, si perdono informazioni temporali e spettrali fondamentali. La rappresentazione degradata dello scenario d’ascolto che ne risulta non è sufficiente al cervello per filtrare le fonti sonore di interesse e sopprimere il rumore di fondo.» Il successo degli IC nel percepire il parlato in uno sfondo silenzioso non si traduce in una percezione efficace del parlato in mezzo al rumore. «La ricerca deve concentrarsi su suoni reali in scene di ascolto ecologicamente valide in modo da ottimizzare le strategie di elaborazione del suono per le tecnologie assistive. Una componente critica del progetto è stata quindi la creazione di un database di suoni spazializzati e reali che sarà reso pubblico per sostenere ulteriori ricerche nel campo delle neuroscienze, dell’udito e della modellizzazione computazionale», osserva van der Heijden.
Le reti neurali convoluzionali di ispirazione neurobiologica supportano l’estrazione di caratteristiche
Il progetto ha sfruttato il suo database e l’intelligenza artificiale per comprendere l’elaborazione del suono in scene di ascolto reali, conoscenze che saranno utilizzate per ottimizzare le strategie di elaborazione del suono degli IC. Le reti neurali profonde (DNN, Deep Neural Networks) sono algoritmi addestrati per apprendere da una rappresentazione dei dati a livelli crescenti di astrazione, o di profondità, come l’elaborazione nel cervello. Ciò consente loro di eseguire compiti complessi e ad alta dimensionalità, quali l’identificazione di immagini o la localizzazione di suoni. L’apprendimento profondo è diventata la regola aurea per gli algoritmi di apprendimento automatico. Le reti neurali convoluzionali (CNN) sono un tipo specifico e di grande successo di DNN che estraggono caratteristiche chiave dai dati attraverso una serie di operazioni convoluzionali. «Abbiamo sviluppato una rete CNN di ispirazione neurobiologica addestrata su suoni reali del nostro database. Abbiamo dimostrato che può simulare con successo il comportamento umano di localizzazione del suono. Abbiamo anche utilizzato registrazioni intracraniche invasive in pazienti neurochirurgici che ascoltavano mix di suoni con due persone che parlavano in spazi separati, per comprendere l’elaborazione del parlato in mezzo al rumore nel cervello», afferma van der Heijden.
Dalle CNN agli IC: un cambio di passo nella localizzazione del suono per gli ipoudenti
Il successo del progetto conferma che i progetti di ricerca multidisciplinari al crocevia tra neuroscienze, modellizzazione computazionale e ricerca clinica sono fondamentali per lo sviluppo di nuove tecnologie assistive. SOLOC ha fornito modelli computazionali biologicamente ed ecologicamente validi dell’elaborazione spaziale del suono nel cervello umano. Essi sosterranno l’ottimizzazione degli algoritmi che sfruttano al massimo la disponibilità di indicazioni spaziali per gli ipoudenti, rafforzando il ponte degli IC tra il cervello e l’ambiente.
Parole chiave
SOLOC, suono, IC, localizzazione del suono, ipoudente, impianto cocleare, CNN, rete neurale convoluzionale, DNN, rete neurale profonda