Skip to main content
European Commission logo
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

Audio-Visual System for the Blind Allowing Visually Impaired to See Through Hearing

Article Category

Article available in the following languages:

Utiliser des sons pour voir grâce à un système audiovisuel unique destiné aux malvoyants

EyeSynth utilise des paysages sonores pour exploiter le pouvoir d’interprétation du cerveau, afin d’aider les malvoyants à mieux comprendre leur environnement avec une précision sans précédent.

L’Organisation mondiale de la santé estime qu’il existe 285 millions de personnes dans le monde entier atteintes d’une déficience visuelle. Alors que la population vieillit et les maladies affectant la vue comme le diabète de type 2 sont de plus en plus fréquentes, ce chiffre augmente rapidement. Sans traitement connu, les malvoyants dépendent de dispositifs d’assistance, comme les cannes ou les chiens guides. Toutefois, même si ces méthodes évitent les obstacles, ils n’aident pas ces personnes à mieux comprendre leur environnement. EyeSynth, un projet soutenu par l’UE, a développé un système audiovisuel pour les malvoyants, composé de lunettes avec des caméras intégrées qui enregistrent les alentours en 3D. Via la connexion à un microordinateur, les données recueillies se transforment en sons abstraits communiquant des informations spatiales. Une solution radicalement différente Le point de départ du système EyeSynth ne concernait pas la technologie, mais le cerveau. «Notre système ne décrit pas l’environnement avec des mots. Nous fournissons des informations spatiales brutes et le cerveau de l’utilisateur les décode. La cocréation avec nos testeurs s’est avérée fondamentale pour développer cette interface efficace et conviviale», explique M. Antonio Quesada, coordinateur du projet. L’équipe a mené un grand nombre de tests, calibrant l’algorithme sous-jacent en fonction des retours des utilisateurs, jusqu’à ce qu’ils soient capables d’identifier des formes et des espaces, ainsi que de déterminer la profondeur et de localiser des objets de manière précise. «Système conçu pour être intuitif, les utilisateurs ont besoin de 45 minutes à une heure et demie en moyenne pour apprendre à l’utiliser et pour parvenir à distinguer des objets simples ou à se déplacer autour du bureau en évitant les obstacles», poursuit M. Quesada. Le système est composé de deux éléments principaux: les lunettes et l’unité de traitement d’image, un petit processeur de la taille d’un smartphone doté d’une batterie interne qui alimente le système. Une batterie externe avec port USB commun peut également être connectée. Le résultat sont des lunettes légères qui n’encombrent pas les mouvements. Le système possède deux modes de traitement d’image de haute qualité (60 images par seconde). Dans le mode Suivi, il n’analyse que la «colonne centrale» de l’image, l’utilisateur effectue donc un suivi de gauche à droite, semblable à l’utilisation d’une canne blanche. Dans le mode Panoramique complet, l’ensemble du paysage est représenté simultanément, fournissant bien plus d’informations sonores et évitant d’avoir recours au suivi. En fonction des besoins quotidiens, la distance d’analyse peut être ajustée de 0,8 m à 6 m dans les deux modes. Fait très important, cette fourchette s’adapte à la détection d’obstacles dans la rue. Les données 3D sont transformées en représentations acoustiques en temps réel qui rappellent les sons de l’océan, leur composition et leur timbre correspondant aux formes enregistrées. Ces sons se transmettent directement à travers les os crâniens, ainsi les oreilles restent libres pour écouter l’environnement. «Nous avons décidé de ne pas utiliser le langage parlé, d’une part parce que décrire des phénomènes physiques verbalement s’avère difficile, cela détournerait trop l’attention et, de l’autre, nous devrions élaborer différentes versions pour chaque langue», explique M. Quesada. Dans un premier temps, les tests ont impliqué des utilisateurs aveugles. Aussi, l’équipe entreprend désormais une étude médicale avec des spécialistes en ophtalmologie à l’hôpital provincial de Castellón, en Espagne, afin de travailler avec des patients à basse vision. Jusqu’à présent, les résultats ont également été encourageants. Une technologie valorisante EyeSynth renforce l’autonomie et l’indépendance des personnes atteintes de déficience visuelle, évitant les problèmes et les accidents liés aux obstacles physiques, tout en aidant l’utilisateur à se déplacer dans des endroits inconnus. L’équipe entend lancer le premier lot sur le marché cet été. «Nous poursuivrons la mise à jour du système avec de nouvelles caractéristiques, comme la reconnaissance faciale ou l’incorporation de textes», explique M. Quesada. «Afin de continuer la valorisation de cette technologie qui contribue à l’éducation, à l’emploi et aux loisirs, et qui, en fin de compte, améliore des vies, nous resterons à l’écoute de nos utilisateurs.»

Mots‑clés

EyeSynth, aveugle, déficience visuelle, caméras, acoustique, sonore, sonar, 3D, sons, lunettes, smartphone

Découvrir d’autres articles du même domaine d’application