Skip to main content
European Commission logo
español español
CORDIS - Resultados de investigaciones de la UE
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

Towards an Automated and exPlainable ATM System

Article Category

Article available in the following languages:

Inteligencia artificial explicable para una mayor confianza en «softwares» de gestión del tráfico aéreo

Las técnicas que brindan transparencia a los sistemas automatizados de gestión de vuelo podrían acelerar su integración en operaciones críticas para la seguridad.

Aunque la inteligencia artificial (IA) se utiliza en funciones de apoyo a la gestión del tráfico aéreo (GTA), como el análisis tras incidentes y la previsión de la demanda, todavía no está totalmente integrada en todas las operaciones. La IA no encaja en los ciclos de trabajo de ingeniería tradicionales, que favorecen los pasos lineales con resultados predecibles. Esto hace que a las autoridades nacionales les resulte especialmente difícil dar su validación y certificación para funciones críticas para la seguridad. Según José Manuel Cordero, de www.crida.es (CRIDA): «A pesar de que la IA puede mejorar el rendimiento de la GTA (aumentando la capacidad, reduciendo los retrasos y mejorando la seguridad), dado que los controladores siguen siendo, en última instancia, los responsables de sus decisiones, generar confianza sigue siendo fundamental para la adopción de la IA». El proyecto TAPAS (Towards an Automated and exPlainable ATM System) se financió en el marco de la Empresa Común SESAR, una colaboración público-privada creada para modernizar el sistema de GTA en Europa. Coordinado por CRIDA, el equipo ha identificado qué características adicionales deben considerarse en los sistemas de IA para aumentar su aceptación. En el proyecto se han diseñado y probado dos prototipos explicables de IA (XAI), al tiempo que se desarrollaba IA en las directrices de la GTA.

Abrir la «caja negra» de la IA

Las técnicas de IA no suelen resultar comprensibles para los operadores humanos. El diseño autónomo de la mayoría de las IA implica que, normalmente, los usuarios no entienden por qué se tomó una decisión en vez de otra, lo cual dificulta la ingeniería inversa de un resultado satisfactorio o fallido. «Necesitamos aumentar la explicabilidad de la IA, es decir, hacer que su funcionamiento interno (sus normas, capacidades y limitaciones) sean más transparentes para los usuarios potenciales», añade Cordero, coordinador del proyecto TAPAS. Para ello, en TAPAS se utilizaron técnicas de XAI que explican las decisiones, mientras el sistema las está tomando. Primero, el equipo del proyecto identificó criterios clave construyendo un marco de explicabilidad. A fin de calibrar a continuación el detalle y alcance de las explicaciones requeridas, este marco se integró en simulaciones en tiempo real de diversos escenarios. Estas simulaciones fueron probadas por controladores aéreos de ENAIRE (el proveedor de servicios de navegación aérea español), formadores y representantes de la industria en CRIDA, en Madrid. El equipo de TAPAS añadió funciones mejoradas de IA a los sistemas existentes que se ejecutan en algoritmos (deterministas) tradicionales. Se estudiaron diferentes niveles de automatización, en los que las máquinas asumían progresivamente más funciones y los humanos se convertían más en vigilantes que en operadores. «Es como el ajedrez: algunas jugadas se explican por sí mismas, otras necesitan una pequeña explicación y otras requieren una gran explicación. No obstante, hay un punto en el que las explicaciones exhaustivas no aportan valor, porque son demasiado complejas y los usuarios sencillamente tienen que confiar en la lógica subyacente», aclara Cordero. Estos procesos permitieron al equipo de TAPAS desarrollar sus prototipos de XAI en combinación con analítica visual, que extrae información del funcionamiento de la IA y la muestra en pantalla en formatos fáciles de usar. El equipo probó sus prototipos de XAI en dos casos de uso: gestión de la capacidad y flujo de tráfico aéreo no críticos para la seguridad, y detección y resolución de conflictos críticos para la seguridad. Estas pruebas se llevaron a cabo durante una semana con controladores aéreos y plataformas operativas de control del tráfico aéreo. Para explorar una variedad de comportamientos del sistema, volvieron a estudiarse diferentes niveles de tráfico y automatización, incluso en condiciones difíciles. «La observación y los comentarios indicaron una aceptación impresionante por parte de los usuarios. También hemos incluido recomendaciones en nuestro marco general de explicabilidad para ayudar a guiar futuras aplicaciones», subraya Cordero.

Listo para despegar

El Plan maestro de la gestión del tráfico aéreo considera que las técnicas de IA estudiadas por TAPAS son factores clave para alcanzar niveles más altos de automatización de la aviación que prometen aumentar la capacidad del transporte aéreo, una prioridad de la estrategia de aviación de la Unión Europea. Con artículos científicos ya disponibles en la sección «Outcomes» del sitio web del proyecto y un taller en preparación, Cordero señala que TAPAS está listo para empezar a contribuir. «Nuestro marco de explicabilidad podría ayudar ya a impulsar la adopción de la "capacidad bajo demanda", por ejemplo, como una aplicación automatizada prioritaria», afirma. La Agencia de la Unión Europea para la Seguridad Aérea también ha expresado su interés en la incorporación de los resultados del proyecto en niveles de automatización más altos en la próxima edición de sus directrices de IA.

Palabras clave

TAPAS, controlador aéreo, IA, transparente, crítico para la seguridad, aviación, automatización, transporte, algoritmo

Descubra otros artículos del mismo campo de aplicación