Mehr Sicherheit in der Flugsicherung durch bessere automatische Spracherkennung
Die Spracherkennung für Verbraucherprodukte wird zwar immer ausgeklügelter, doch manche Sektoren, die enorm von ihr profitieren könnten, hinken hinterher. Die digitalen Assistenten in der Flugsicherung greifen auf Luft- und Bodenverkehrssensoren zu. Die verbale Kommunikation steht ihnen aber nicht automatisch zur Verfügung, obwohl sie eine der wertvollsten Informationsquellen wäre. Um die verbale Kommunikation zu digitalisieren, müssen Angestellte im Kontrollturm die Informationen transkribieren, was etwa ein Drittel ihrer Zeit in Anspruch nimmt. Das Projekt HAAWAII (Highly Automated Air Traffic Controller Workstations with Artificial Intelligence Integration), finanziert im Rahmen des Gemeinsamen Unternehmens SESAR, hat eine neue Spracherkennungssoftware auf der Basis tiefer neuronaler Netzwerke entwickelt. „Wie Alan Turing in den 1950er Jahren anmerkte, heißt Spracherkennung nicht Sprachverständnis. Also haben wir auch daran gearbeitet“, berichtet Hartmut Helmke, der Projektkoordinator am Deutschen Zentrum für Luft- und Raumfahrt, dem Projektträger. „Wir haben eine Wortfehlerrate von unter 5 % erreicht, die in der Flugsicherung einer Befehlserkennungsrate von über 85 % entspricht.“
Erkennung von Rücklesefehlern für automatische Spracherkennung
Die Spracherkennung im Bereich der Flugsicherung ist weiterhin schwierig aufgrund von lokalen Variationen der Standardphraseologie, unterschiedlichen englischen Akzenten (die internationale Sprache der Luft- und Raumfahrt), abweichenden Sprechgeschwindigkeiten und verrauschten Kanälen. Die HAAWAII-Partner NATS und Isavia, die Flugsicherungsdienstleister des Vereinigten Königreichs und Islands, zeichneten über 500 Stunden Kommunikation zwischen Cockpit und Kontrollturm auf. Vierzig dieser Stunden wurden manuell Wort für Wort transkribiert. Nachdem nur eine Stunde der manuell transkribierten Daten in die Spracherkennungssoftware von HAAWAII eingespeist worden war, hatte sich die Worterkennungsrate verdoppelt. Nachdem sie mit allen transkribierten und untranskribierten Daten trainiert worden war, stieg die Worterkennungsrate auf über 95 % für Personal im Kontrollturm und über 90 % für die flugzeugführende Belegschaft. „Das zentrale Problem mit nicht richtig erkannten Wörtern tritt auf, wenn dies sicherheitskritische Informationen sind, wie Rufzeichen oder Wegpunkte. Durch eine Kombination der Stimmdaten mit Radardaten wurde unser System auf semantischer Ebene verbessert. Wir haben zum Beispiel eine Erkennungsrate von 97 % für Rufzeichen von Personal im Kontrollturm erreicht“, berichtet Helmke. Mit maschinellem Lernen wurde auch ein Readback Error Detection Assistant (REDA, Assistent zur Erkennung von Rücklesefehlern) erstellt. Rücklesefehler treten auf, wenn beispielsweise der Kontrollturm die Freigabe für einen Anstieg auf 7 000 Fuß gibt, die flugzeugführende Belegschaft jedoch 8 000 Fuß wiederholt. So können Kollisionen auftreten, wenn es unerkannt bleibt. Der REDA gibt eine Warnung aus, wenn solche Fehler auftreten. Er wurde von fünf Angestellten der Flugsicherung aus Island in einem Labor geprüft. „Bei diesen Labortests wurden über 80 % der Rücklesefehler von Offline-Auswertungen von Transkriptionen von Realdaten erkannt bei einer Fehlalarmquote von unter 20 %“, fügt Helmke hinzu. Versuche mit Personal von NATS sind für dieses Jahr angesetzt und Isavia plant, den REDA im eigenen Betriebsumfeld zu demonstrieren.
Mehr Genauigkeit und weniger Arbeitslast
Eine leistungsstarke Spracherkennung mit Verständnis könnte die Luftfahrtsicherheit deutlich erhöhen, indem die Arbeitslast für Personal in der Flugsicherheit reduziert und ihre Genauigkeit erhöht wird. Tausende Stunden Transkription liefern Flugsicherheitsdienstleistern auch wertvolle Managementinformationen, zum Beispiel wie oft ein Befehl pro Flugzeug erteilt oder wiederholt wird, was beides auf hohe Arbeitslasten hindeutet. Mit der Spracherkennung können auch Simulationen am Arbeitsplatz verbessert werden, sodass Schulungen günstiger werden und aus der Ferne durchgeführt werden können. „Unser Prototyp funktionierte im Raum London, Europas verkehrsreichstem Luftraum, und auch im Luftraum von Isavia, der über 5 000 000 Quadratkilometer abdeckt. Er hat die Stimmen der flugzeugführenden Belegschaft aus dem Cockpit mit einer Wortfehlerrate von unter 10 % verstanden und das trotz der Akzente aus der ganzen Welt, geschweige denn der extrem verrauschten Kommunikationskanäle“, meint Helmke abschließend.
Schlüsselbegriffe
HAAWAII, Spracherkennung, Flugsicherung, Wörter, Befehle, Luftraum, Arbeitslast, Flugsicherheit, Transkriptionen, Fehlererkennung, Stimme, Radar