Skip to main content
European Commission logo
Deutsch Deutsch
CORDIS - Forschungsergebnisse der EU
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

Neural Video Processing and Streaming for Real-time Traffic Monitoring

Article Category

Article available in the following languages:

Hochwertige videobasierte Verkehrsüberwachung in Echtzeit mithilfe von KI

Das VISIONS-Projekt bringt intelligente Städte einen Schritt näher mit einem Echtzeit-Verkehrsüberwachungssystem, das von einer durch künstliche Intelligenz unterstützten hochwertigen Videoverarbeitung und -übertragung profitiert, den Weg für intelligente Städte.

Die wachsende Stadtbevölkerung und der zunehmende Fahrzeugbesitz haben zur Entwicklung und Installation von Verkehrsüberwachungssystemen geführt, um Staus entgegenzuwirken und die Verkehrssicherheit zu gewährleisten. Zwar werden die Straßen immer mehr mit Kameras überwacht, doch ist die Bandbreite der meisten Kommunikationsnetze weltweit zu gering, um qualitativ hochwertige Verkehrsüberwachungsvideos zu übertragen, wobei eine schlechtere Qualität die Entscheidungsfindung der Verkehrsbeteiligten beeinträchtigt. Das Projekt VISIONS, das über die Marie-Skłodowska-Curie-Maßnahmen finanziert wird, hat Methoden des maschinellen Lernens (ML) auf die Videoverarbeitung und das Streaming angewandt, um eine hochwertige videobasierte Verkehrsüberwachung in Echtzeit zu erlauben. Künftig wird der VISIONS-Algorithmus als Softwarepaket verfügbar sein, das auf bereits in Betrieb befindliche Kameras heruntergeladen oder in neue Kameras integriert werden kann, um das EU-Ziel zur Senkung der Zahl der Verkehrstoten auf Null bis 2050 zu unterstützen.

Durchgehende Video-Optimierung

Um die für das Verkehrsüberwachungssystem verfügbare Netzwerkbandbreite zu maximieren, wurde im Rahmen des VISIONS-Projekts maschinelles Lernen sowohl für die Videoverarbeitung als auch für das Streaming geprüft. Für die Videoverarbeitung laden die Kameras Videos mit geringerer Auflösung hoch, die der VISIONS-Algorithmus dann durch Rekonstruktion mit Verfahren wie der Superauflösung verbessert. Beim Videostreaming nutzt VISIONS tiefes verstärkendes Lernen, um die Videobitrate in Echtzeit anzupassen. So kann das System unerwartete Netzwerkdynamiken (z. B. konkurrierende Anforderungen von anderen Diensten) berücksichtigen und das Nutzungserlebnis verbessern. „In Anbetracht der begrenzten Rechenkapazität und des Energieverbrauchs von Verkehrsüberwachungskameras kann unser neuronales Netzwerkmodell zuverlässig auf Kameras mit begrenzten Rechenressourcen laufen“, erklärt der über die Marie-Skłodowska-Curie-Maßnahmen unterstützte Stipendiat Xu Zhang. In Zukunft wird das System, so Zhang, eine Art Kompromiss berechnen, um sicherzustellen, dass die Nutzenden eine möglichst hohe Bildqualität erhalten und gleichzeitig die Bandbreite maximiert wird: „Wenn die Endnutzenden über leistungsfähige Einrichtungen verfügen, überträgt VISIONS Videos mit niedriger Auflösung im Netzwerk und rekonstruiert das Video, um die Qualität auf der Client-Seite zu erhöhen, wodurch weniger Netzwerkbandbreite benötigt wird. Wenn die Endnutzereinrichtungen über weniger Rechenressourcen verfügen, müssen Videos mit höherer Auflösung übertragen werden, was eine viel höhere Bandbreite erfordert.“

Simultaner Algorithmus-Test

Das System wurde mit der Python-API von TensorFlow entwickelt. Es wurde eine Simulationsumgebung erstellt, die auf dem Videoaufnahmeprozess aktueller Verkehrsvideo-Streaming-Dienste basiert. Das Team trainierte mehrere Modelle simultan, die jeweils auf unterschiedlichen Netzwerk- und Videodaten aus öffentlichen Datensätzen beruhten, wodurch das System insgesamt robuster wurde. Dazu gehörten: Breitband-Upload-Daten von der Federal Communications Commission (FCC), 4G-Wireless-Bandbreitendaten, die auf mobilen Geräten in Gent erhoben wurden, und die 3G-HSDPA-Bandbreitenprotokolle von mobilen HTTP-Streaming-Szenarien. Zur Bewertung der Leistung wurde der VISIONS-Algorithmus mit anderen modernen Ansätzen verglichen, u. a. im Hinblick auf den Bandbreitenverbrauch und die Videowiedergabe sowie auf verlorene Bilder und Standbilder. „Unser Algorithmus kann verlorene Bilder und Standbilder um 24 % bzw. 15,5 % reduzieren, ohne mehr Bandbreite zu benötigen“, sagt Zhang.

Bedeutung für andere Multimedia-Systeme

VISIONS konzentrierte sich auf das Streaming von Videobildern an Kontrollzentren, die den Betreibern helfen, den Verkehrsfluss aus der Ferne zu beobachten, um Probleme wie Notfälle oder Staus zu erkennen und entsprechend schnell reagieren zu können. „In Zukunft werden wir die Übertragung von Verkehrsvideos an KI-Systeme erforschen, damit diese sie analysieren und auf Probleme hinweisen können. Unterdessen könnten unsere Ergebnisse auch anderen Systemen zugute kommen, die sich auf Multimedia-Anwendungen stützen, z. B. VR-Anwendungen, Fernunterricht und Gesundheitswesen“, schließt Zhang.

Schlüsselbegriffe

VISIONS, Video, Bitrate, künstliche Intelligenz, maschinelles Lernen, Verkehr, Straße, Überwachung, Streaming, Bandbreite

Entdecken Sie Artikel in demselben Anwendungsbereich