Videoübertragung in Echtzeit Von Aufnahme bis Anzeige unter 35 ms

Bei der Ultra-Low-Latency-Streaming-Plattform sind Bauteile der Unternehmen Xilinx und Enclustra im Einsatz.
Bei der Ultra-Low-Latency-Streaming-Plattform sind Bauteile der Unternehmen Xilinx und Enclustra im Einsatz.

Ob im Privaten oder in der Industrie: Bei der Bildübertragung beziehungsweise -verarbeitung akzeptieren Nutzer keine wahrnehmbare zeitliche Verzögerung. Um das zu vermeiden, hat Hema Electronic eine Ultra-Low-Latency-Streaming-Plattform entwickelt, die sehr kurze Latenzzeiten ermöglicht.

Low-Latency-Bildübertragung ist kein Kind der Neuzeit; sie stammt aus dem analogen Zeitalter. In den 1970er-Jahren galt die Datenübertragung per koaxialer Leitung weltweit als Standard für das Fernsehen. Vorteile: Beim Auslesen der Pixel und anschließender Umwandlung in elektrische Signale gab es keine zeitliche Verzögerung. Die Bildqualität war jedoch mit einer Auflösung beim PAL-Standard von 720 x 576 Pixeln und beim NTSC-Standard mit 720 x 480 Pixeln im Vergleich zum heutigen Standard sehr niedrig. Die stetig steigende Auflösung hatte aber schnell das Limit an analoger Datenübertragung erreicht. Die Leitungen ließen es nicht zu, dass noch mehr Daten übertragen wurden. Die Lösung: Komprimierung und Digitalisierung.

Doch auch diese Verfahren hatten ihre Nachteile: Denn beim Codieren und Decodieren eines Bildes tritt dadurch, dass ein Vergleich zwischen den Veränderungen des aktuellen Bildes mit einem früheren Bild vorgenommen wird, eine Verzögerung von mehreren Bildern auf. In der Summe erreichten Bildübertragungssysteme mehrere hundert Millisekunden an zeitlicher Verzögerung von der Aufnahme bis zur Anzeige am Bildschirm. Die Anwender wünschten jedoch maximal 100 ms.

Latenzzeiten unter 35 ms

Heutige Low-Latency-Verfahren, um Bilder zu übertragen und zu verarbeiten, weisen dagegen nur eine sehr geringe und vom menschlichen Auge nicht wahrnehmbare zeitliche Verzögerung auf. Dadurch erfüllen sie sehr hohe Anforderungen. Mit ultrakurzen Latenzzeiten unter 35 ms bei 60 Bildern pro Sekunde von der Bildaufnahme bis zur Anzeige auf Bildschirmen inklusive einer Codierung und Decodierung mit dem H.265-Standard bei einer Vielzahl von digital übertragenenen Daten macht Hema Electronic Videoübertragungssysteme möglich, die optimale Einsatzmöglichkeiten für Multi-Stream oder Multi-View bieten. Typische Anwendungsfelder für solche Systeme gibt es in der Bildverarbeitung, in der Steuerung von Maschinen, Anlagen und Fahrzeugen sowie in der Videoüberwachung und Echtzeit-Videokommunikation für Augmented-Reality-Anwendungsszenarien. Also überall dort, wo visuelle Präzision erforderlich ist, um Sicherheit zu gewährleisten.

Die Ingenieure von Hema Electronic haben die Ultra-Low-Latency-Streaming-Plattform mit kompletter System-Umgebung kundenspezifisch aufgebaut. Auf einem eigens entwickelten Embedded-Vision-Board nutzt das Unternehmen das Ultra-Low-Latency-10-Bit-4:2:2-SDI-Video-Subsystem von Xilinx. Ebenfalls zum Einsatz kommt ein XU8- sowie ein XU9-Modul des Schweizer FPGA-Modulspezialisten Enclustra. »Mit einer schnellen Kamera, einem schnellen Monitor und dem von Xilinx entwickelten Algorithmus für Low Latency erreichen wir mit unserem System Übertragungsraten von weniger als 35 ms«, erläutert Michael Mößmer, Entwicklungsleiter bei Hema Electronic. »Damit sind Verzögerungen bei Bildübertragungen vom menschlichen Auge nicht mehr wahrnehmbar.«

Anwendungsbeispiele Automobil und Industrie

Dies ist zum Beispiel dann relevant, wenn ein Fahrzeug mittels Kamera- und Monitorsystemen gesteuert wird. Der bisherige zeitliche Verzug von 200 ms bis 400 ms der Bilddarstellung in Korrelation zu den Bewegungen des Fahrzeugs führt bei den Fahrzeuginsassen zu Schwindel und Gleichgewichtsstörungen. Dadurch können Aufgaben nur noch eingeschränkt oder gar nicht mehr ausgeführt werden. Sieht der Fahrer eines Fahrzeugs in der Rückfahrkamera zum Beispiel ein spielendes Kind auf das Fahrzeug zukommen, darf die Kamera dieses Bild nicht zeitverzögert darstellen. Dasselbe gilt auch für Seiten- oder Rückfahrspiegel bei Lkws. Ein Kranführer, der am Boden per Monitor die Maschine lenkt, muss darauf in Echtzeit erkennen können, was sich oben in luftiger Höhe tut. Und in Produktionsarealen, in denen ausschließlich Roboter arbeiten, kann ein Videoüberwachungssystem, das mit Sensoren verbunden ist, Leben retten, falls sich einmal ein Mensch zwischen in die Arbeitsbereiche von Maschinen gelangen sollte.

»Diese Ultra Low Latency machen leistungsfähige FPGA-SOCs von Xilinx möglich, die programmierbare Logik sowie mehrere ARM-Prozessoren enthalten. Sie können sehr große Datenmengen komprimieren und eine entsprechende Verarbeitung ermöglichen«, so Mößmer.