Grundlagen der Videotechnik III Analoge/digitale Signalquellen und Bildschirme

Videosysteme müssen verschiedene Signalformate - z.B. analog und digital - verarbeiten können. Sie bereiten die Daten zum Abspeichern oder zur Ausgabe auf einen Bildschirm vor. Wichtige Bausteine hierbei sind Video-Decoder und Video-Encoder - komplexe ADUs und DAUs für Videosignale.

Eine schematische Darstellung eines digitalen Video-Systems zeigt Bild 1. In einem Fall wird ein Video-Signal in den Multimedia-Prozessor eingespeist - analoge Video-Signale werden zuvor digitalisiert. Im Multimedia-Prozessor wird das Signal eventuell über einen Software-Encoder komprimiert, bevor es lokal gespeichert oder über das Netzwerk transportiert wird. In entgegengesetzter Richtung wird ein komprimierter Videodatenstrom über ein Netzwerk oder von einem Massenspeicher abgerufen.

Anschließend wird der Video-Datenstrom über Software-Decoder dekomprimiert und direkt an einen digitalen Bildschirm, z.B. ein TFT-LCD weitergeleitet. Alternativ kann der digitale Video-Datenstrom in ein analoges Video-Signal für die Darstellung auf einem Bildschirm mit herkömmlicher Bildröhre umgesetzt werden.

Die Kompression/Dekompression ist lediglich eine Untermenge möglicher Video-Verarbeitungsalgorithmen, die eventuell auf dem Multimedia-Prozessor laufen. Sie eignet sich aber sehr gut als Beispiel.

Analoge Videosignalquellen

Embedded Prozessorkerne können ein analoges Video-Signal nicht direkt verarbeiten. Es muss daher digitalisiert werden. Ein Video-Decoder-IC (Bild 2) setzt ein analoges Video-Signal, z.B. FBAS oder S-Video, in ein digitales Format um - normalerweise ITU-R BT.601/656 YCbCr oder RGB.

Dies ist ein komplexer Prozess mit mehreren Stufen. Er beinhaltet die Extraktion der Synchronsignale aus dem Video-Signal, die Trennung des Helligkeitssignals (Y) vom Farbsignal, die Decodierung des Farbsignals in Cr- und Cb-Komponenten sowie die Abtastung, Quantisierung und Digitalisierung der einzelnen Signale und die Anordnung der Daten in das geeignete Format. Über eine serielle Schnittstelle wie SPI oder I2C können die Betriebsparameter des Decoders konfiguriert werden.

Digitale Video-Signalquellen

Digitalkameras basieren zum Großteil auf CCD- oder CMOS-Bildsensoren. Beide Sensortypen wandeln Licht in elektrische Signale, wobei die Arbeitsweise unterschiedlich ist. CMOS-Bildsensoren liefern normalerweise einen parallelen Pixel-Datenstrom im YCbCr- oder RGB-Format, zusammen mit horizontalen und vertikalen Synchronsignalen und einem Pixel-Taktsignal. In einigen Fällen lässt sich die Übertragung von Bildern aus dem Sensor mit einem externen Takt- und Synchron-Signal steuern.

CCD-Bildsensoren hingegen geben normalerweise ein analoges Signal aus. Sie benötigen einen Baustein wie den AD9948, der das analoge Sensorausgangssignal verarbeitet und digitalisiert sowie geeignete Steuersignale zum Scannen des CCD-Arrays erzeugt. Die Synchronsignale zum Steuern des CCD-Arrays liefert wiederum ein Prozessor an den AD9948. Das digitale Video-Signal wird am Ausgang als paralleler Datenstrom mit 10 oder 12 bit Auflösung pro Pixel ausgegeben. Eine umfangreichere Betrachtung der Vor- und Nachteile von CMOS- und CCD-Sensoren sowie einen Überblick über eine typische Bildverarbeitungs-Pipeline enthält[3].

Analoge Videosignale für Bildschirme

Ein Video-Encoder setzt einen digitalen Video-Datenstrom in ein analoges Video-Signal um. Normalerweise wird mit einem YCbCr- oder RGB-Video-Datenstrom, entweder im ITU-R BT.656- oder im BT.601-Format, gearbeitet.

Die Umsetzung in ein analoges Signal erfolgt entsprechend einem von mehreren Farbfernsehstandards, z.B. NTSC, PAL oder SECAM. Ein Host-Prozessor steuert den Video-Encoder über eine serielle 2- oder 3-Draht-Schnittstelle wie SPI oder I2C. Dabei werden Einstellungen wie Ein-/Ausgangsformate und Y/Farb-Filterung programmiert. Bild 3 zeigt die Blockschaltung eines typischen Video-Encoder-ICs. Video-Encoder liefern normalerweise Ausgangssignale in einem der folgenden Analogformate:

FBAS (auch CVBS):

Diese Abkürzung steht für Farb-Bild-Austast-Synchron-Signal. Es enthält Helligkeits-, Farb- und Synchron-Informationen, die alle über die gleiche Leitung übertragen werden.

S-Video:

Hier werden die Helligkeits- und die Farbinformation separat übertragen. Durch die Trennung der Helligkeitsinformation von den Farbdifferenzsignalen wird die Bildqualität erheblich verbessert. Deshalb sind S-Video-Verbindungen bei modernen Heimkinosystemen so beliebt.

Komponenten Video:

Das auch als YPbPr bezeichnete Signalformat, ist die analoge Version von YCbCr-Digital-Video. Hier werden die Helligkeits- und alle Farbkanäle separat herausgeführt. Dies ermöglicht die maximale Bildqualität für die analoge Übertragung. Das Signalformat ist bei höherwertigen Geräten für Heimkinosysteme wie DVD-Spieler und A/V-Empfänger sehr beliebt.

Analog RGB:

Das Format nutzt separate Kanäle für Rot-, Grün- und Blau-Signale. Dies ermöglicht eine ähnliche Bildqualität wie Komponenten Video, wird jedoch normalerweise in der Computertechnik verwendet, wogegen Komponenten Video primär in der Unterhaltungselektronik eingesetzt wird.