Aus unserem Leben ist es nicht mehr wegzudenken: Das bewegte Bild. Egal ob Fernsehen, Handys oder Internet, überall sehen wir Videos und Filme und werden dadurch beeinflusst. Im Internet sind mehr als 50 Prozent des Datenaufkommens Videosignale. Ohne eine effiziente Übertragung von digitalen Videosignalen wäre das nicht möglich. Alle Anwendungen von digitalem Video benötigen eine effiziente Übertragung, welche jedoch nur eine durch eine Codierung der Rohdaten durchführbar ist. So beträgt die Rohdatenrate eines hochauflösenden Fernsehsignals (HDTV) etwa 600 Megabit/s, während für die Übertragung üblicherweise Bitraten von 5 bis 10 Megabit/s zur Verfügung stehen. Ziel der Videocodierung mit Hilfe von Algorithmen ist es, die bestmögliche Bildqualität bei einer gegebenen Bitrate zu erreichen. Da die Implementierung der Verfahren auf spezieller Hardware erfolgt, müssen auch die zur Umsetzung erforderlichen Komplexitätsanforderungen erfüllt werden.
Das derzeit am stärksten verbreitete Format für die Videocodierung ist H.264/AVC mit seinen Erweiterungen, das sowohl von der Internationalen Telekommunikationsunion (ITU) als auch der Internationalen Standardisierungsorganisation (ISO) als weltweiter Standard verabschiedet wurde. Der Standard ist für alle gängigen Auflösungen, Qualitäten und Bitraten geeignet. Die Anwendungsgebiete schließen sowohl den Mobilfunk, HDTV, Videokonferenzen, 3D-TV, Blu-ray-Disc als auch Dienste wie Video-on-Demand, IPTV oder videobasierte Sicherheits- und Medizintechnik ein.
Prof. Dr.-Ing. Thomas Wiegand (Sprecher), Dr.-Ing. Detlev Marpe und Dr.-Ing. Heiko Schwarz, Fraunhofer Institut für Nachrichtentechnik – Heinrich Hertz Institut, TU Berlin, haben entscheidend zum Fortschritt auf dem Gebiet der Videocodierung beigetragen. Im Zentrum der Codierung stehen Methoden, mit Hilfe decodierter Bilder eine Vorhersage des aktuell zu codierenden Bildes vorzunehmen. Zum Beispiel können Bildinhalte, die sich nicht verändern, einfach kopiert werden. Tritt eine Bewegung von Bild-zu-Bild auf, wird die Bewegung kompensiert und nur der nicht vorhersagbare Teil muss noch übertragen werden. Die Forscher haben untersucht, wie sich der Wirkungsgrad dieser bewegungskompensierten Vorhersage steigen lässt.
Darüber hinaus konnte das Team bei allen drei Erweiterungen des H.264/AVC-Standards das grundlegende Modell aufstellen und das Basismodell für eine leistungsfähigere Codierung von HD-Videosignalen für die erste Erweiterung von H.264/AVC einbringen. Ebenfalls vom Team beeinflusst wurde das Gebiet der skalierbaren Videocodierung, das die effiziente Übertragung von mehreren Auflösungen oder Qualitäten eines Signals in einem Bitstrom beschreibt. Schließlich wurde der Vorschlag zur Erweiterung von H.264/AVC zur effizienten Codierung von 3D-Videosignalen als Basismodell angenommen. Stereoskopisches Video ermöglicht die Darstellung räumlicher Tiefeneindrücke auf Flachbildschirmen mit Hilfe von 3D-Brillen.