Die Entwicklung bei der Bearbeitung von Videosignalen

16.09.1999

MÜNCHEN: In letzter Zeit macht ein neues Verfahren für die Speicherung, Übertragung und Bearbeitung von Videosignalen auf dem PC von sich reden: Mpeg 2. Es wird dabei so vielfältig eingesetzt, daß der Begriff mittlerweile nicht nur der Fachwelt, sondern einem breiteren Publikum geläufig ist. Oliver Hoheisel* erklärt, warum in Zukunft kein Weg mehr an Mpeg 2 vorbeiführt.Die bekannteste Anwendung von Mpeg 2 ist die Speicherung von Video auf einer DVD - ein zentrales Thema auch auf der kürzlich zu Ende gegangenen Funkausstellung in Berlin. Auf einer Scheibe von der Größe einer CD werden dabei mehr als zwei Stunden Video untergebracht und dies in einer Qualität, die der von Videorekordern bei weitem überlegen ist. Das Video kann jedoch nicht nur mit DVD-Heimgeräten abgespielt werden, sondern auch mit modernen PCs, so diese über ein DVD-Laufwerk verfügen.

Aber Mpeg 2 wird auch in zahlreichen anderen Anwendungen eingesetzt. Sendeanstalten benutzen Video-server auf Mpeg-2-Basis, wobei viele Stunden Material auf Festplatten abgelegt werden und somit auf beliebige Videosequenzen in kürzester Zeit zugegriffen werden kann. Die digitale Übertragung von Fernsehprogrammen durch Premiere, DF1 und die öffentlich-rechtlichen Sender geschieht ebenfalls per Mpeg 2, sowohl über das Kabelnetz als auch über Satellit. Und schließlich gibt es jetzt auch Produkte zur Videonachbearbeitung, die auf Mpeg 2 basieren.

MPEG 2 wird zum neuen Standard in Sachen Video

Warum ist Mpeg 2 also so erfolgreich, daß es von vielen als der neue Standard in Sachen Video angesehen wird? Um dies zu verstehen, ist ein Blick auf die technische Entwicklung der Bearbeitung von Videosignalen erforderlich.

Das größte Problem bei der Verarbeitung von Videosignalen ist die hohe Datenmenge, die anfällt. Ein normales Videosignal benötigt rund 20 MB pro Sekunde. Eine gängige Festplatte von acht Gigabyte reicht dann gerade mal für knapp sieben Minuten Video. Noch schwerer wiegt allerdings, daß Festplatten im allgemeinen einfach nicht schnell genug sind, um solche Datenraten überhaupt zu verarbeiten. Und auch andere Komponenten eines PCs, wie zum Beispiel der Prozessor, haben damit ihre Probleme. Fast alle Lösungen zur Videobearbeitung setzen daher auf Kompression, also Verringerung der Datenmenge. Dies geschieht nach unterschiedlichen Verfahren, die allgemein als "Codec" (Compressor/Decompressor) bezeichnet werden.

Gemeinsam ist allen Codecs, daß sie die Datenmenge verringern, indem sie gezielt Informationen weglassen - in der Hoffnung, daß das menschliche Auge dies nicht bemerkt oder zumindest nicht als allzu störend empfindet. Codecs sind also im allgemeinen verlustbehaftet, denn bei ihrer Anwendung geht Information verloren.

- Motion-Jpeg

Eines der ersten Kompressionsverfahren war Motion-Jpeg (M-Jpeg). Es beruht auf einem Algorithmus, der eigentlich für Standbilder entwickelt wurde (Jpeg) und wendet ihn auf Video an, indem jedes einzelne Bild für sich betrachtet und komprimiert wird. Dabei werden Informationen entfernt, die für das menschliche Auge entweder gar nicht wahrnehmbar sind oder aber nur eine geringe Rolle spielen. So wird zum Beispiel die Tatsache ausgenutzt, daß wir Farben mit wesentlich geringerer Schärfe unterscheiden können als Helligkeitsinformationen. Auch werden kleine Details im Bild weggelassen oder unschärfer dargestellt, wenn das Auge durch andere in der Nähe liegende Bildelemente sowieso abgelenkt wird.

M-Jpeg wird auch heute noch in zahlreichen Videoschnittsystemen verwendet (beispielsweise "Miro Motion DC 30" von Pinnacle oder "AV Master" von Fast). Der Kompressionsfaktor ist meist variabel und je nach Art der Videoquelle und Qualitätsanspruch werden Werte von 10:1 bis 2:1 erreicht - die erzielbaren Datenraten liegen also zwischen zwei und zehn MB pro Sekunde - eine deutliche Ersparnis gegenüber den rund 20 MB pro Sekunde für unkomprimiertes Video.

Ein Nachteil von M-Jpeg ist die von Bild zu Bild stark variierende Datenrate. Der Benutzer gibt bei M-Jpeg nämlich eine Qualität der Kompression vor und der Codec produziert dann immer die Menge an Daten, die zur Erreichung dieser Qualität notwendig ist. Diese Menge hängt aber vom Bildinhalt ab, und da dieser sich ständig ändert, schwankt auch die Datenrate und ist bestenfalls im Mittel über eine längere Zeitdauer konstant.

- Digital Video

Vor einigen Jahren verständigten sich namhafte Hersteller der Unterhaltungselektronik auf einen neuen digitalen Standard zur Aufnahme von Videodaten: Digital Video (DV). Mittlerweile gibt es eine breite Palette von Camcordern und Videorecordern, die DV verwenden und zusätzlich Geräte, die herstellerspezifische Erweiterungen von DV (DVC-Pro, DV-Cam, Digital-8) einsetzen.

Auch bei DV wird komprimiert und diese Kompression ist mit M-Jpeg vom Prinzip vergleichbar: jedes Bild wird einzeln behandelt. Es gibt allerdings einen grundlegenden Unterschied: Die Datenrate bei DV wird nicht variiert, sondern konstant gehalten. Dies ist notwendig, da die Daten auf Bändern gespeichert werden und man hier nicht das Band mal schneller und mal langsamer laufen lassen kann, wenn einmal mehr und einmal weniger Daten anfallen.

Der Kompressionsfaktor bei DV ist ebenfalls konstant und beträgt 5:1, was eine Datenrate von ungefähr 3,6 MB pro Sekunde ergibt. Die Qualität von DV-komprimierten Video ist sehr hoch - sie wird mitunter sogar von Fernsehsendern für die Produktion akzeptiert. Allerdings reduziert DV die Farbinformation stärker als andere Codecs und dadurch ist DV für den professionellen Einsatz nur bedingt geeignet.

Eine Reihe von Produkten zur Videonachbearbeitung setzt auf DV als Codec (beispielsweise "DV Rex M1" von Canopus oder "DV Master" von Fast) und diese verdrängen zunehmend M-Jpeg. Allerdings ist dieses System für andere Anwendungen wie DVDs oder Videoserver kaum geeignet, da der DV-Standard hierfür zu wenig flexibel ist.

- Mpeg 2

Sowohl DV als auch M-Jpeg behandeln die Bilder eines Videos einzeln, jedes wird für sich betrachtet und komprimiert. Wenn man sich aber nun einmal die einzelnen Bilder einer Videosequenz anschaut, so wird man feststellen, daß sich in vielen Fällen von einem Bild zum nächsten nicht sonderlich viel ändert.

Abbildung 1 zeigt ein Beispiel dreier aufeinanderfolgender Bilder: Ein Auto fährt vor einem unbeweglichen Hintergrund entlang, wobei sich die Kameraposition nicht verändert. Man sieht hier, daß große Teile der drei Bilder völlig identisch sind. Wenn man also das erste Bild vollständig komprimiert, so kann man bei den darauffolgenden Bildern sehr viel Daten sparen, indem man einfach auf Teile des ersten Bildes verweist, anstatt sie noch einmal neu zu komprimieren. Des weiteren kann man zusätzlich Daten sparen, indem man bei bewegten Objekten, wie hier dem Auto, auch nur die Bewegungsinformation speichert, anstatt das Objekt an sich neu zu komprimieren. In unserem Beispiel bedeutet dies, daß man für das zweite und dritte Bild lediglich die Information "Auto bewegt sich ein Stück nach rechts" verarbeiten muß und die Darstellung des Autos selber einfach aus dem ersten Bild kopiert (Abbildung 2).

Diese Berücksichtigung von gleichen Inhalten in aufeinanderfolgenden Bildern ist der zentrale Fortschritt des Mpeg-2-Verfahrens und er sorgt dafür, daß man mit diesem Verfahren wesentlich stärker komprimieren kann, ohne daß dabei die Qualität leidet.

Um dieses Verfahren genauer zu beschreiben, gibt es bei Mpeg 2 verschiedene Typen von Bildern (engl. Frames), je nach ihrer Kompressionsart. Sogenannte "I-Frames" sind vollständig komprimierte Bilder, und ein Mpeg-2-Datenstrom, der nur aus I-Frames besteht, ist im Prinzip einer Kompression nach DV oder M-Jpeg sehr ähnlich. Dies wird als "I-frame-only"-Verfahren bezeichnet und bietet gegenüber den anderen Codecs kaum Vorteile.

Die beiden weiteren Typen von Bildern heißen "P" und "B" und sie speichern nur die Änderungen zu vorhergehenden (P) und nachfolgenden (B) Bildern ab. Nur wenn diese Arten von Bildern verwendet werden, werden auch die Möglichkeiten von Mpeg 2 vollständig ausgenutzt und man erhält niedrige Datenraten bei hoher Qualität. Diese Verfahren werden als "IP" oder "IBP" bezeichnet. Beispiele für Videoschnittsysteme mit Mpeg-2-Verfahren sind etwa Pinnacles "Miro Video DC 1000" oder das Schnittsystem "601" von Fast.

FAZIT

Mpeg 2 ist im Vergleich zu den älteren Kompressionsverfahren M-Jpeg und DV technisch wesentlich aufwendiger und deshalb gibt es erst jetzt erschwingliche Mpeg-2-Videoschnittlösungen. Damit wird nicht nur hohe Qualität bei geringen Datenraten möglich - der entscheidende Vorteil ist, daß Mpeg 2 in zahlreichen anderen Anwendungen eingesetzt wird und damit Anwendungen wie die preiswerte Produktion eigener DVDs oder Mpeg-2-CDs realisierbar sind. Kein anderer Codec hat sich in so unterschiedlichen Anwendungen bewähren können und daher ist zu erwarten, daß Mpeg 2 in Zukunft nahezu überall eingesetzt wird, wo Video zu speichern, zu übertragen oder zu bearbeiten ist. Mpeg 2 ist der neue Standard für Videokompression.

* Oliver Hoheisel ist Manager European Engineering bei der Pinnacle Systems GmbH in Unterschleißheim.

Produkten wie der Mpeg-2-Karte "Miro Video DC 1000" von Pinnacle gehören dank ihrer modernen Architektur und Bildbearbeitung die Zukunft.

Zur Startseite