Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

30.04.2004 - 

Pro Sieben Sat.1 startet Konsolidierung seines Daten-Pools

Reverse Engineering für das Data Warehouse

In Boom-Zeiten stark gewachsen, steht die Data-Warehouse-Landschaft der Pro Sieben Sat.1 Media AG nun zur Konsolidierung an. Oberste Priorität hat dabei die Verbesserung der Datenqualität. Mit einer Nachdokumentation und einem stufenweisen Reverse Engineering und nähert sich das Unternehmen diesem Ziel.Von Bernd Seidel*

Was ein System kann, wird in der Regel nur festgehalten, wenn dies unbedingt nötig ist. Das gilt speziell für Phasen des wirtschaftlichen Aufschwungs: Der Wunsch, Produkte rasch auf den Markt zu bringen und zügig die unterstützenden IT-Lösungen zu entwickeln, hat Vorrang vor der lästigen Paperware. Hartnäckig hält sich zudem die Ansicht, dass Dokumentation nur Geld kostet.

Eva Wittka, Projektleiterin im Controlling der Pro Sieben Sat.1 Media AG, kennt diese Probleme. Trotzdem ist sie mit einem sechsköpfigen Projektteam angetreten, die Ist-Landschaft des Unternehmens-Data-Warehouse aufzuzeichnen und Maßnahmen in die Wege zu leiten, welche die Datenqualität nachhaltig verbessern.

Wenig Standards, hohes Fehlerrisiko

Herzstück der Analyseanwendung ist das 1997 entstandene und in den folgenden Jahren stark gewachsene zentrale Data Warehouse "Prometheus". Zur Plattform gehören etwa zehn Quellsysteme, eine Handvoll Analyse- und Frontend-Werkzeuge sowie Data Marts, welche die Entscheidungen des Managements in den verschiedenen Unternehmensbereichen unterstützen. Das Datenvolumen hat mittlerweile die Ein-Terabyte-Grenze übersprungen.

Das rasante Wachstum blieb nicht ohne Auswirkungen: Sie manifestieren sich unter anderem in komplexen und aufwändigen Betriebsprozessen, zu gering standardisierten Abläufen und einer erhöhten Fehleranfälligkeit bei den Reports. Folglich musste viel Zeit und Energie darauf verwendet werden, Fehler zu finden und zu beseitigen. So ging wertvolle Zeit für die eigentliche Aufgabe verloren: die Analyse der Daten. Die Fusion der Sender Sat1 und ProSieben im Jahr 2000 tat ein Übriges, um die Warehouse-Landschaft an ihre Grenzen zu treiben. Bei jedem Änderungs- oder Erweiterungswunsch herrschte Unklarheit darüber, ob die Daten im Data Warehouse überhaupt schon vorhanden waren - und wenn ja, in welcher Form. Zudem kennen die Spezialisten in den Fachabteilungen und der Data-Warehouse-Entwicklung im Wesentlichen nur ihren eigenen Ausschnitt des Systems, so dass es bei Urlaub oder Krankheit immer wieder zu Engpässen kam.

Innehalten und stabilisieren

Jetzt war laut Wittka der Zeitpunkt gekommen, innezuhalten und den Status quo zu stabilisieren. Die Verantwortlichen beschlossen die Konsolidierung und Dokumentation der bisherigen Landschaft. Ziel war es, mehr Transparenz über die Data-Warehouse-Prozesse zu schaffen, die Qualität der Daten zu verbessern und die Betriebskosten zu senken beziehungsweise trotz zunehmenden Warehouse-Umfangs stabil zu halten. Zugleich sollten neue Anforderungen der Fachabteilungen rascher umsetzbar werden.

Gemeinsam mit den Beratern von CSC Ploenzke erarbeitete das interne Projektteam eine Prioritätenliste, die festschrieb, wie und in welcher Reihenfolge der Handlungsbedarf umzusetzen wäre.

Ein wesentlicher Erfolgsfaktor für das Projekt war die Taktik, stufenweise und in kleinen Schritten vorzugehen. Denn sowohl die Fachabteilungen als auch das Data-Warehouse-Team hatten nebenbei ihr Tagesgeschäft zu bewältigen. Im Projektverlauf musste das Team immer wieder aufs Neue Prioritäten setzen und bisweilen auch den Mut aufbringen, den einmal eingeschlagenen Kurs zu verlassen. Dazu Wittka: "Wir haben auch für jede Einzelmaßnahme genau hinterfragt, ob sie den gewünschten Erfolg zeigen wird und ob er im Verhältnis zu den Aufwendungen steht."

Der Projektfahrplan sah zunächst den Schwerpunkt "Dokumentation" vor. Hier galt es festzustellen, welche Dokumenttypen sich manuell erstellen ließen - etwa durch Interviews und Workshops - und welche Beschreibungen mit technischen Hilfsmitteln automatisch aus dem System herauszuholen wären. Ferner bewertete das Team die Kosten und den zu erwartenden Nutzen aller Beschreibungstypen. "Jedes Dokument muss sich wirtschaftlich rechnen", stellt die Projektleiterin klar.

In diesem Zusammenhang fragte sich das Team auch jedes Mal, wie realistisch die Annahme sei, dass das Dokument später gepflegt werde. "Mit abnehmendem Nutzen und zunehmendem Aufwand sinkt die Motivation, dies sorgfältig zu tun", so die Erfahrung der Projektleiterin. Folglich wurden Geld-, Zeit- und Ressourcenaufwand den zu erwartenden Kosteneinsparungen, Synergien, Qualitäts- und Zeitgewinnen gegenübergestellt.

Der höchste Nutzen, das ergab die Analyse, war von der Dokumentation des Fachkonzepts sowie von den Datenfluss-, Objekt- und Datenmodellen zu erwarten. Das Fachkonzept beschreibt - gegliedert nach Themen- oder Auswertebereichen -, welche Berichte den Anwendern in welcher Form angeboten werden. Darüber hinaus enthält es eine Spezifikation der Kennzahlen für die jeweiligen Berichte mit einer detaillierten fachlichen Herleitung. Dieser Dokumententyp lässt sich nicht automatisch erzeugen. In enger Absprache mit den Anwendern entstand für das erste Frontend ein mehr als 100 Seiten starkes Dokument.

In das Fachkonzept integriert wurde das Objektmodell. Es hält fest, in welchen Dimensionen und welcher Granularität die einzelnen Kennzahlen abfragbar sind. Hinzu kamen Teile des Datenflussmodells, beispielsweise die wichtigsten Aggregationsvorgänge im Data Warehouse und in den Data Marts sowie einige Berechnungsvorgänge auf dem Weg von den Quellsystemen bis zum Analyse-Frontend. Das war ebenfalls weitgehend manuell zu erledigen.

Als größtenteils maschinell zu erzeugen erwies sich die Beschreibung der Betriebs- und Ladeprozesse. Die Strukturen ließen sich zum Teil direkt aus dem Extraktions-, Transformations- und Lade-(ETL-)Werkzeug "Datastage" von Ascential Software auslesen. Mit Hilfe dieser Daten soll nun die intern entwickelte Glossaranwendung "Aurora" erweitert werden, welche die Data-Warehouse-Inhalte auf fachlicher Ebene ablegt und miteinander konsolidiert. Auch der Einsatz eines Metadaten-Management-Systems ist derzeit in der Evaluierung.

Nachdem die Bewertung der Dokumenttypen abgeschlossen war, begann das Team mit der ersten Realisierungsphase. Die Pilotdokumentation beschreibt einen vertikalen Ausschnitt aus der Data-Warehouse-Landschaft, der als "Durchstich" bezeichnet wird. Gegenstand ist die "Analytische Werbeerlösplanung" (Awep), eine detaillierte Bottom-up-Planung der Werbeeinnahmen, die das Vertriebs-Controlling mit Hilfe des Data Warehouse analysiert und für die Plan- und Forecast-Termine aufbereitet.

Zusätzliche Verbesserungsfelder

Dokumentation ist wichtig, löst aber nicht alle Probleme. Deshalb schloss sich eine Analyse der Data-Warehouse-Lösungen an. Dabei ließen sich zusätzliche Verbesserungsfelder identifizieren. Sie wurden priorisiert und in der zweiten Stufe umgesetzt.

Bis Dezember 2003 abgeschlossen waren die Analyse der Datenqualität für die Programmerfolgs-Rechnung, Konzept und Realisierung der ETL-Schnittstellen sowie das Konzept für Frontend-Konsolidierung und fachliche Dokumentation des zentralen Frontend. Bis Ende 2004 soll die fachliche Dokumentation des Data Warehouse vollständig sein. Die technische Dokumentation schreitet parallel voran.

Eine große Herausforderung bedeutete es für das Team, den Nutzen des Konsolidierungsprojektes im Unternehmen zu vermitteln. Der erste Eindruck für einige Außenstehende war dieser: Es kostet nur Zeit und Geld und bringt nichts; wertvolle Ressourcen, die etwa für Weiterentwicklungsprojekte genutzt werden könnten, sind dadurch gebunden. "Hier mussten wir sehr viel Überzeugungsarbeit leisten, damit die Dokumentation und die Qualitätsverbesserungs-Maßnahmen eine hohe Priorität bekommen", berichtet Wittka."

Doch schon heute zahlen sich die Anstrengungen aus: Allein dadurch, dass das Fachkonzept mit allen beteiligten Bereichen und dem internen IT-Dienstleister gemeinsam erstellt wurde, hat sich die Kommunikation verbessert. Zudem ist ein größerer Personenkreis mit dem Wissen über die Systeme und Abläufe des Data Warehouse vertraut. Dadurch lassen sich neue Entwicklungen rascher umsetzen. Und wenn ein Mitarbeiter ausfällt, kann ein Kollege seine Aufgaben heute schneller und einfacher übernehmen.

Um die weitere Entwicklung der Analyseplattform in geordnete Bahnen zu lenken, wurde gleichzeitig mit dem Dokumentationsprojekt der Prozess für ein Datenqualitäts-Management etabliert. Er ist eingebettet in den neuen Standard-Entwicklungsablauf für das Data Warehouse. Dazu Wittka: "Wir sind heute bei einer solchen inhaltlichen und organisatorischen Komplexität angelangt, dass Programmieren auf Zuruf einfach nicht mehr drin ist." (qua)

*Bernd Seidel ist freier Autor in München.

Hier lesen Sie ...

- warum Pro Sieben Sat 1 Media sein Data Warehouse konsolidieren musste,

- was eine saubere Dokumentation dafür leistet,

- wie sich unterschiedliche Dokumenttypen unterscheiden,

- wodurch der Return on Investment beeinflusst wird,

- auf welche Widerstände das Projektteam stieß und

- weshalb sich die Zweifler letztlich doch überzeugen ließen.

Projekt-Steckbrief

Projektart: Data-Warehouse-Konsolidierung.

Branche: Medienunternehmen.

Zeitrahmen: fachliche Dokumentation bis Ende 2004 geplant.

Stand heute: Fertig sind die Analyse der Datenqualität für die Programmerfolgs-Rechnung, die ETL-Schnittstellen sowie das Konzept und die fachliche Dokumentation für ein zentrales Frontend.

Produkte: Informix für das Data Warehouse, Oracle SQL-Server für einzelne Data Marts, "Datastage" von Ascential Software für die ETL-Aufgaben.

Dienstleister: CSC Ploenzke.

Umfang: derzeit ein Terabyte Daten bei jährlicher Zunahme um zehn Prozent.

Ergebnis: verbesserte Kommunikation, kürzere Entwicklungszeiten.

Herausforderung: den Nutzen des Projekts zu vermitteln.

Nächster Schritt: technische Dokumentation.

Die Systeme

Im Wesentlichen sieht die IT von Pro Sieben Sat.1 Media folgendermaßen aus:

Quellsysteme:

- SAP R/3 FI,

- Programmvermögensverwaltung,

- Programmplanung,

- Sendeplanung,

- Buchungssystem,

- Pricing,

- GfK-Daten,

- Nielsen-Daten.

Datenbanken:

- Informix für das zentrale Data Warehouse "Prometheus",

- Oracle SQL-Server für einzelne Data Marts.

Analyse-Frontends:

- Business Objects,

- Dynasight, Arcplan,

- Eigenentwicklungen.

ETL-Tool:

- Datastage von Ascential Software.