Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

04.09.1998 - 

Online-Analysen für das Controlling

Greenpeace und Hypo setzen auf Data-Warehousing

Das Hypo-Bank-Data-Warehouse ist eine Eigenentwicklung. Die zentrale DV-Abteilung in München wollte ein Informationssystem schaffen, das schnelle Antworten auch bei komplexen Anfragen, hohem Datenaufkommen und Benutzerfreundlichkeit garantiert. Multidimensionale Datenbank-Management-Systeme berechnen alle möglichen Abfragekombinationen im voraus. Dadurch lassen sich alle Requests gleichschnell beantworten. Bei der Hypo dauert es weniger als zwei Sekunden, bis Kosten- und Erlös-, Plan- und Ist-Daten beim Anwender sind.

Derzeit greifen 20 Controller auf das Data-Warehouse zu, das von den Bankern "Magic" genannt wird (Magic = Management-Informationen für Controlling). Die Mitarbeiter gehören zu Stabsstellen, die den sechs Unternehmensbereichen der Hypo-Bank zugeordnet sind: Firmen-, Geschäftskunden und freie Berufe, Großunternehmen und Finanzmärkte, Immobilienkunden, Vermögensanlagen, Privatkunden sowie Service. Ursprünglich war geplant, daß auch Führungskräfte aus den Filialbereichen damit arbeiten können. Doch dann fusionierte die Hypo mit der Bayerischen Vereinsbank, und das Projekt wurde bis auf weiteres auf diesem Stand eingefroren.

Das System ist seit Oktober 1997 im Einsatz. Die Datenbank verwaltet rund 36 GB Daten, aufgeteilt auf sechs Datenwürfel - einen pro Unternehmensbereich: Ein Würfel besteht im Schnitt aus acht Dimensionen und maximal fünf Ebenen.

Die verschiedenen Drill-down-Stufen ermöglichen den Anwendern, die Daten in verschiedenen Detailgraden zu analysieren: auf Unternehmensebene, auf der Basis des Geschäfts- und Filialbereichs, auf der Grundlage einzelner Filialen und Standorte. Die Dimensionen berücksichtigen die Bankprodukte, darunter vor allem das Einlagen-, Kredit- und Wertpapiergeschäft, wobei sich die Einlagen noch einmal in Sparbriefe, Sicht-, Tages- und Termineinlagen gliedern. Das Kreditwesen ist in die Kategorien Baufinanzierung, Dispo- und Refinanzierungskredite untergliedert. Weitere Bankprodukte sind der Inlands- und Auslandszahlungsverkehr. Kunden- und Berufsgruppen, die Hypo-Bank-Kennzahlen sowie Zeiteinteilungen ergänzen die Sichtweisen auf die Daten. Das Data-Warehouse umfaßt eine Historie über 13 Monate.

Die Daten stammen aus vier verschiedenen Vorsystemen, die auf einem IBM-Mainframe liegen und die Informationen in DB/2-Datenbanken und sequentiellen Files speichern. Dabei handelt es sich um das Personalsystem, die Kostenstellenrechnung, das Hypothekenabrechnungs- und Buchungssystem sowie die Servicebereichs-Ergebnisrechnung. Obwohl diese Applikationen, die monatlich neue Kenngrößen errechnen, bereits Informationen aus Vorsystemen verarbeiten und auswerten, werden bei der Datenkonsolidierung für das Data-Warehouse pro Monat rund vier GB Daten bewegt. Allein die Servicebereichs-Ergebnisse basieren auf rund 50 operativen Applikationen.

Die Extraktion und Verdichtung der Daten, die ins Data-Warehouse fließen, erfolgt mit Hilfe von selbstgeschriebenen PL1-Routinen auf dem Großrechner. Ist dieser Vorgang abgeschlossen, lädt die multidimensionale Datenbank "Essbase" von Arbor Software, jetzt Hyperion Software, die Ergebnisse mittels File-Transfer im Batch-Modus. Die Datenbank liegt auf dem Zwei-Prozessor-Rechner "Ultra II" von Sun und läuft unter dem Unix-Betriebssystem Solaris. Der Rechner besitzt 640 MB Hauptspeicher und 84 GB Plattenplatz.

Anschließend berechnet sich die multidimensionale Datenbank neu. Dieses Kalkulieren jeder möglichen Kombination von Dimensionen und Hierarchie-Ebenen sowie der Ladevorgang nimmt einen Zeitraum von zwölf Stunden in Anspruch. Das Prozedere vollzieht sich einmal im Monat, um das Data-Warehouse zu aktualisieren. Auch sämtliche Jobs für die Datenextraktion und für das Laden hat das Hypo-Bank-Team, das Klaus Lindner leitet, selbst geschrieben. Die Mannschaft setzt sich je nach Projektstatus aus drei bis acht Mitarbeitern zusammen.

Die Auswertung der Datenbasis erfolgt zielgruppenspezifisch. Die Controller arbeiten mit dem Online-Analyse Tool "Execu View" von Comshare sowie mit der Tabellenkalkulation "Excel" von Microsoft.

Zudem haben die Stabsmitarbeiter einen umfassenden Blick auf die Daten, können mit ihnen "spielen". Den Führungkräften, die Informationen in Form von standardisierten Berichten und Grafiken benötigen, schrieb das Lindner-Team eine entsprechende C++-Anwendung mit Drill-down-Möglichkeiten.

Vor der Einführung von Magic mußten die Informationen nahezu händisch ermittelt werden. Ferner berechnete jede der sechs Stabsstellen für sich, wie hoch der aktuelle Personalbestand ist und wie sich Kosten und Erlöse in einzelnen Produktsparten gegenüberstehen. Wollten die Führungskräfte aus den Filialbereichen etwa wissen, wie hoch die Erlöse bei einem Firmenkunden ausfielen, mußten sie eine Anfrage bei einem zentralen Stab einreichen. Dieser zog die typischerweise ellenlangen Großrechnerlisten heran. Die zur Berechnung relevanten Zahlen übertrug der Controller in seinen PC, wo er sie auswerten konnte.

Als der Unternehmensbereich Immobilienkunden 1995 neue Listen programmiert haben wollte, gab die Hypo-DV einen Prototyp in Auftrag. Dieser sollte den Anwendern zeigen, daß Auswertungen komfortabler und zugleich flexibler und umfangreicher sein konnten. Den Bau des Prototypen übernahm die Dr. Seidel Informations-Systeme GmbH, Unterhaching, die Tools von SAS Institute dafür einsetzte.

"Die Anwender waren begeistert", erinnert sich Hypo-Mann Lindner, "und wollten alle so ein System." Im April 1995 begann sein Team mit der Voruntersuchung. Es ermittelte zunächst grob, welche Kennzahlen die Anwender benötigen und in welchen Systemen die relevanten Informationen versteckt sind. Außerdem evaluierte das Team die Tools und Datenbanksysteme für die Projektrealisierung.

"Die Bedürfnisse der Anwender herauszufinden sowie die Begriffe und Kennzahlen zu identifizieren und neu zu definieren war das Aufwendigste im gesamten Projekt", erzählt Projektleiter Lindner. Diese Aufgabe erstreckte sich nicht nur auf die Grobuntersuchung, sondern nahezu über die gesamte Projektdauer. Die Auswahl der technischen Komponenten gestaltete sich demgegenüber vergleichsweise harmlos. Hierbei sicherte sich die Hypo-Bank-DV zudem Unterstützung durch die Saphir Arcus Unternehmensberatung GmbH, Münster, zu.

Zu den Bedingungen, die die Produkte erfüllen mußten, gehörte die Verträglichkeit mit OS/2-Clients, Anbindungsmöglichkeit an den IBM-Großrechner, Benutzerfreundlichkeit, akzeptable Antwortzeiten und Bewältigung des Datenvolumens.

Letzteres wurde spannend, da Lindner lediglich mit fünf bis sechs GB gerechnet hatte, es aber 36 GB wurden. "Bei nur einer Dimension mit zwei Ausprägungen mehr als ursprünglich geplant kann sich die Datenmenge gleich verdoppeln", erklärt der Projektleiter das exponentielle Anwachsen der Daten. Unter anderem fielen die "Express"-Datenbank von IRI, jetzt Oracle, "Track for Windows" von Track Business Solu- tion und das SAS-System bei der Hypo-Bank durch. Sie entschied sich für die Hyperion-Lösung.

Bei Greenpeace ist alles anders

Greenpeace hat völlig andere Controlling-Anforderungen und entschied sich deshalb für eine gänzlich andere Data-Warehouse-Technik. Der gemeinnützige Verein finanziert sich allein aus privaten Spenden. Das bedeutet etwa fünf Millionen Einzelbuchungen pro Jahr. Jede Spende muß für das Finanzamt nachvollziehbar sein, vom Eingang bis zur Ausstellung von Spendenquittungen. "Die Vorgänge sind mit einer Debitorenbuchhaltung vergleichbar", erläutert Barbara Drust vom Greenpeace-Förderer-Service.

Für die Spendenverwaltung setzt Greenpeace seit 1992 ein Adabas-C-basiertes, in Natural codiertes Mainframe-Programm ein. "Grips" steht für "Greenpeace Informations- und Planungssystem". Es wurde von SD&M entwickelt und enthält neben Buchungsinformationen auch eine Adreßverwaltung. Darin sind die 440000 Spender eingetragen.

"Grips steuert aber auch die Kommunikation mit den Förderern und Interessenten", ergänzt Sabine Brünger-Weilandt, Bereichsleiterin Kommunikation und Service bei Greenpeace. Der Verein beantwortet Anfragen nach Broschüren und Informationen zu Umwelt-Themen, verschickt Rechenschaftsberichte und sogenannte Aktionsbriefe oder -postkarten an die Spender. Damit wird etwa die Bundesministerin für Umwelt, Naturschutz und Reaktorsicherheit Angela Merkel aufgefordert, die Castor-Transporte endgültig einzustellen.

Wer welches Informationsmaterial bekommt, wird ebenfalls in Grips vermerkt. Dadurch entsteht zu jedem, der mit Greenpeace in Kontakt steht, eine Historie beziehungsweise ein Profil. Doch erwies es sich als nahezu unmöglich, mit dem Mainframe-Programm detaillierte Auswertungen dieser Profile zu machen.

Eine Erweiterung von Grips um mehr Selektions- und Analysefunktionen schloß sich von Anfang an aus. Dann hätte jede Änderung des Abfragesystems Neuprogrammierung und damit jeweils einen Auftrag an Externe bedeutet. "Zur Philosophie von Greenpeace gehört es, Dienstleistungen nach außen zu verlagern, um den eigenen Personalbestand nicht unnötig aufzublähen", erläutert DV-Frau Brünger-Weilandt. Ihre Abteilung beschäftigt insgesamt sechs Mitarbeiter.

Greenpeace aber wollte flexible Auswertungsmöglichkeiten im Haus. Nach einer Voruntersuchung durch MAK, Kiel, entschied sich der Verein für ein Data-Warehouse, das von der Software AG (SAG) entwickelt wurde. Entscheidend war vor allem der Preis. Das komplette Data-Warehouse kostete Greenpeace "weniger als eine Viertelmillion Mark".

Es besteht im wesentlichen aus der relationalen SAG-Datenbank "Adabas D", die unter Windows NT auf einem Compaq-"Proliant 5000"-PC läuft. Das ist ein symmetrisches Multiprozessor-System mit zwei 200-MHz-CPUs, 512 MB RAM und 20 GB Plattenplatz. Die Scripts, die aus dem operationalen Grips die für das Data-Warehouse bestimmten Daten extrahieren, schrieb die IT-Abteilung von Greenpeace selbst.

Die Datenmodelle des "Quell"-, "Empfangs"- und "Zielsystems" entwickelte das Team von Brünger-Weilandt zusammen mit SD&M und der SAG. Im Quellmodell ist beschrieben, wie die Daten und der Satzaufbau auf dem MVS-System nach der Datenextraktion aussehen. Das Empfangsmodell definiert die Daten und Strukturen, die ins Data-Warehouse übertragen werden. Das Zielmodell gibt an, wie das Data-Warehouse letztlich mit zusätzlichen Tabellen, Transformationen und Verdichtungsstufen aufgebaut ist. Neben einer Zeitachse existieren Dimensionen für die Beträge und Regionen. Herausfiltern läßt sich etwa das Geschlecht, der Spendenmodus und das Kommunikationsverhalten eines Förderers. Das Data-Warehouse bietet eine Historie, die bis zur Einführung von Grips im Jahr 1992 zurückreicht. Einmal pro Monat, jeweils nach dem Abschluß der Spendenrechnung, wird der Data-Warehouse-Pool aktualisiert. Der Vorgang dauert rund vier Stunden.

Die Einführung eines rein dispositiven Systems, in dem Abfragen nach diesen definierten Kriterien gestellt werden können, beruht im wesentlichen auf drei Notwendigkeiten. Barbara Drust vom Förderer-Service macht das anhand eines Beispiels klar. Gekoppelt an die Aktionsbriefe war früher immer ein Spendenaufruf. Dieser ging somit auch an Förderer, die für ihre Beiträge Einzugsermächtigungen erteilt hatten. Dieser Personenkreis fühlte sich richtiggehend "abgezockt" und reagierte mit Beschwerden. Seitdem sich mit Hilfe des neuen Auswertungssystems diese Personengruppe identifizieren und gesondert adressieren läßt, ist die Anzahl der Reklamationen deutlich zurückgegangen.

Kosten sparen durch gezielte Informationen

Dazu kommt, daß sich mit dem neuen Analyse-Tool durchweg Kosten einsparen lassen. Spender, die sich ausschließlich für die Rettung der Wale interessieren, müssen nicht notwendigerweise über Atommülltourismus informiert werden. Drittens lassen sich Mailing-Aktionen gezielter planen.

Für die Auswertung des Datenpools setzt der Umweltschutzverein die Online-Analyse-Tools "DSS Agent" von Microstrategy und "Esperant" von Speedware ein. Drost und Brünger-Weilandt betonen zwar die Flexibilität der Werkzeuge, bemängeln allerdings deren Benutzerfreundlichkeit. Insbesondere DSS-Agent erwies sich als schwer zu bedienen. "Damit man etwas mit den Abfrage-Ergebnissen anfangen kann", so Brünger-Weiland, "muß einem die Struktur des Data-Warehouses bekannt sein." Auch aus diesem Grund wenden sich die Anwender mit ihren Auswertungswünschen bislang an die DV-Kollegen. Nur die IT-Abteilung bedient das Informationssystem. Bisweilen behilft sie sich sogar mit SQL-Statements.

Im Schnitt dauert eine Anfrage an das System eine Viertelstunde. Diese im Vergleich zu Hypo-Bank-Anforderungen lange Wartezeit beurteilen Drust und Brünger-Weilandt jedoch übereinstimmend als akzeptabel. "Wenn wir Aktionsbriefe planen, die pro Stück allein eine Mark Porto kosten, und nach einer Viertelstunde wissen, daß man 250000 Mark spart, wenn man nur die Interessenten anspricht, ist diese Zeit gut investiert."

Die Datenhäuser im Überblick

Das 36-GB-Data-Warehouse der Hypo-Bank ist eine Eigenentwicklung.

Die Software basiert auf dem multidimensionalen Datenbank-Management-System "Essbase" von Hyperion Software.

Sie läuft auf dem Zwei-Prozessor-Rechner "Ultra II" von Sun unter Solaris. Die Maschine stellt 640 MB Hauptspeicher und 84 GB Plattenplatz zur Verfügung.

Gefüttert wird die Datenbank mit Extrakten aus vier Vorsystemen, die zum Teil eine große Anzahl weiterer Anwendungen auswerten.

Anwender sind Controller aus den sechs Stäben der Hypo-Bank-Unternehmensbereiche, die mit dem Online-Analyse-Tool "Execu View" von Comshare sowie der Tabellenkalkulation "Excel" von Microsoft arbeiten.

Das Beantworten von Anwenderanfragen dauert höchstens zwei Sekunden.

Das Data-Warehouse von Greenpeace entwickelte im wesentlichen die Software AG (SAG).

Die Software basiert auf dem relationalen SAG-Datenbank-Management-System "Adabas D".

Sie ist unter Windows NT auf dem symmetrischen Multiprozessor-System "Compaq Proliant" installiert. - Der PC verfügt über zwei mit 200 MHz-getaktete Pentium-Pro-CPUs, 512 MB RAM sowie 20 GB.

Das Warehouse enthält einen Datenextrakt aus nur einem Vorsystem, das vornehmlich Adressen und die Spenden der Vereinsförderer verwaltet.

Die Auswertungen erfolgen mit Hilfe der Online-Tools "DSS-Agent" von Microstrategy und "Esperant" von Speedware. Die Analysen werden im Auftrag der Anwender von IT-Spezialisten vorgenommen.

Bis vom System ein Abfrage-Ergebnis geliefert wird, vergeht im Schnitt eine Viertelstunde.