Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

09.05.1997 - 

Proprietäre Produkte treiben Kosten in die Höhe

Data-Warehousing: Offene Tools sind Mangelware

Die Erkenntnis, daß ein Data-Warehouse nicht "von der Stange" erhältlich ist, hat sich bei DV-Managern inzwischen durchgesetzt. Doch der massive Aufwand für den Betrieb einer Decision-Support-Lösung übertrifft alle Erwartungen. Insbesondere bei der Beseitigung der Probleme, die während des Betriebs einer solchen Anwendung entstehen, fühlen sich IT-Abteilungen allein gelassen.

Hanjo Krause, verantwortlich für Data-Warehouse-Projekte bei der Lufthansa Systems in Kelsterbach, sieht im Warehousing sogar eine Welle, die, "bevor sie richtig hochgeht auch schon wieder abebbt. Der Hype, der auf Kongressen und Veranstaltungen sowie in den Medien heraufbeschworen wird, entspringt eher den Wunschvorstellungen der Hardwarelieferanten und Datenbankhersteller", erklärt er.

Nach seinen Erfahrungen ergeben sich die größten Schwierigkeiten daraus, daß in den operativen Systemen, die als Datenquelle für ein Data-Warehouse dienen, unterschiedliche Schlüsselfelder verwendet werden. Die rund 160 GB Daten der Lufthansa müssen vor der Übertragung in die Warehouse-Datenbank abgeglichen werden, was zu erheblichen Problemen führt: "Mit Standard-Mapping-Tools haben wir eher schlechte Erfahrungen gemacht".

Bei Testläufen hätten Werkzeuge von der Stange bereits bei Datenvolumina von 200 MB "die Grätsche" gemacht. Als Folge daraus habe man Extraktionstools selbst entwickelt: Für den Export kommen jetzt Cobol-Programme zum Einsatz, importiert wird per Datenbank-Load.

Krauses Variante, Mapping-Tools selber zu entwickeln, ist nach Einschätzung von Dr. Wolfgang Martin, Program Director Europe für die Application Development Strategies Services der Meta Group, zwar durchaus üblich. Die Gefahr dabei sei aber, daß man auch die Wartung dieser "selbstgestrickten" Lösung organisieren müsse.

Brenda Moncla, IT-Verantwortliche der U.S. West Communications in Denver, die ein 1 Terabyte großes Data-Warehouses betreiben, beklagt sich nicht nur über zu hohen Verwaltungsaufwand: In ihrem Unternehmen sind allein zwei bis drei Datenbankadministratoren damit beschäftigt, Daten aus unterschiedlichen operativen Systemen zu extrahieren und in die Warehouse-Datenbank zu überführen. Ein weiteres Problem sei die Datenbank selbst, die beim Design oft nicht für stark wachsende Informationsmengen ausgelegt wurde, berichtet Moncla in der CW-Schwesterpublikation "Computerworld". Ebenso kritisch beurteilt sie die zum Teil unstrukturierten Anforderungen der Endanwender in Marketing und Vertrieb, die ständige Systemänderungen zur Folge hätten.

Marktbeobachter Martin ergänzt: "Neben technischen Problemen ist in den meisten Fällen die Qualität der Datenbasis völlig unzureichend." Auch das Management kommt bei seiner Einschätzung nicht ungeschoren davon: "Die Entscheider denken bei einem Data-Warehouse immer noch an Enterprise- oder Executive-Information-Systeme (EIS). Das Potential eines Data-Warehouses wird überhaupt nicht ausgeschöpft", fügt er hinzu.

Den Grund für diese Misere nennen die Analysten der Gartner Group: Große Unternehmen hätten es versäumt, sich auf einheitliche Daten- und Prozeßmodelle zu verständigen. "Vorhandene Systeme sind auf die Belange einzelner Abteilungen oder Geschäftsbereiche zugeschnitten," erklärt Jonathan Block, Data-Warehouse-Spezialist bei der Gartner Group. Dadurch sei die Integration zu einem unternehmensweiten Data-Warehouse oft unmöglich oder nur mit erheblichem Aufwand erreichbar.

Nach Auffassung der Marktforscher von Input lassen sich Data-Warehouses sogar nur dann sinnvoll nutzen, wenn sie eng an den Geschäftsprozessen der Unternehmen ausgerichtet sind. Anderenfalls hätten die Unternehmen gute Chancen, sich einen "viele Millionen Dollar teuren, weißen Elefanten ins Haus zu holen".

Die Folgen der bereichsspezifischen Denke von Business-Veranwortlichen haben die IT-Abteilungen nun auszubaden, folgert Gartner-Analyst Block. "Datenbank-Verwalter müssen Daten aus vielen Systemen aufbereiten und ins Warehouse überführen. Und das ist bisher sehr aufwendig." Schuld daran seien vor allem das aufwendige Management von Warehouse-Umgebungen, die Redundanz von Metadaten und die Verwaltung von Summentabellen. "Werkzeuge wie Online-Analytical-Processing-(Olap)- oder Query-Generatoren helfen Administratoren zwar, die Anwenderwünsche zu erfüllen, aber die Probleme der IT-Abteilung lassen sich damit meist nicht lösen", erklärt Block. Solche Tools reifen seiner Meinung nach erst ganz langsam heran.

Mit rascher Hilfe der Anbieter könnten Anwender also nicht rechnen. Laut Block werden zwar Monat für Monat neue Produkte angeboten, die den Warehouse-Betrieb automatisieren sollen, doch zielten diese eher auf den Aufbau neuer Anwendungen als auf die Unterstützung bereits laufender ab. Auch seien diese Werkzeuge proprietär und somit auf die Endbenutzer-Analysewerkzeuge ihres Herstellers zugeschnitten, so daß die Integration mit bestehenden anderen Systemen sich äußert schwierig gestaltet.

IT-Managerin Moncla gibt hier Rat zur Selbsthilfe: Ein wirksamer Trick sei es, Datenbestände in kleinere Häppchen zu zerlegen, in sogenannte Data-Marts. Um die Laufzeit von Abfragen zu verkürzen, sei es außerdem nützlich, Indizes, Summentabellen und multidimensionale Würfel zu bilden. Auch könne die Entwicklung eigener Werkzeuge und der direkte Kontakt zu den Endbenutzern die Administration erleichtern. Sollten all diese Aktivitäten nicht zu einer akzeptablen Performance führen, bleibt immer noch die Möglichkeit, Hardware nachzurüsten.