Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

14.02.2005

Ein weiter Weg zur Business Intelligence

14.02.2005
Software für Business Intelligence (BI) stellt Anwender vor organisatorische und technische Probleme. Vor allem eine bessere Integration der Lösungen und flexible Frontends werden verlangt.

Es klingt zunächst wie eine große Erfolgsgeschichte: Ob als Lösung für das Berichtswesen, zur Analyse von Kunden- und Marktzahlen oder im Controlling - Software für Business Intelligence ist aus vielen Unternehmen nicht mehr wegzudenken. Gesetzliche Auflagen und neue Bilanzierungsstandards sowie der verschärfte Kampf um Kunden und Märkte haben dieser Produktkategorie bei Anwendern zu einem strategischen Status verholfen.

Der Schein trügt

Dabei kommt vielen BI-Techniken laut den Analysten von Gartner zugute, dass sie dank des jahrelangen Einsatzes als erprobt gelten und ihr Kauf meist als wenig riskante Investition eingeschätzt wird. Doch der Schein trügt. Viele BI-Initiativen und Produkteinführungen haben mit erheblichen Problemen zu kämpfen und bleiben hinter den Erwartungen zurück. Dies zeigte sich an den Empfehlungen und Warnungen, die Gartner auf seinem diesjährigen "Business Intelligence Summit" in London für über 700 europäische Firmenvertreter bereithielt.

So erklärte Howard Dresner, BI-Spezialist und Vice President Research, im Gespräch mit der computerwoche, dass die meisten BI-Anwendungen weiterhin reine Abteilungslösungen seien. "Wenn Unternehmen sagen, dass sie ein Data Warehouse als zentrale Datenbasis haben, ist das in Wirklichkeit oft nur ein lokales Data Mart." Der Wildwuchs solcher Insellösungen führt dazu, dass in Unternehmen durchschnittlich 30 Prozent der BI-Infrastruktur redundant aufgebaut werde. Zwar lassen sich Data Marts in drei bis 18 Monaten einrichten und seien damit im Vergleich zu einem zentralen Data Warehouse schneller einsatzbereit. Doch steige der Pflegeaufwand, je mehr Einzellösungen entständen. Vor allem aber fehle dann eine Architektur, um Systeme zur Entscheidungsunterstützung unternehmensweit und in die Geschäftprozesse integriert nutzen zu können. Die Mehrheit der Anwender schrecke aber vor Investitionen in eine angemessene BI-Infrastruktur zurück oder habe einfach keine Zeit dafür. Laut Dresner ist die Lage daher ernst: Die allermeisten Unternehmen arbeiteten bei ihren BI-Initiativen planlos und ohne interne Standards. "Viele müssen letztlich neu anfangen", wollen sie eine Gesamtlösung.

Der Gartner-Mann rät zu einem pragmatischen Ansatz. Zunächst sei eine flexible "Topologie" für das Design eines Data Warehouse zu schaffen, die Änderungen und neue Anforderungen abbilden kann. Dabei seien Namenskonventionen ebenso zu klären wie Geschäftsregeln abzubilden. Dann sollten Anwender an diesen Vorgaben orientiert ein überschaubares, möglicherweise auch rein taktisch geprägtes Data Mart aufbauen. Im nächsten Schritt kann dann der Ausbau zum Data Warehouse starten, das wiederum die Grundlage für alle künftigen Data Marts bilde. Um die Arbeiten zu organisieren, empfiehlt Dresner ein "Business Intelligence Competence Center" als strategische Planungsstelle, die alle Vorgaben überwacht und das Management einbezieht. Unabhängig von der IT könne dort zunächst eine konsistente Strategie formuliert und ausgearbeitet werden. "Allerdings darf es nicht Jahre dauern, bis sie Ergebnisse liefert."

Die Umsetzung von BI-Lösungen bleibt aber nicht nur organisatorisch, sondern auch technisch ein Problem. So wurde in London vor allem die Datenintegration sowie die Datenqualität als wachsende Herausforderung bezeichnet. Allein die schiere Datenmenge, die laut Gartner-Analyst Kevin Strange bei manchen Unternehmen bereits im zwei- bis dreistelligen Terabyte-Bereich liegt, erfordert hier künftig eine Strategie.

Integration braucht Strategie

Hinzu kommen Aufgaben wie die Konsolidierung isolierter Data Marts, die Einbindung von immer mehr Quellsystemen sowie der in manchen Branchen vorhandene Wunsch nach (echt)zeitnahen Geschäftsinformationen. Unternehmen müssen deshalb dringend prüfen, ob die zentralisierte und Batch-orientierte Datenbewirtschaftung beim Data Warehousing noch ausreicht, und ob selbst geschriebene Skripte noch eine sinnvolle Alternative zu den immer leistungsfähigeren Tools zur Extraktion, Transformation und zum Laden (ETL) sind. Für letztere Option spricht zudem, dass sie erschwinglicher wird, da ETL-Anbieter durch Angebote von ERP- und Datenbankherstellern sowie BI-Frontend-Spezialisten unter Preisdruck stehen. Außerdem lässt sich ETL-Technik heute für neue Anwendungsgebiete einsetzen, etwa um die Datenkonsistenz zwischen verschiedenen Systemen herzustellen, Anwendungen zu migrieren oder taktische Warehouse-Lösungen für Testdaten aufzubauen.

ETL oder EAI?

Alternativ werden auch Integration Broker als ETL-Alternative beworben. Sie dienten ursprünglich zur prozessbasierenden Anwendungsintegration (Enterprise Application Integration = EAI) und haben ihre Stärken in der Umformatierung und Übermittlung von Nachrichten. Mittlerweile können sie auch Massendaten verarbeiten und adressieren zudem den Trend zur echtzeitnahen Datenübermittlung. Integration Broker sind jedoch noch weit von den ausgefeilten Bulk- und Batch-Techniken eines ETL-Servers entfernt, während dieser in puncto Messaging und Routing wenig zu bieten hat. Strange: "In den nächsten Jahren werden die meisten Unternehmen daher noch beide Ansätze zur Datenintegration benötigen."

Virtuelle Abfragen

Irrig sei es laut Gartner-Kollege Dresner hingegen, Themen wie das Duplizieren von Datensätzen, ETL und Datenqualität umgehen zu wollen, indem man auf Ansätze für Enterprise Information Integration (EII) setze oder mit "magischen" Datenkonnektoren direkt auf die Quellsysteme zugreife. EII zielt auf eine virtuelle Datenintegration ab, bei der Auswertungen über Metadaten und spezielle Abfrage- und Caching-Mechanismen nicht nur auf ein Data Warehouse, sondern auch auf operative Quellsysteme erfolgen. Dieser Ansatz wird laut Analyst Strange alle paar Jahre diskutiert und machte schon unter den Schlagworten "Information at your Fingertips" oder "virtuelles Data Warehouse" die Runde. Doch bis heute sei die Einbindung und Leistungsfähigkeit solcher EII-Systeme ein Problem. Zwar gebe es mittlerweile Techniken zur Optimierung verteilter Queries, doch würden Messungen zur Server-Auslastung und des Netzverkehrs nicht immer zur Laufzeit gemacht. "Dadurch kann eine verteilte Query morgens bei geringem Netzverkehr gut laufen, später aber für Engpässe sorgen."

Datenanbindung für Eilige

Allgemein sollte EII-Technik laut Gartner derzeit nur dann für BI genutzt werden, wenn es sich um wenige Datenquellen handelt und keine komplexen Analysen, sondern eher Look-up-Szenarien das Ziel sind. Sinnvoll könnte EII für Anwender sein, die ein Datenbankschema erweitern wollen oder ein Data Warehouse kurzfristig um zusätzliche Daten ergänzen müssen, wobei dann aber historisierte und zeitnahe Daten zu vereinen sind. Weitere Szenarien sind "Composite Applications", die aus mehreren Datenquellen versorgt wird und diese etwa über ein Portal bündeln; ferner taktische (virtuelle) Data Marts, die für den Anwender wie ein echtes Data Mart erscheinen, oder die virtuelle Konsolidierung von Data Marts, wenn es keine Ressourcen für neue Projekte gibt.

Ungelöst bleibt hingegen die Datenqualität. Laut Gartner werde das Thema in der BI-Praxis kaum beachtet und Manager wollten davon nichts hören, "weil es sie langweilt". Oft werde auch behauptet, dass es keine Probleme gebe. Die Folgen sind fehlende Integritätsregeln für den Datenaustausch oder Informationen die nicht synchronisiert seien. Selbst die Unternehmen, die das Problem erkannt haben, müssten oft aus Mangel an Ressourcen das Thema auf die lange Bank schieben. Gartner befürchtet deshalb, dass in den nächsten Jahren rund die Hälfte aller Data-Warehouse-Systeme entweder scheitert oder nur noch eingeschränkt von den Anwendern akzeptiert wird, weil IT und Business nicht einsehen, dass die Daten in ihrem Warehouse "Müll" sind.

Auf der Veranstaltung rieten die Analysten dringend dazu, mit pragmatischen Ansätzen mehr Informationen über den Zustand der Unternehmensdaten zu sammeln. Beispielsweise könnten sie "Points of Capture" schaffen, um Log-Daten für weitergehende Analysen zu gewinnen. Bei der Bewertung von Quellsystemen sollten Anwender zudem zumindest die vermeintlich wichtigsten Daten häufiger unter die Lupe nehmen. Zudem haben laut Gartner bislang nur 25 Prozent aller potenziellen BI-Benutzer bei ihrer täglichen Arbeit tatsächlich Zugriff auf Unternehmensinformationen. Dresner: " Wir sind noch weit entfernt von einer Informationsdemokratie."

Um BI aus den Abteilungssilos herauszuholen, müssen aber auch die BI-Produkte eine leistungsstarke Infrastruktur bereitstellen können. Zwar werben Anbieter laut Dresner seit zehn Jahren damit, dass ihre Produkte besser skalierten, doch sei dies bis heute nicht in ausreichendem Maße gegeben. "Natürlich können Sie alles skalieren, indem Sie immer mehr Hardware und Mitarbeiter einsetzen, doch dass kann ja wohl nicht das Ziel sein." In letzter Zeit machten die Produkte immerhin Fortschritte. So zeigen sich Verbesserungen beispielsweise beim Caching, in Multithreaded-Architekturen und im Einsatz leistungsfähiger Applikations-Server.

Aktuelle Versionen mancher BI-Produkte sind zudem enger untereinander integriert und benutzerfreundlicher geworden. "Für Anwender ist es heute grundsätzlich kein Problem mehr, mit der Software eines Herstellers Ad-hoc-Analysen, Online Analytical Processing (Olap) oder operatives Reporting zu betreiben". Jüngste Beispiele geben laut Dresner die BI-Suiten "SAS 9" von SAS Institute, die zum Sommer angekündigte "Series 8" von Cognos, "Webfocus" von Information Builders, "Microstrategy 8" von Microstrategy sowie Business Objects mit "XI", auch wenn hier die Arbeiten noch weitergingen. Die neuen Produktsuiten sind indes das Ergebnis umfangreicher Umbauten, Neuentwicklungen und Zukäufe. Sie bringen Anwendern zusätzliche Kosten für Updates, Schulungen sowie für Migrationsprojekte ins Haus. Manche Anbieter nutzen den Plattform- oder Versionswechsel zudem für saftige Lizenzpreiserhöhungen.

Weitere Trends sind künftig bei der Produktauswahl im Auge zu behalten. Hierzu gehören die Konvergenz von Tools für Query, Reporting, Analyse und Entwicklung, neue Ansätze bei der Datenintegration, der Einsatz von Collaboration-Features sowie die Kopplung von BI mit operativen Prozessen (Business Activity Monitoring). Vor dem Neukauf sollten Unternehmen trotz der strategischen Rolle von BI auch die Total Cost of Ownership von Produkten nicht aus den Augen verlieren. Diese Gesamtkosten ließen sich laut Dresner schon dadurch drastisch senken, dass man die ungenutzten Lizenzen sowie die Vielzahl der intern verwendeten (und oft konkurrierenden) Tools reduzieren würde.

Wandel am Frontend

Großer Verbesserungsbedarf scheint Client-seitig weiter bei den gebotenen Funktionen zur Aufbereitung und Formatierung von Informationen zu bestehen. Waren die Geschäftsinformationen bisher vor allem für Analysten gedacht, die sich auch in komplexen Berichten noch zurechtfinden, wollen Unternehmen die Daten künftig gezielter und individueller nach den Bedürfnissen der (auch weniger versierten) Endbenutzergruppen bereitstellen. Marktbeobachter empfehlen hierzu Web-basierende Dashboards oder Balanced Scorecards statt der bisherigen Berichts- und Analyse-Frontends.

Ampeln für den Manager

Solche Oberflächen können Daten zunächst hochverdichtet in Form grafischer Symbole wie Ampeln und Thermometer sowie anhand ausgesuchter Metriken übersichtlich anzeigen. Damit löschen sie bereits den Informationsdurst der Mehrheit der BI-Nutzer -vorausgesetzt, die Frontends können auf eine solide Data-Warehouse-Infrastruktur zugreifen. Sind weitergehende Analysen gewünscht, kann der geschulte Anwender über das Dashboard weitere Detaildaten aufrufen und auswerten. Firmenvertreter von Unternehmen wie Somerfield, Arvin Meritor oder Conoco Phillips Norway bestätigten auf der Veranstaltung den Erfolg solcher Frontends indes nur zum Teil. So wurden die Dashboards nicht von allen Fachabteilungen akzeptiert, sondern erst nach längeren Abstimmungsprozessen, über Testgruppen sowie in einem Fall gar per Anordnung eingeführt.