Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

21.05.2004 - 

Die Produkttrends der kommenden Jahre

Anforderungen im Data Warehousing steigen

MÜNCHEN (CW) - Data Warehouses spielen eine zentrale Rolle in der betrieblichen Datenverarbeitung. Sie finden sich heute in allen Bereichen des Unternehmens: von der Lieferkette über Finanzen und Controlling bis hin zu Kundenbeziehungen. Durch neue Anforderungen werden sich in den nächsten Jahren Funktionen und Leistung der Systeme erheblich wandeln. Von Carsten Bange*

Werkzeuge und Methoden zur Integration, Speicherung und Aufbereitung von Unternehmensdaten sind die zentralen Komponenten eines Data Warehouse. Sie müssen vor allem die Extraktion, Transformation und das Laden (ETL) technisch gut unterstützen, um den Erfolg eines Projektes zu sichern. Dabei spielt eine Bestandsaufnahme und Messung der Qualität vorhandener Daten (Data Profiling) sowie die fehlertolerante Suche und Verbesserung von Daten für bestimmte Anwendungsfälle (Data Cleansing) eine wachsende Rolle. Während etablierte Datenbankhersteller erst langsam diese Thematik erkennen, bieten zahlreiche Spezialisten, Business-Intelligence-(BI-) und ETL-Anbieter bereits eigene oder zugekaufte Produkte. So erwarb SAS Institute den Datenqualitätsspezialisten Dataflux, und Ascential Software bietet mit "Quality Stage" ein Produkt für Profiling und Cleansing ergänzend zu ETL an. Dessen Konkurrenten Informatica und Oracle haben erste Entwicklungen für Data Profiling auf den Markt gebracht. Andere Beispiele sind der Qualitätsspezialist Group 1, der sich ETL-Technik durch den Zukauf des Anbieters Sagent sichert, sowie der Cleansing-Spezialist Trillium, der kürzlich Data-Profiling-Technik von Avellino übernahm.

Analyse und Integrationstechnik

Ein weiterer Trend zeichnet sich mit Realtime-Data-Warehousing ab. Ziel ist es, Geschäftsprozesse zu überwachen (Business Activity Monitoring) und geschäftsrelevante Ereignisse unmittelbar mit Hilfe von Alarmfunktionen (Alerting) zu melden. Technisch erfordert dies eine Kombination bisheriger Batch-Verarbeitung insbesondere mit Messaging-Technik, wie sie Software für Enterprise Application Integration (EAI) bietet. Produktbeispiele für eine Kombination von ETL- und EAI sind Engines mit Listener-Technologien von Ascential und Informatica, Messaging-Funktionen im "Data Integrator" von Business Objects oder die Einbeziehung des "Business Warehouse" in die Infrastrukturplattform "Netweaver" der SAP. Auch Erweiterungen von ETL-Produkten um Lösungen für den (Massen-)Transaktionsdatentransfer wie bei Ascential durch den Kauf von Mercator oder die Übernahme von Adaptern des EAI-Spezialisten Actional durch Iway Software fallen in diese Kategorie.

Wachsende Datenmengen lassen ferner angemessene Lade- und Abfragezeiten des Data Warehouse zu einer großen Herausforderung werden. Hersteller versuchen diesem Problem zu begegnen durch 64-Bit-Hardware, den Einsatz massiv-paralleler Datenbanken oder durch die Kombination von symmetrischem Multiprocessing (SMP) und massiv-parallelem Processing (MPP) wie sie IBM, NCR oder Netezza entwickeln. Oracle setzt hingegen auf kostengünstige Hardwarearchitekturen als Basis für seine Data-Warehouse-Systeme und nutzt auch vernetzte Linux-Rechner. ETL-Werkzeuge zeigen indes bei der Verarbeitung von Massendaten oft Leistungsprobleme beim Datendurchsatz. Hilfe versprechen Techniken wie eine Applikations-Parallelisierung bei Ascential, der Einsatz eines Bulk Loader oder die noch performanteren Array-Einfügeoperationen der Zieldatenbank in der ETL-Skriptsprache, wie sie etwa Hummingbird in seinem Produkt "Genio" bietet.

Multidimensionale Datenbanken (MDBs) sind als dezentral administrierte Data Marts in Fachabteilungen oder Ergänzung zu relationalen Data Warehouses (RDBs) für aggregierte Daten mit hohen Anforderungen hinsichtlich der Abfragegeschwindigkeit sehr nützlich. Doch sind beide Ansätze in puncto Datenmodell, Abfragesprachen oder Schnittstellen oft verschieden. Integrationspfade eröffnen beispielsweise Microsoft und SAS oder Oracle, das mit 10g inzwischen beide Speichertechniken vereint. Ferner stärken Spezialisten wie Applix, Hyperion, MIS oder MIK ihre Anbindungs- und Austauschmöglichkeiten mit anderen Datenbanken.

Da sich Data Warehouses ständig weiterentwickeln, wird ein Lifecycle-Management immer wichtiger. Es umfasst das Management der Stammdaten, die Überwachung und Optimierung der Datenbankressourcen sowie die Abrechnung und Sicherstellung der Performance. Beispiele sind die weitgehende Optimierung von Anfragen und Speicherstrukturen bei IBM und NCR oder ein Gegenbeispiel die schlechte Performance von SAP BW bei nicht oder falsch gepflegten Aggregaten. Eine Modellierung und Nachhaltung der sich ständig ändernden Data-Warehouse-Strukturen kann zudem auf der Ebene der Datenintegration durch ETL-Tools wie Cognos "Decisionstream", durch Applikations-Server wie SAP BW oder Spezialanwendungen wie Kalido unterstützt werden.

Ein Trend ist auch die Modernisierung des Data-Warehouse, dessen Architektur künftig Web-fähig sein muss und einen skalierbaren und robusten Applikations-Server umfasst. Viele Funktionen übernimmt nun die Datenbank, etwa für Reporting und Analyse (Data Mining) die Ausführung von Modellen oder zeitnahe Überwachungs- und Notifikationsmechanismen (Alerting). So werden etwa Standardberichte zusehends von besonderen Servern oder den Data-Warehouse-Datenbanken übernommen, da sie anders als in operativen Systemen eine Historisierung von Daten oder die Integration von Daten aus verschiedenen Quellen erlauben. Produkte sind die "Reporting Services" bei Microsoft sowie Lösungen für das Massenberichtswesen von Actuate, Business Objects, Cognos, Information Builders oder Microstrategy.

Begehrte Metadaten

Ein wesentlicher Nutzen von Data Warehouses wird künftig immer mehr auch in ihren Metadaten gesehen werden. Diese sollen nicht mehr nur technische Informationen wie Datentypen bereitstellen, sondern auch geschäftsorientierte Informationen vorhalten. Analog werden neue Ansätze zur Metadatenspeicherung, Austausch und Bereitstellung benötigt. Ein Beispiel ist das Common Warehouse Model, das ein standardisiertes Beschreibungs- und Austauschformat bietet. Zwar nutzen Oracle, Hyperion und SAS dieses schon, allerdings weitgehend zum einfachen Austausch von Datenmodellen. Spezielle Metadatentechnik bietet auch Ascential mit seinen "Meta Brokern" oder Informatica mit "Super Glue". Ebenso dienen ETL-Tools zur Integration und Metadatenanalyse, doch steckt eine Verbindung dieser Informationen mit der Datenaufbereitung und Endanwenderwerkzeugen noch in den Kinderschuhen.

Schließlich wird auch die Nutzung unstrukturierter Daten Anwender beschäftigen. So liegen 80 Prozent aller Daten und potenzieller Informationen als Text, Bild oder Tondateien vor und sind nicht integriert mit den strukturierten Daten eines Data Warehouses. Hier gilt es künftig, auf allen Ebenen des Systems Lösungen zu finden. So liefert IBM mit dem "Information Integrator" einen ersten Ansatz zur Datenintegration, und alle Datenbankanbieter arbeiten an Techniken zur Speicherung für XML- und unstrukturierte Daten. Hummingbird integriert zur Aufbereitung solcher Daten eine Suchmaschine, während Microsoft mit "Smart Tags" eine Referenzierung solcher Informationen erlaubt. (as)

*Carsten Bange ist geschäftsführender Gesellschafter bei Barc in Würzburg.

Hersteller im Vergleich

Data-Warehouse-Lösungen bilden den Kern für analytische Anwendungen zur Messung der Unternehmensleistung. Neue Anwendungsgebiete machen die Integration, Speicherung und Aufbereitung von Daten noch wichtiger. Doch die Technik ist komplex, das Investitionsrisiko hoch. Die CW und das Business Application Research Centers (Barc) in Würzburg haben deshalb die Veranstaltungsreihe "Data-Warehouse-Lösungen im direkten Vergleich" ins Leben gerufen. Sie soll helfen, die Lösungsangebote führender Anbieter besser bewerten zu können.

Veranstaltungsorte sind München (26. Mai 2004), Hannover (2.Juni) und Düsseldorf (8.Juni). Die Teilnahme für Anwenderunternehmen ist kostenfrei, Berater und Softwareanbieter zahlen 250 Euro. Anmeldung und weitere Auskünfte bei Herrn Keller unter 0931/8806510 oder unter 0931/88065128 (Fax).

Abb: Brennpunkte auf allen Systemebenen

Bei der Aufbereitung, Speicherung und Integration von Daten im Data Warehouse kommen neue Probleme und Anwendungsfelder auf die Agenda. Quelle: BARC