Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

13.10.2006

Datenanalyse: Arbeitsspeicher statt Olap

In-Memory-Konzept stellt Wirtschaftlichkeit bisheriger Ansätze im Business Intelligence in Frage.

Folgt man den Prognosen von Gartner oder der Werbung von Analysespezialisten wie Qliktech, Panoratio Software, Spotfire, Applix oder neuerdings SAP, erlebt die Datenanalyse derzeit eine Revolution. Bisher ist es üblich die Datenbestände für detaillierte Auswertungen separat zu aggregieren (etwa als virtueller Würfel) und nach dem Verfahren eines Online Analytical Processing (Olap) zu durchforsten. Anbieter von Business-Intelligence-Software (BI) wie Hyperion, Cognos, Business Objects, Microsoft oder MIS bieten dazu spezielle multidimensionale Datenbanken an oder greifen auf relationale Daten über denormalisierte Modelle (vor allem Stern-Schemata) zu. Datenquelle ist meist ein Data Warehouse oder ein separater Datenspeicher für operative Daten.

Firmen und Hersteller haben viel investiert

Der Nachteil dieses Ansatzes ist, dass Unternehmen oft erhebliche Ressourcen und Kosten in den Aufbau und in die Pflege dieser zusätzlichen Datenschicht stecken müssen. Zudem müssen die Daten bei allen Raffinessen laufend aktualisiert werden, was durchaus Stunden dauern kann und sich auf die immer mehr geforderte Aktualität der Informationen negativ auswirkt. Hersteller ihrerseits haben in den letzten Jahren viel investiert, um beide Ansätze gleich gut in ihren Produktplattformen unterstützen zu können.

In-Memory-Verfahren waren zwar bereits seit längerem verfügbar, aber aufgrund technischer Limitierungen wie etwa 32-Bit-Computing oft auf den Desktop und kleinere Datenmengen beschränkt. Kleine taktische Lösungen dominierten. Mittlerweile gewinnt sie aber jetzt dank der Weiterentwicklung der Technik, sinken-der Hardwarepreise und der wachsender Verbreitung von 64-Bit-Technik an Zuspruch. Dank letzterer können mit entsprechenden Intel- oder AMD-Prozessoren bis zu einem Terabyte geladen werden.

Lizenzkosten stehen unter Druck

Theoretisch wäre ein Vielfaches möglich. Entsprechende Analyseprodukte versprechen ferner eine niedrigere Total Cost of Ownership für den Anwender, wobei sich der Kostenvorteil derzeit ein wenig relativiert, da die etablierten Anbieter die bisherigen Lizenzkosten immer weiter drücken. Zudem werden In-Memory-Lösungen derzeit eher zusätzlich genutzt, als dass sie vorhandene Olap-Systeme ersetzen, zumal Unternehmen viel Geld und Know-how in Letztere investiert haben.

Großunternehmen werden schnell umsteigen

Dennoch erwartet Gartner, dass in fünf Jahren bereits 70 Prozent aller Global-1000-Unternehmen die Arbeitsspeicher-basierende Auswertung von Detaildaten aus Performance-Gründen favorisieren. Statt also einen eigenen Daten-Layer aufzubauen, werden Berechnungen on-the-fly vorgenommen. Dabei ließen sich die Antwortzeiten mit bisherigen Olap-Architekturen nicht nur messen, sondern hätten diese in Projekten deutlich überboten. Doch vor zu viel Euphorie sei gewarnt: Unternehmen dürften ihre solide Data-Warehouse-Architektur und Datenstandards nicht durch unkontrollierte In-Memory-Lösungen aushebeln, warnt Gartner. Dies hätte einen noch dramatischeren Effekt auf die Datenkonsistenz als isolierte Excel-Lösungen. Auch gebe es weitere wichtige Mechanismen für die Leistungssteigerung wie Caching, spezialisierte SQL-Statements, Vektortechnik, Load Balancing oder Connecton Pooling. (as)