Technologien für große Datenmengen

Big Data im Griff

Dr. Klaus Manhart hat an der LMU München Logik/Wissenschaftstheorie studiert. Seit 1999 ist er freier Fachautor für IT und Wissenschaft und seit 2005 Lehrbeauftragter an der Uni München für Computersimulation. Schwerpunkte im Bereich IT-Journalismus sind Internet, Business-Computing, Linux und Mobilanwendungen.

Echtzeitanalyse mit In Memory

Neben NoSQL-Lösungen sind eine Reihe weiterer Techniken verfügbar, die den Umgang mit großen Datenmengen erleichtern. Dazu gehören beispielsweise spaltenorientierte Datenbanken und In-Memory-Techniken, die Abfragen gravierend beschleunigen können. Mit HANA bietet SAP beispielsweise eine auf In-Memory-Technik basierende BI-Applikation.

HANA wurde Mitte 2010 von ihren geistigen Vätern Hasso Plattner und Technik-Chef Vishal Sikka als Hochleistungsplattform für die analytische Bearbeitung großer Datenmengen vorgestellt. Ihren Geschwindigkeitsvorsprung gegenüber herkömmlichen Datenbank-Techniken gewinnt die In-Memory-Lösung dadurch, dass Daten im Arbeitsspeicher statt auf externen Speichermedien abgelegt werden.

Fujitsu bietet für SAP HANA eine validierte und vorinstallierte Plattformkonfiguration an. Die Multiknoten-Umgebung aus PRIMERGY RX600 und RX900 Rack Servern, ETERNUS Storage-Systemen und Netzwerklösungen beschleunigt die Echtzeit-Analyse hoher Transaktionsdatenmengen mit SAP HANA erheblich - laut Fujitsu um den Faktor acht.

Dazu wird die Datenanalyse direkt im Hauptspeicher des Servers durchgeführt - das heißt, die Daten müssen nicht zuerst auf plattenbasierte Systeme heruntergeladen werden. Durch diese weiter beschleunigte Echtzeit-Analyse sollen Unternehmen neue Trends und Muster noch schneller aufspüren und umgehend auf sich verändernde Marktbedingungen reagieren können.

Zur Startseite