Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

03.06.2013 - 

DB2 mit BLU-Beschleunigung

Aus Big Data wird Small Data

Dr. Klaus Manhart hat an der LMU München Logik/Wissenschaftstheorie studiert. Seit 1999 ist er freier Fachautor für IT und Wissenschaft und seit 2005 Lehrbeauftragter an der Uni München für Computersimulation. Schwerpunkte im Bereich IT-Journalismus sind Internet, Business-Computing, Linux und Mobilanwendungen.
Anzeige  Mit BLU bietet IBMs neues Datenbanksystem DB2 eine ganze Reihe von Beschleunigungstechnologien für große Datenmengen. Mehrfaches, intelligentes Sortieren und Komprimieren reduziert Terabyte-große Daten auf ein Minimum. Davon profitieren besonders massiv lesende Zugriffe und typische Data-Warehouse-Anwendungen.
Foto: IBM

Große Datenmengen brauchen neue Technologien. An Terabyte und Petabyte von Daten versagen herkömmliche Methoden. In der neuen Version des Datenbankservers DB2 10.5 mit BLU Acceleration setzt IBM auf eine Technologie namens BLU, um auf Daten von analytischen Systemen In-Memory und damit sehr performant zuzugreifen.

BLU (Blink Ultimate), das auf das Projekt Blink des IBM-Forschungszentrums in Almaden zurückgeht, kombiniert gleich mehrere Technologien: In-Memory-Computing, spaltenorientierte Datenbank-Tabellen, Data Skipping, SIMD (Single Instruction Multiple Data) und aus dem Supercomputing stammendes Vektorrechnen. Mit diesem wahren Feuerwerk an neuen Methoden soll die zu verarbeitende Datenmenge von mehreren Terabytes auf eine kleine Größe komprimiert - und damit die Datenverarbeitung und -analyse deutlich beschleunigt werden.

Reduziert werden die Daten dabei nicht, sondern lediglich sortiert und komprimiert. "Die eigentliche Datenmenge bleibt auf dem ursprünglichen Speichersystem erhalten", sagt Holm Landrock von der Experton Group in einer Review des neuen IBM-Systems. "Der Clou ist die mehrfache Datenkomprimierung auf dem Weg zum SQL-Befehl. Die Datenkomprimierung findet im Speicher und in der Analyse statt."

Vor allem zwei Grundziele kennzeichnen BLU:

  • Die Daten sollen möglichst effizient im Memory gehalten werden.

  • Die Daten werden in den Tabellen und im Speicher spaltenorientiert abgelegt.