Zettabyte-Barriere geknackt

Big Data - die Datenflut steigt

Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.

Neue Lösungen der Anbieter

Die Auswirkungen von Big Data reichen allerdings weit über den Softwarebereich hinaus. Spies zufolge müssten die Anwender angesichts der rasant wachsenden Datenmengen auch ihre Netzkapazitäten im Auge behalten und gegebenenfalls mit neuer leistungsstärkerer Technik ausbauen. "Das Thema Big Data könnte auch die künftigen Rechnerarchitekturen grundlegend verändern", führt der Analyst aus. In klassischen Architekturen würden die Daten von Plattensystemen zur CPU transportiert, dort verarbeitet und die Ergebnisse wieder zurück auf die Speicher geschrieben. Wachsen die Datenmengen weiter an, dürfte dieses Modell bald an seine Grenzen stoßen. Mittlerweile gebe es Überlegungen, die Rechenleistung zu den Daten zu bringen. Vanessa Alvarez, Analystin von Forrester Research, bezeichnet herkömmliche Speicherarchitekturen als zu statisch und unflexibel für die Big-Data-Anforderungen. Besser geeignet seien dedizierte Appliances, die Storage, Computing- und Netzressourcen mit Analytics-Funktionen in einem Gerät kombinierten. Hersteller wie Oracle haben diesen Ansatz in Produkten wie den "Exadata"-Maschinen bereits aufgegriffen.

Darüber hinaus droht Spies zufolge die klassische Festplattentechnik zu einem Flaschenhals zu werden. Mittlerweile versuchen die Storage-Hersteller, die Speicher-Performance mit Flash-basierenden SSDs zu pushen. Darüber hinaus forschen sie längst an noch leistungsfähigeren Storage-Techniken. Nanoröhren und holografische Speicher sind die Stichworte.

Beispielsweise hat IBM erst kürzlich mit seiner Racktrace-Technik ein neues Speicherkonzept vorgestellt. Dabei werden Informationen in Form von winzigen, gegensätzlich magnetisierten Regionen in einem Nanodraht gespeichert. IBM zufolge lässt sich damit eine extrem hohe Speicherdichte ohne Performance-Einbußen erreichen. Allerdings werde es noch einige Jahre dauern, bis die Technik marktreif sei.

100 Millionen Dollar für Big Data

IBM will weiter in Big Data investieren. Rund 100 Millionen Dollar sollen in der nächsten Zeit in Forschung und Entwicklung für diesen Bereich fließen. Ziel der Initiative sei es, neue Produkte und Services auf den Markt zu bringen, die Unternehmen dabei unterstützen sollen, die steigenden Datenfluten in den Griff zu bekommen. Neben eigenen Entwicklungen und Zukäufen setzt IBM auch auf fremde Techniken wie die NoSQL-Lösung "Hadoop". Diese bietet ein hochskalierbares Filesystem, um unterschiedlich strukturierte Daten zu speichern, sowie ein Entwicklungs-Framework, um Programme für eine parallelisierte Verarbeitung der Daten zu erstellen. Hadoop basiert auf Googles Map-Reduce-Ansatz und wird von der Apache Foundation als Open-Source-Lösung bereitgestellt.

Mittlerweile haben verschiedene namhafte Hersteller Hadoop-basierende Produkte angekündigt. Oracle will beispielsweise eine Big Data Appliance mit NoSQL-Datenbank und Hadoop-Werkzeugen herausbringen. Die EMC-Tochter Greenplum plant, ihre analytische Datenbank mit einer eigenen Hadoop-Distribution zu kombinieren. Und Microsoft bietet für seinen SQL Server Hadoop-Konnektoren an.

Neben NoSQL-Lösungen gibt es eine Reihe weiterer Techniken, die laut Herstellern den Anwendern im Umgang mit Big Data helfen könnten. Dazu zählen beispielsweise spaltenorientierte Datenbanken und In-Memory-Techniken, die Abfragen deutlich beschleunigen sollen. Neben den großen Anbietern wie SAP, die mit "HANA" eine auf In-Memory-Technik basierende BI-Appliance anbietet, sehen an dieser Stelle auch kleinere Spezialanbieter ihre Chance. Dazu zählen beispielsweise Exasol aus Nürnberg und Parstream aus Köln.

Zur Startseite