Zettabyte-Barriere geknackt

Big Data - die Datenflut steigt

Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.

Neue BI-Ansätze

Neben der Organisation der wachsenden Datenberge müssen die Unternehmen auch lernen, aus den Massen an Informationen den größtmöglichen Nutzen für das eigene Business zu ziehen. Eine wichtige Rolle spielt in diesem Zusammenhang das Thema Business Intelligence (BI). Doch dabei ändert sich die Zielrichtung. Stand früher vor allem das Reporting auf Basis historischer Daten im Vordergrund, geht es heute verstärkt darum, neue Daten in Echtzeit auszuwerten und künftige Entwicklungen zu simulieren, um eine möglichst valide Grundlage für Entscheidungen zu erhalten. Entsprechende Lösungen fasst man unter dem Label "Predictive Analytics" zusammen.

Eine Umfrage von Lünendonk unter BI-Anbietern hat jüngst ergeben, dass Themen wie die Integration externer Datenquellen in analytische Infrastrukturen sowie die Konzeption analytischer Lösungen für die Auswertung komplexer Datenmengen ganz oben auf den To-do-Listen der Softwarehersteller stehen. "Mit neuen Technologien zur Analyse von Big Data könnten bisher nicht lösbare analytische Probleme angegangen werden", verspricht Christoph Morgen, BI-Experte von SAS. Damit ließen sich mehr Aspekte berücksichtigen und die Genauigkeit der analytischenVerfahren erhöhen. "Statisches Reporting mit Blick in die Vergangenheit hat endgültig ausgedient."

BI-Visionen mit Watson

Die Anbieter arbeiten längst an den BI-Lösungen von morgen. Für Aufsehen sorgte zuletzt beispielsweise IBMs Superrechner "Watson", der zwei erstklassige menschliche Kontrahenten in der US-amerikanischen Quizsendung "Jeopardy" schlagen konnte. Das System analysiert durch massiv-paralleles Data Crunching innerhalb kürzester Zeite riesige Datenmengen und kann mit Hilfe künstlicher Intelligenz sogar Nuancen menschlicher Sprache erkennen.

Aber auch kleine Spezialisten haben in dem neuen Feld durchaus ihre Chancen. Das Startup Proximal Labs hat zum Beispiel gemeinsam mit dem US-Verteidigungsministerium eine Lösung entwickelt, um das Know-how von Kollegen anhand von Meinungen von Nutzern im Netz zu analysieren. Damit könnte die Software im Kundenservice jeweils den geeignetsten Mitarbeiter für bestimmte Anfragen vorschlagen. Das deutsche Unternehmen Blue Yonder kombiniert in seiner Software "NeuroBayes" neuronale Netze mit statistischen Methoden. Das System lernt dabei, nur die wirklich relevanten Informationen aus dem Datenrauschen herauszufiltern, und erhöht so die Prognosegenauigkeit.

Nicht zum "Daten-Messie" werden

Andreas Stein, Managing Director Dell Services.
Andreas Stein, Managing Director Dell Services.
Foto: Dell

Andreas Stein, Managing Director Dell Services in Deutschland, rät den Unternehmen, nicht alles zu speichern, was sie technisch speichern könnten. "Die sinkenden Hardwarekosten verführen dazu, der Datenflut einfach durch die Erweiterung der Storage-Systeme zu begegnen." Das sei jedoch der falsche Weg. Viele Firmen verwahrten und verwalteten Unmengen an Daten, die nie wieder gebraucht würden. "Tatsächlich sind die Unternehmen heute auf dem besten Weg dazu, Daten-Messies zu werden."

Der Dell-Manager plädiert für eine konsequente Priorisierung von Daten. Genauso konsequent müsse dann gelöscht werden: "Man muss auch loslassen können: Was nicht zwingend gebraucht wird, muss aus den Storage-Systemen verschwinden."

Zur Startseite