Zettabyte-Barriere geknackt

Big Data - die Datenflut steigt

Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.

Was kostet Big Data?

Ein grundsätzliches Problem im Big-Data-Umfeld ist für Anwender eine verlässliche Kosten-Nutzen-Kalkulation. Schließlich müssen die Verantwortlichen Geld in die Hand nehmen, um zusätzliche Systeme anzuschaffen - und die sind in aller Regel nicht gerade günstig. Hadoop als Open-Source-Produkt, das sich auch auf Standardhardware einsetzen lässt, wirkt zwar aus Kostensicht zunächst attraktiv. Allerdings, schränkt Barc-Chef Bange ein, müssen Unternehmen für das Framework aus Filesystem und Entwicklungsumgebung zusätzliche Entwicklerkapazitäten bereitstellen, um das Produkt an die eigenen Anforderungen anzupassen.

"Anwender sollten hier aufpassen", warnt Bange. Manche Hersteller erzeugten rund um Big Data teinen regelrechten Hype und argumentierten oft mit Extrembespielen, die sich keineswegs verallgemeinern ließen. IDC-Analyst Spies mahnt ebenfalls zur Vorsicht: Anwenderunternehmen müssten die Kosten im Blick behalten. Big Data sei ein neuer Markt, in dem Höchstpreise verlangt würden. Die Anbieter versuchten hier viel Geld abzugreifen.

Trotzdem kann es sich kaum ein Unternehmen leisten, die einschlägigen Themen zu ignorieren. Dafür sind die Probleme rund um explodierende Datenbestände schon zu konkret. Während sich in der Vergangenheit nur einige wenige Unternehmen wie beispielsweise Telekommunikationsanbieter mit Terabyte-großen Data Warehouses herumschlagen mussten, sind Datensammlungen dieser Größenordnung heute keine Seltenheit mehr.

Dafür brauchen die Unternehmen neue Tools, stellt Spies klar: "Big Data katalysiert die verschiedensten Entwicklungen." Dahinter stecke schließlich ein gigantisches Veränderungspotenzial, das auch dringend gebraucht werde: "Die Menge der Daten fliegt uns um die Ohren."
(Martin Bayer, Computerwoche / rb)

Zur Startseite