Spezialisten gefragt

Big Data – Chancen und Risiken für den Channel

06.11.2012
Unternehmen kämpfen mit einer Flut an Daten, die aus zahlreichen Quellen und in unterschiedlichen Formaten in ihre IT-Systeme strömen. Es wird zunehmend schwieriger, aus diesen Datenbergen zukunftsrelevante Informationen herauszufiltern. Hier sind Big-Data-Spezialisten gefragt.
"Organisationen werden hybride Szenarien aus vorhandener und neuer Technologie entwickeln, um sich der Herausforderung Big Data zu nähern", Matthias Zacher, Senior Consultant bei IDC
Foto:


Unternehmen kämpfen mit einer Flut an Daten, die aus zahlreichen Quellen und in unterschiedlichen Formaten in ihre IT-Systeme strömen. Es wird zunehmend schwieriger, aus diesen Datenbergen zukunftsrelevante Informationen herauszufiltern. Hier sind Big-Data-Spezialisten gefragt.
So leicht der Begriff über die Lippen geht, so sperrig bleibt die Materie: Schon die Definition des Schlagworts "Big Data" kann in einen Schlagabtausch münden. Dabei heißt Big Data doch übersetzt erst einmal nichts anderes als "große Daten".

Und größer werdende Datenvolumina an sich sind für die IT nichts Neues. Schon in der Vergangenheit versuchten IT-Administratoren und Controller, mit komplexer werdenden Filtermethoden und Data-Minig-Tools, den in Datawarehouses gestauten Datenfluten wertvolle Erkenntnisse zu entreißen. Was also ist das Besondere am neuen Phänomen Big Data?

Die Besonderheiten

Die Datenmenge steigt im Gegensatz zu früheren Zeiten nicht nur sprunghaft an, sondern in einem Maße, wie sie die IT-Branche bis dato nicht kannte. IDC schätzt, dass das Datenvolumen von 0,8 Zettabyte im Jahr 2009 bis zum Jahr 2020 auf 35 Zettabyte anwachsen wird. Anschaulich gemacht: der Zahl 35 folgen 21 Nullen. Die installierte Speicherkapazität werde laut IDC bis 2014 auf 79,8 Exabyte emporschnellen. Zum Vergleich: 2007 waren es rund 6,7 Exabyte.

Dinko Eror, Senior Director Global Services Lead bei EMC Deutschland.
Foto: EMC

Doch Big Data ist nicht nur eine Frage des Volumens. Zunehmend gehe es auch um kleine Datenmengen, die innerhalb eines komplexen Szenarios verarbeitet werden müssen. "Big Data bedeutet vor allem die sinnvolle Kombination von Daten, um daraus Muster zu erkennen, die Antworten auf bestimmte Fragestellungen liefern", erklärt Dinko Eror, Senior Director Global Services Lead bei EMC Deutschland.

4 Kriterien, die für Big Data kennzeichnend sind (Quelle: IDC, 10/2012)
Big Data Technologie-Stack (Quelle: IDC, 10/2012)
Permanentes Datenwachstum (Quelle: IDC, 10/2012)
Datenwachstum aus unterschiedlichsten Quellen (Quelle: IDC, 10/2012)
Einschätzungen der Anwender zum Datenwachstum (Quelle: IDC, 10/2012)
Herausforderung bei Datenmanagement und Datenhaltung (Quelle: IDC, 10/2012)
Technologische Herausforderungen beim Datenmanagement(Quelle: IDC, 10/2012)
Was ist neu an der Big-Data-Technologie? (Quelle: IDC, 10/2012)
Neue Generation von Technologien und Architekturen(Quelle: IDC, 10/2012)
Big Data: Lösungen und Technologie (Quelle: IDC 10/2012)
Big Data - Herausforderungen aus Sicht der IT-Entscheider(Quelle: IDC, 10/2012)
Potenzial von Big Data aus Business-Sicht (Quelle: IDC, 10/2012)
Big-Data-relevante Geschäftsbereiche (Quelle: IDC, 10/2012)
Organisationsmodelle für Big Data (Quelle: IDC, 10/2012)
Welche Anbieter bevorzugen Anwender bei der Umsetzung von Big-Data-Projekten? (Quelle: IDC, 10/2012)
Wie groß sind 1 Zettabyte? (Quelle: IDC, 10/2012)

Ein weiteres Charakteristikum ist die Vielfalt der Quellen und Formate. Künftig werde es entscheidend darauf ankommen, strukturierte Daten (beispielsweise Kennzahlen), ebenso wie semistrukturierte (zum Beispiel XML-Daten), und unstrukturierte Daten (Videos, Bilder) schnell und effizient zu verwalten, zu verarbeiten und zu analysieren. Herkömmliche Methoden versagen hier. Denn in der Regel können sie keine Echtzeit-, Simulations- oder Maschinendaten verarbeiten und darin in kürzester Zeit Muster erkennen.

Ist Big Data beim Endkunden ein Thema?

Weshalb Anwender neue, "Big-Data-fähige" Technologien brauchen, skizzieren die Marktanalysten von Lünendonk beispielhaft am Alltag der Handelsunternehmen: Sie werden täglich mit einer Flut von Kunden-, Finanz-, Transaktions- und Prozessdaten überhäuft. Zusätzlich treiben mobile Endgeräte die Datenvolumen in die Höhe: Bargeldlose Zahlungssysteme über Terminals, mobile Endgeräte oder Geldkarten, RFID-Chips oder Kundendaten aus den Online-Kanälen strömen dabei im Sekundentakt in die IT-Systeme der Handelsunternehmen.

Die vier Herausforderungen von Big Data
Das Thema Big Data befasst sich eigentlich mit vier Herausforderungen:
Die schiere Menge:
Das für Unternehmen relevante Datenvolumen steigt weiter drastisch an. Heute schon werden Datenmengen im Terabyte-Bereich analysiert, in Kürze dürften Petabyte und Exabyte auf der Agenda stehen.
Der Zeitdruck:
Analysen der gewaltigen Datenberge sollten idealerweise in Echtzeit zur Verfügung stehen. Denn die Unternehmen stehen vor der Aufgabe, dass sie zeitnah auf Marktänderungen reagieren müssen.
Die mangelnde Struktur:
Die Analysen müssen immer häufig Datenquellen mit kaum strukturierten Beständen berücksichtigen. Das heißt: die Komplexität der Datenanalysen steigt. Neben den bekannten Datenquellen, etwa den vorhandenen ERP-Systemen, kommen neue hinzu. Dazu zählen Daten aus M-to-M-Applikationen, also beispielsweise Sensordaten, Daten aus On-Board-Systemen, RFID-Daten aus der Logistikkette, aber auch Daten aus Weblogs und Social-Media-Plattformen etc.
Die wachsende Anwenderzahl:
Die potenziellen internen und externen User werden immer mehr. Sie kommen beispielsweise über Self-Service-Portale, die im Web zugänglich sind.

Aber ist es Endkunden überhaupt ein Anliegen, all diese Daten zu speichern, zusammenzuführen, auszuwerten und zu analysieren, wie es die Anbieter einschlägiger Lösungen glauben machen wollen?
Dr. Carsten Bange vom Business Application Research Center (BARC) meint: Ja, auch mit Blick auf Mittelstandskunden in Maschinenbau: "Trotz der Informationsflut erkennen Unternehmen den Nutzen dieser Daten."
Noch einen Schritt weiter geht EMC-Manager Dinko Eror: "Neue Big Data Analyse-Tools werden in den nächsten fünf Jahren über Gewinner und Verlierer entscheiden", lautet seine Botschaft. Die meisten Hersteller aus dem Storage-, Software-Analyse- und Datenbankumfeld teilen diese Ansicht - aber auch viele Systemhäuser. Sie wiesen dem Thema Big Data in der jüngsten Systemhaus-Umfrage von ChannelPartner Platz Fünf im Ranking der Mega-Trends zu.

Wem nutzt Big Data…

Was der Einsatz neuer Technologien bringen kann, zeigt das Europäische Patentamt: Seine 6.500 Prüfer können eine beliebige Seite aus dem Archiv in weniger als 0,3 Sekunden anfordern. Die dazu eingesetzten Datenbanken enthalten 450 Millionen Einträge mit einem Datenvolumen von 13 Terabyte. Das ist nur eines von zahlreichen Fallbeispielen, die der Bitkom in seinem Leitfaden "Big Data im Praxiseinsatz" vorstellt.

… und warum?

IDC hat Unternehmen in Deutschland befragt, welche Vorteile sie sich vom Einsatz der Big-Data-Lösungen versprechen. Die Mehrheit der Studienteilnehmer (45 Prozent), sieht darin eine Chance, ihre Kosten zu optimieren, gefolgt vom Wunsch nach schnellerer Informationsgewinnung (42 Prozent) und besserem Informationsmanagement (36 Prozent). Weitere 33 Prozent gehen davon aus, mit Big-Data-fähigen Analysewerkzeugen ihr Unternehmen besser steuern zu können.

Jan Tietze, Country Manager D/A/CH, AvePoint Deutschland GmbH
Foto:

"Vorausschauende Unternehmen machen sich die Intelligenz der Datenmengen zunutze. Etwa, um auf Basis vergangener Ereignisse sinnvolle Prognosen für die Entwicklung ihres Geschäftes vornehmen zu können", so das Fazit von Jan Tietze, Country Manager D/A/CH, AvePoint Deutschland GmbH:

Unklare Zuständigkeiten beim Endkunden

Die Ergebnisse der jüngsten IDC-Studie zum Thema Big Data legen den Schluss nahe, dass IT-Organisationen und Fachbereiche zwar um das Datendilemma wissen, aber "auf dessen Breite und Intensität oftmals lediglich mit punktuellen Lösungsansätzen reagieren", so das Fazit der Analysten.

Wolf Lichtenstein, Vice President der DACH-Region bei SAS, bestätigt diese Erkenntnis, und beschreibt am Beispiel der Handelsunternehmen, wo der Schuh in der Praxis drückt: "Oftmals ist intern nicht geregelt, in welchen Zuständigkeitsbereich die Informationsaufbereitung fällt, die einheitlich für das ganze Unternehmen funktionieren muss". Zusammenarbeit sei deshalb das A. und O: "Sowohl Finanz- und Markt- als auch Kunden- und Prozessdaten müssen gesammelt und miteinander verknüpft werden. Dabei kommt es vor allem darauf an, dass die beteiligten Fachbereiche Hand in Hand arbeiten."

Hemmschuh IT-Infrastruktur

Eine stärkere Verzahnung bedarf es zudem auf IT-Infrastruktur-Seite, um aus Massendaten wertvolle Erkenntnisse zu gewinnen. Dezentrale Silo-Strukturen, wie sie in der IT-Landschaft der Anwendern laut Lündendonk überwiegend vorzufinden sind, behindern dies: "Hier werden die Daten nicht geschlossen an einen Server übermittelt, sondern einzeln hinzugezogen", konstatieren die Marktanalysten. Das erschwere und verlangsame massiv die Verknüpfung und Analyse der Informationen.

Matthias Zacher, Senior Consultant bei IDC, geht davon aus, dass viele Organisationen künftig hybride Szenarien aus vorhandener und neuer Technologie entwickeln werden, um sich der Herausforderung Big Data zu nähern. "Die ersten Ansätze sind bereits sichtbar", so Zacher.

Das deckt sich mit den Erkenntnissen des Marktforschungsinstituts Experton: 45 Prozent der befragten IT-Verantwortlichen in Deutschland bezeichneten demnach ihre IT-Infrastruktur als die größte Herausforderung. Sie sei nicht flexibel und skalierbar genug für die Verwaltung und Analyse großer Datenmengen. 36 Prozent planen in diesem Zusammenhang den Aufbau neuer Storage-Architekturen, um Analysen in Echtzeit zu ermöglichen. Dabei ist die horizontale Skalierbarkeit ein ebenso großes Thema wie Performance und Hochverfügbarkeit.

Dieter Schmitt, Director Channel Sales Germany bei NetApp
Foto: NetApp

Dazu gelte es, "im ersten Schritt eine Infrastruktur aufzusetzen, die über eine geeignete Bandbreite, Performance, Dichte und Content-Management verfügt", sagt Dieter Schmitt, Director Channel Sales Germany bei NetApp. "Nur so können die Daten zu Beginn überhaupt verarbeitet werden."

Laut Thilo Precht, Head of SAP Center of Excellence Central Europe bei Fujitsu, bedarf es obendrein neuer Datenbank-Technologien. "Mit herkömmlichen Datenbanken kann man diese Datenflut nicht mehr wirtschaftlich und effektiv bearbeiten. Neue Technologien fordern Unternehmen aber nicht nur hinsichtlich des tatsächlichen Speicherns und Archivierens von Daten, sondern auch in deren Verarbeitung."

Scheu vor externen Daten

Als Quellen für ihre Big Data-Projekte nutzen mehr als die Hälfte der von IBM im Rahmen einer weltweiten Studie befragten Unternehmen vorrangig interne Daten. Der Grund: Sie sind häufig bereits gesammelt, integriert, strukturiert und standardisiert. Weniger als die Hälfte ziehen externe Quellen heran, die Einfluss auf den Absatz oder andere unternehmensrelevante Parameter haben.

Auch beziehen lediglich 43 Prozent der Unternehmen, die bereits Big Data-Initiativen ins Leben gerufen haben, die Informationen aus Social-Media-Kanälen in ihre Analysen mit ein - obwohl gerade diese wertvolle Kundeninformationen liefern können.

Ursachen dafür sind der Studie zufolge, dass die Unternehmen unsicher sind, wie sie mit den individuell gefärbten Inhalten aus den sozialen Medien umgehen sollen. Zudem mangelt es ihnen häufig an der entsprechenden Kompetenz: Nur 25 Prozent der Befragten gaben an, auch unstrukturierte Daten analysieren zu können. Und weniger als die Hälfte nutzen Tools, die natürliche, unstrukturierte Texte analysieren können,

Chancen für Vertriebspartner

"Für Vertriebspartner lohnt es sich auch langfristig, in den Bereich Big Data zu investieren", Bijan Taleghani, Leiter Produktmarketing und Business Development bei TIM
Foto:

Die Mehrheit der Endkunden zählt auch bei Data-Projekten auf ihren IT-Systemhauspartner, wie die IDC-Studie ergab. Das ist eine gute Nachricht für Partner, zumal nicht absehbar ist, dass sich das Datenwachstum in den nächsten Jahrzenten reduziert. Bijan Taleghani, Leiter Produktmarketing und Business Development bei TIM, appelliert daher: "Dieser Bereich ist für Vertriebspartner auch langfristig interessant und es lohnt sich hier zu investieren."

Dinko Eror, Senior Director Global Services Lead, EMC Deutschland, empfiehlt Partnern außerdem, ihren Kunden nicht nur eine passende - das heißt Scale-Out - Storage-Umgebung zu liefern, sondern auch die Analyse-Tools und die entsprechende Beratung.

Dr. Bernhard Schweitzer, Director Services Insight Deutschland

Diese Beratung sollte sich Dr. Bernhard Schweitzer, Director Services Insight Deutschland, zufolge auch auf die Lizenzierung der Infrastruktur-Software (beispielsweise Datenbank-Server) erstrecken: "Denn werden diese Softwarebestände in großem Maßstab beansprucht, wird die Optimierung der entsprechenden Lizenzierungen schnell ein Thema, um die Kosten zu optimieren."

Eckhard Rödel, Solution Principal, HP ES Information Management & Analytics, rät Partnern, Technologien - auch von mehreren Hersteller - gebündelt zu erarbeiten und anzubieten. "Ein Vertriebsansatz, bei dem nur aus dem Portfolio eines Anbieters gewählt werden kann, wird möglicherweise als weniger objektiv wahrgenommen."

Klassische Infrastrukturpartner könnten außerdem davon profitieren, dass Big Data keine Lösung von der Stange ist. "Sie können hier mit ihren individuellen Lösungen aus unterschiedlichen Produkten das bestmögliche Paket für Unternehmen zusammenstellen", erklärt NetApp-Manager Dieter Schmitt.

Partner sollten die Gunst der frühen Stunde nutzen, meint AvePoint-Chef Jan Tietze: "Big Data wirft in der Branche noch eine ganze Reihe an Fragezeichen auf und viele Unternehmen scheuen derzeit noch eine Annäherung. Wir raten deshalb allen Channel-Partnern, möglichst bald ihre ganz eigene Big-Data-Strategie zu entwickeln."

(rb)