Die Nachfrage nach Speicher- und Analyse-Lösungen wird nach Ansicht von Dieter Schmitt, Director Channel Sales Germany bei NetApp, die Umsätze in den nächsten Jahren enorm beflügeln. Er empfiehlt Vertriebspartnern und Systemhäusern, die dieses Potenzial heben möchten, ihre bestehenden Kompetenzen durch Kooperationen zu erweitern.
CP: Auf welche Punkte müssen Unternehmen achten, um die künftige Datenflut in den Griff zu bekommen?
Dieter Schmitt: Die zentrale Herausforderung wird sein, die angesammelten Daten in nützliche Informationen umzuwandeln. Dafür benötigt man in einem ersten Schritt eine Infrastruktur, die über eine geeignete Bandbreite, Performance, Dichte und Content-Management verfügt. Nur so können die Daten zu Beginn überhaupt verarbeitet werden.
Das bestätigen auch die Analysten von Experton. So gaben in einer aktuellen Umfrage 45 Prozent der befragten IT-Verantwortlichen in Deutschland an, dass ihre IT-Infrastruktur die größte Herausforderung bei der Beherrschbarkeit großer Datenmengen ist. Diese sei nicht flexibel und skalierbar genug für die Verwaltung und Analyse großer Datenmengen. 36 Prozent planen in diesem Zusammenhang den Aufbau neuer Storage-Architekturen, um Analysen in Echtzeit zu ermöglichen. Dabei ist die horizontale Skalierbarkeit ein ebenso großes Thema wie Performance und Hochverfügbarkeit.
- 4 Kriterien, die für Big Data kennzeichnend sind (Quelle: IDC, 10/2012)
- Big Data Technologie-Stack (Quelle: IDC, 10/2012)
- Permanentes Datenwachstum (Quelle: IDC, 10/2012)
- Datenwachstum aus unterschiedlichsten Quellen (Quelle: IDC, 10/2012)
- Einschätzungen der Anwender zum Datenwachstum (Quelle: IDC, 10/2012)
- Herausforderung bei Datenmanagement und Datenhaltung (Quelle: IDC, 10/2012)
- Technologische Herausforderungen beim Datenmanagement(Quelle: IDC, 10/2012)
- Was ist neu an der Big-Data-Technologie? (Quelle: IDC, 10/2012)
- Neue Generation von Technologien und Architekturen(Quelle: IDC, 10/2012)
- Big Data: Lösungen und Technologie (Quelle: IDC 10/2012)
- Big Data - Herausforderungen aus Sicht der IT-Entscheider(Quelle: IDC, 10/2012)
- Potenzial von Big Data aus Business-Sicht (Quelle: IDC, 10/2012)
- Big-Data-relevante Geschäftsbereiche (Quelle: IDC, 10/2012)
- Organisationsmodelle für Big Data (Quelle: IDC, 10/2012)
- Welche Anbieter bevorzugen Anwender bei der Umsetzung von Big-Data-Projekten? (Quelle: IDC, 10/2012)
- Wie groß sind 1 Zettabyte? (Quelle: IDC, 10/2012)
CP: Inwiefern ergeben sich daraus für Vertriebspartner neue Geschäfts-Chancen?
Schmitt: Big Data bietet Vertriebspartnern in erster Linie ein neues Absatzpotential, das sie so bislang als klassischer Infrastrukturpartner nicht adressiert haben. Wir erwarten enorme Umsatzchancen in den nächsten Jahren. Betrachtet man alleine den deutschen Markt, geht Experton davon aus, dass der Markt für Big Data bis 2016 jährlich um 48 Prozent wachsen wird. Partner profitieren hier insbesondere davon, dass Big Data keine Lösung von der Stange ist und sie hier mit ihren individuellen Lösungen aus unterschiedlichen Produkten das bestmögliche Paket für Unternehmen zusammenstellen können.
CP: Was raten Sie Systemhäusern, IT-Consultants und Integratoren, die sich bei ihren Kunden als Spezialist für Big Data etablieren möchten?
Schmitt: Wichtig ist natürlich, dass sie die zugrunde liegende IT- und Storage-Architektur genau kennen. Hier sind unsere klassischen Infrastrukturpartner bereits sehr gut aufgestellt. Big Data besteht allerdings nicht nur aus einem effizienten Storage-System. Daher müssen Partner auch die Applikationen zur Verwaltung und Analyse der Daten genau kennen, um Unternehmen entsprechend beraten zu können. Aus diesem Grund wird die Kooperation zwischen Infrastruktur- und Applikationspartnern immer wichtiger.
CP: Weshalb ist diese Zusammenarbeit von Infrastruktur- und Applikationspartnern so wichtig?
Schmitt: Big Data kann auf beiden Seiten nicht losgelöst betrachtet werden. Ein Beispiel hierfür ist SAP HANA. NetApp FAS-Systeme bieten eine modulare Plattform für SAP HANA. SAP-Applikationen wurden bislang aber klassischerweise über SAP-Beratungshäuser angeboten und implementiert, während der Storage vom Infrastrukturpartner geliefert wurde. Gehen beide Partner eine Kooperation ein, können sie Unternehmen eine Big Data-Lösung aus einer Hand anbieten. NetApp-Reseller finden heute schon ein starkes Ökosystem unterschiedlichster Partner, auf das sie zugreifen können - und wir unterstützen diese Vernetzung auch weiter.
CP: Was muss ein Lösungskonzept umfassen, das dem Kunden erlaubt, diese großen Datenvolumen intelligent zu nutzen?
Schmitt: Zum einen ist natürlich hochleistungsfähiger Storage wichtig. NetApp bietet hier die E-Series an, die sich durch einen extrem hohen Durchsatz auszeichnet. Mit verschiedenen Ausbaustufen decken wir die Themen Analytics, Bandbreite und Content ab, unser "ABC des Big Data". Wir positionieren uns mit Hilfe des Hadoop-Frameworks im Bereich Echtzeitanalyse großer Datenbanken. Weiterhin sind wir in allen Bereichen aktiv, die überdurchschnittliche Daten- und Compute-Workloads generieren, wie das High-Performance Computing. Und schließlich besetzen wir auch das Storage Grid-Umfeld, wo Content nach Objektkriterien innerhalb eines globalen Adressraums kategorisiert wird, so dass Unternehmen eine extreme Skalierbarkeit für Mediadateien und Firmendaten erreichen.
- Die vier Herausforderungen von Big Data
Das Thema Big Data befasst sich eigentlich mit vier Herausforderungen: - Die schiere Menge:
Das für Unternehmen relevante Datenvolumen steigt weiter drastisch an. Heute schon werden Datenmengen im Terabyte-Bereich analysiert, in Kürze dürften Petabyte und Exabyte auf der Agenda stehen. - Der Zeitdruck:
Analysen der gewaltigen Datenberge sollten idealerweise in Echtzeit zur Verfügung stehen. Denn die Unternehmen stehen vor der Aufgabe, dass sie zeitnah auf Marktänderungen reagieren müssen. - Die mangelnde Struktur:
Die Analysen müssen immer häufig Datenquellen mit kaum strukturierten Beständen berücksichtigen. Das heißt: die Komplexität der Datenanalysen steigt. Neben den bekannten Datenquellen, etwa den vorhandenen ERP-Systemen, kommen neue hinzu. Dazu zählen Daten aus M-to-M-Applikationen, also beispielsweise Sensordaten, Daten aus On-Board-Systemen, RFID-Daten aus der Logistikkette, aber auch Daten aus Weblogs und Social-Media-Plattformen etc. - Die wachsende Anwenderzahl:
Die potenziellen internen und externen User werden immer mehr. Sie kommen beispielsweise über Self-Service-Portale, die im Web zugänglich sind.
CP: Welche Folgen ergeben sich daraus für die Datensicherung (Backup, Disaster Recovery etc) in den zunehmend virtualisierten IT-Landschaften?
Schmitt: Hier gibt es unterschiedliche Konzepte für verschiedene Applikationen. Hadoop verlangt beispielsweise sehr hohe Performance, Bandbreite und Dichte. Damit eignet sich die E-Series als Storage-Plattform ideal. In der NetApp Open Solution for Hadoop ist die Datensicherung ein extrem wichtiger Bestandteil. Im Bereich der zu verarbeitenden und zur Berechnung benötigten Daten wird mit Hilfe von Replikationen Datensicherheit hergestellt. Auf der von NetApp basierenden E-Series Architektur kann die Anzahl der Replikationen verringert werden. Das bedeutet weniger Storage-Bedarf für das Unternehmen. Die weitere Absicherung über RAID-Level bietet zusätzlich deutliche Vorteile in der Wiederherstellung von Daten während laufenden Berechnungen.
Bei SAP HANA stehen Themen wie Skalierbarkeit, einfaches Management und Hochverfügbarkeit im Vordergrund stehen. Die Anforderungen der Applikation können daher sehr unterschiedlich sein, dementsprechend sehen auch Datensicherungs- und DR-Konzepte unterschiedlich aus. Durch das breite Angebot mit den FAS-Systemen und der E-Series-Plattform können wir jeweils eine optimale Lösung anbieten.
(rb)