NetApp-Channelchef Dieter Schmitt

Big Data erfordert die Kooperation von Partnern

13.11.2012
Die Nachfrage nach Speicher- und Analyse-Lösungen wird nach Ansicht von Dieter Schmitt, Director Channel Sales Germany bei NetApp, die Umsätze in den nächsten Jahren enorm beflügeln. Er empfiehlt Vertriebspartnern und Systemhäusern, die dieses Potenzial heben möchten, ihre bestehenden Kompetenzen durch Kooperationen zu erweitern.
Dieter Schmitt, Director Channel Sales Germany bei NetApp
Dieter Schmitt, Director Channel Sales Germany bei NetApp
Foto: NetApp

Die Nachfrage nach Speicher- und Analyse-Lösungen wird nach Ansicht von Dieter Schmitt, Director Channel Sales Germany bei NetApp, die Umsätze in den nächsten Jahren enorm beflügeln. Er empfiehlt Vertriebspartnern und Systemhäusern, die dieses Potenzial heben möchten, ihre bestehenden Kompetenzen durch Kooperationen zu erweitern.

CP: Auf welche Punkte müssen Unternehmen achten, um die künftige Datenflut in den Griff zu bekommen?

Dieter Schmitt: Die zentrale Herausforderung wird sein, die angesammelten Daten in nützliche Informationen umzuwandeln. Dafür benötigt man in einem ersten Schritt eine Infrastruktur, die über eine geeignete Bandbreite, Performance, Dichte und Content-Management verfügt. Nur so können die Daten zu Beginn überhaupt verarbeitet werden.
Das bestätigen auch die Analysten von Experton. So gaben in einer aktuellen Umfrage 45 Prozent der befragten IT-Verantwortlichen in Deutschland an, dass ihre IT-Infrastruktur die größte Herausforderung bei der Beherrschbarkeit großer Datenmengen ist. Diese sei nicht flexibel und skalierbar genug für die Verwaltung und Analyse großer Datenmengen. 36 Prozent planen in diesem Zusammenhang den Aufbau neuer Storage-Architekturen, um Analysen in Echtzeit zu ermöglichen. Dabei ist die horizontale Skalierbarkeit ein ebenso großes Thema wie Performance und Hochverfügbarkeit.

CP: Inwiefern ergeben sich daraus für Vertriebspartner neue Geschäfts-Chancen?

Schmitt: Big Data bietet Vertriebspartnern in erster Linie ein neues Absatzpotential, das sie so bislang als klassischer Infrastrukturpartner nicht adressiert haben. Wir erwarten enorme Umsatzchancen in den nächsten Jahren. Betrachtet man alleine den deutschen Markt, geht Experton davon aus, dass der Markt für Big Data bis 2016 jährlich um 48 Prozent wachsen wird. Partner profitieren hier insbesondere davon, dass Big Data keine Lösung von der Stange ist und sie hier mit ihren individuellen Lösungen aus unterschiedlichen Produkten das bestmögliche Paket für Unternehmen zusammenstellen können.

CP: Was raten Sie Systemhäusern, IT-Consultants und Integratoren, die sich bei ihren Kunden als Spezialist für Big Data etablieren möchten?

Schmitt: Wichtig ist natürlich, dass sie die zugrunde liegende IT- und Storage-Architektur genau kennen. Hier sind unsere klassischen Infrastrukturpartner bereits sehr gut aufgestellt. Big Data besteht allerdings nicht nur aus einem effizienten Storage-System. Daher müssen Partner auch die Applikationen zur Verwaltung und Analyse der Daten genau kennen, um Unternehmen entsprechend beraten zu können. Aus diesem Grund wird die Kooperation zwischen Infrastruktur- und Applikationspartnern immer wichtiger.

CP: Weshalb ist diese Zusammenarbeit von Infrastruktur- und Applikationspartnern so wichtig?

Schmitt: Big Data kann auf beiden Seiten nicht losgelöst betrachtet werden. Ein Beispiel hierfür ist SAP HANA. NetApp FAS-Systeme bieten eine modulare Plattform für SAP HANA. SAP-Applikationen wurden bislang aber klassischerweise über SAP-Beratungshäuser angeboten und implementiert, während der Storage vom Infrastrukturpartner geliefert wurde. Gehen beide Partner eine Kooperation ein, können sie Unternehmen eine Big Data-Lösung aus einer Hand anbieten. NetApp-Reseller finden heute schon ein starkes Ökosystem unterschiedlichster Partner, auf das sie zugreifen können - und wir unterstützen diese Vernetzung auch weiter.

CP: Was muss ein Lösungskonzept umfassen, das dem Kunden erlaubt, diese großen Datenvolumen intelligent zu nutzen?

Schmitt: Zum einen ist natürlich hochleistungsfähiger Storage wichtig. NetApp bietet hier die E-Series an, die sich durch einen extrem hohen Durchsatz auszeichnet. Mit verschiedenen Ausbaustufen decken wir die Themen Analytics, Bandbreite und Content ab, unser "ABC des Big Data". Wir positionieren uns mit Hilfe des Hadoop-Frameworks im Bereich Echtzeitanalyse großer Datenbanken. Weiterhin sind wir in allen Bereichen aktiv, die überdurchschnittliche Daten- und Compute-Workloads generieren, wie das High-Performance Computing. Und schließlich besetzen wir auch das Storage Grid-Umfeld, wo Content nach Objektkriterien innerhalb eines globalen Adressraums kategorisiert wird, so dass Unternehmen eine extreme Skalierbarkeit für Mediadateien und Firmendaten erreichen.

CP: Welche Folgen ergeben sich daraus für die Datensicherung (Backup, Disaster Recovery etc) in den zunehmend virtualisierten IT-Landschaften?

Schmitt: Hier gibt es unterschiedliche Konzepte für verschiedene Applikationen. Hadoop verlangt beispielsweise sehr hohe Performance, Bandbreite und Dichte. Damit eignet sich die E-Series als Storage-Plattform ideal. In der NetApp Open Solution for Hadoop ist die Datensicherung ein extrem wichtiger Bestandteil. Im Bereich der zu verarbeitenden und zur Berechnung benötigten Daten wird mit Hilfe von Replikationen Datensicherheit hergestellt. Auf der von NetApp basierenden E-Series Architektur kann die Anzahl der Replikationen verringert werden. Das bedeutet weniger Storage-Bedarf für das Unternehmen. Die weitere Absicherung über RAID-Level bietet zusätzlich deutliche Vorteile in der Wiederherstellung von Daten während laufenden Berechnungen.
Bei SAP HANA stehen Themen wie Skalierbarkeit, einfaches Management und Hochverfügbarkeit im Vordergrund stehen. Die Anforderungen der Applikation können daher sehr unterschiedlich sein, dementsprechend sehen auch Datensicherungs- und DR-Konzepte unterschiedlich aus. Durch das breite Angebot mit den FAS-Systemen und der E-Series-Plattform können wir jeweils eine optimale Lösung anbieten.

(rb)

Zur Startseite