Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Cloud und Big Data erzwingen Veränderungen

Die 10 wichtigsten Storage-Trends 2013

Ariane Rüdiger ist freie Autorin und lebt in München.

Neue Geschäftsmodelle, In-Memory-Computing

Trend 9: Cloud erzwingt neue Storage-Geschäftsmodelle

Mit dem Aufkommen von Cloud-Storage sehen die bisher relativ unangefochten agierenden Storage-Hersteller ihre alten Geschäftsmodelle bedroht. Das erfordert ein Umdenken, und das wiederum führt zu vollkommen neuen Geschäftsmodellen bei den Speicherspezialisten.
Ein Beispiel dafür ist Netapp. Peter Wüst, Director Strategic Pathways des Unternehmens, stellte jüngst das Cloud-Provider-Partnerprogramm des Herstellers vor, mit dem man sich besonders an Reseller wendet, die mit dem Aufbau eigener Cloud-Services liebäugeln. Von der Konzeption bis zur Umsetzung will man diesen zur Seite stehen. Dazu kommen Angebote, die das Cloud-Computing zögerlichen Kunden schmackhaft machen sollen.

„Wir unterstützen Reseller auf ihrem Weg zum Cloud-Provider“, Peter Wüst, Strategiedirektor bei Netapp.
„Wir unterstützen Reseller auf ihrem Weg zum Cloud-Provider“, Peter Wüst, Strategiedirektor bei Netapp.
Foto: Netapp

Netapp möchte beides: Einerseits soll Unternehmen die Angst vor dem Kontrollverlust über ihre Daten genommen werden. Andererseits will man ihnen ermöglichen, von neuartigen Cloud-Services, beispielsweise Datenanalysen auf der Infrastruktur von Cloud-Providern, zu profitieren. Deshalb bietet Netapp an, Speichersysteme unmittelbar benachbart zu den Cloud-Ressourcen (zum Beispiel in einem separaten Raum des Cloud-Provider–RZ) aufzustellen.
Ein solches System und alle darauf befindlichen Daten gehören jeweils einem spezifischen Endkunden, der es kontrolliert und verwaltet; es ist aber über Kommunikationsleitungen mit dem Cloud-Provider-RZ verbunden. Die Daten werden nur genau so lange wie unbedingt nötig, um etwa eine Analyse durchzurechnen, auf das System des Providers geschoben und kehren dann sofort wieder in das in unmittelbarer Nähe befindliche Speichersystem des Endkunden zurück. So würden Datentransporte über Weitverkehrsstrecken vermieden, andererseits könnten Anwender trotzdem von neuartigen Cloud-Services und –Ressourcen profitieren.

Das Modell gibt es bisher nur in den USA, es soll jetzt aber auch in Europa eingeführt werden. Eine ähnliche Neuerung ist HPs Flexible Capacity Service. Dabei sollen Kunden, etwa neue Cloud-Provider, die sich ihres Erfolgs noch nicht sicher sind, gegen eine Grundgebühr Storage, Server oder Netzwerke bei sich aufstellen können, ansonsten aber ausschließlich nutzungsbezogen abrechnen und die Systeme selbst verwalten können. Besonders relevant ist dieses Angebot wahrscheinlich für die hochskalierbaren, aber nicht eben billigen 3Par-Systeme.

Trend 10: In-Memory-Computing kommt

Architektur der SAP Hana-Appliance: In der heutigen Ausprägung dient sie der Echtzeitanalyse von Daten aus den SAP-Anwendungen. Die grauen Kästen zeigen die künftige Möglichkeit der Integration weiterer Datenquellen und Abfragetools. HP entwickelt für SAP HANA eine spezielle Entwicklungsplattform.
Architektur der SAP Hana-Appliance: In der heutigen Ausprägung dient sie der Echtzeitanalyse von Daten aus den SAP-Anwendungen. Die grauen Kästen zeigen die künftige Möglichkeit der Integration weiterer Datenquellen und Abfragetools. HP entwickelt für SAP HANA eine spezielle Entwicklungsplattform.
Foto: Susanne Franke

Weil bei steigenden, zentral gehaltenen Datenmassen und Echtzeit-Bearbeitungsanforderungen der Datentransport zum Engpass wird, beginnt man, Verarbeitungsaufgaben vom Server weg und direkt in die Cloud-Speichersysteme auszulagern. Das entlastet Netzwerke und Serverprozessoren und spart Zeit. Vision Cloud etwa, ein europäisches Projekt mit einem Budget von 16 Millionen Euro, befasst sich damit, wie man unstrukturierte Daten mit Hilfe kleiner Programmschnipsel („Storlets“) direkt in der Cloud verarbeitet, analysiert und in Geschäftsprozesse integriert.
Koordinator des Vorhabens ist IBM, wichtige Teile wurden an der Universität von Athen entwickelt. Weitere Beteiligte sind der italienische Sender RAI, SAP, Siemens, Orange und viele andere. Auch HP hat den Trend zum In-Memory-Computing erkannt und ein Entwicklungszentrum (Center of Excellence) dafür eröffnet. Hier sollen neuartige Lösungen für SAP HANA und die SAP Business Suite entwickelt werden. (Der Beitrag wurde von der CP-Schwesterpublikation Computerwoche übernommen / rb)