Cloud und Big Data erzwingen Veränderungen

Die 10 wichtigsten Storage-Trends 2013

08.03.2013 von Ariane Rüdiger
Welche Entwicklungen beeinflussen die Storage-Infrastruktur in der Unternehmens-IT? Lesen Sie, welche Storage-Trends CIOs und IT-Manager 2013 im Auge behalten müssen.
Foto: HGST

Welche Entwicklungen beeinflussen die Storage-Infrastruktur in der Unternehmens-IT? Lesen Sie, welche Storage-Trends CIOs und IT-Manager 2013 im Auge behalten müssen.
von Ariane Rüdiger
Das Optimum aus den sich auftürmenden Datenbergen zu holen, ohne an ihnen zu ersticken - so könnte man die komplexe Aufgabe des CIO im Bereich Storage umschreiben. Um sie zu bewältigen, sind neue Technologien ebenso nötig wie veränderte Strategien. Was auf Anwender und IT-Manager zukommt, zeigen die aktuellen Storage-Trends.

Trend 1: Die Datenberge wachsen weiter – der Datenmüll auch

Wenn die Menschen im Jahr 2020 rund 40 Zettabyte Daten produzieren, wird fast ein Viertel davon komplett nutzlos sein. Das zumindest prognostizieren die Marktforscher von IDC (Studie: Digital Universe 2012, gesponsert von EMC). Die Menge unnützer Daten wäre demnach achtmal so groß wie heute. Nach ihrer Entstehung und kurzfristigen Nutzung brauche niemand diese Daten je wieder, urteilen die Experten. Grob geschätzt entstünden also 10 Zettabyte Datenschrott, sprich 10 Billionen Gigabyte. Nach den Preiskalkulationen von IDC, denen zufolge 1 GByte Storage im Jahr 2020 etwa 20 Cent kosten soll (heute: 2 Dollar), geben die Unternehmen dann rund 20 Milliarden Dollar für die benötigten Speichersysteme aus.

Expertenmeinungen zu Storage-Trends 2013
Hans Schramm, Field Product Manager Large Enterprise, Dell
"Das Daten-Management und das Datenwachstum bleiben auch im Jahr 2013 wichtige Herausforderungen."
Dirk Pfefferle, Director Enterprise Sales, EMC Deutschland
"Innovative Unternehmen migrieren zu konvergenten Infrastrukturen, bei denen Server, Storage und Netzwerk in einer Einheit zusammengefasst sind. Das bietet die nötige Agilität, Flexibilität und auch Effizienz im Hinblick auf das weltweite Datenwachstum."
Robert Guzek, Senior Alliance Manager im Sales Competence Center Storage & Network Solutions, Fujitsu Technology Solutions
"Während das Thema Big Data 2012 im Regelfall hauptsächlich Großunternehmen betroffen hat, wird sich 2013 auch der Mittelstand damit auseinandersetzen müssen."
Thomas Meier, Chief Technologist Storage, Hewlett Packard
"Das Verlangen nach 24-7-Verfügbarkeit, weiter wachsende Datenmengen und der zunehmende Mangel an IT-Spezialisten machen 'Konsolidierung der Infrastrukturen' zur wichtigsten Herausforderung im Storage-Bereich."
Dr. Georgios Rimikis, Senior Manager Solutions Strategy, Hitachi Data Systems
"Eine Verdoppelung der Speicherdichte im Zeitraum von 18 bis 24 Monaten ging einher mit einer Preiserosion von 30 Prozent jährlich. Diese Trends werden sich voraussichtlich dramatisch verändern."
Ralf Colbus, Leading Solution Sales Professional Storage, IBM Deutschland
"Es gibt immer mehr und schneller wachsende Daten, der Kostendruck bleibt bestehen, hinzu kommt noch der Fachkräftemangel. Für uns bedeutet das, dass wir die Effizienz in der Storage-Infrastruktur durch Technologien steigern müssen. Ein Administrator muss mehr verwalten können und zwar schneller und einfacher!"
Galvin Chang, Associate Director Global Product Marketing, Infortrend
"Da die Kapazitäten einzelner Laufwerke auf 3 bis 4 TByte zugehen, können Enterprise-Kunden, die aus Kosten- oder Kapazitätsgründen keinen RAID-6-Schutz verwenden, möglicherweise Probleme durch lange RAID-5-Wiederaufbauzeiten bekommen."
Herbert Bild, Solutions Marketing Manager, NetApp
"Aus unserer Sicht wird 2013 ein Meilenstein für den Einsatz von Flash-Technologien werden. Dabei wird es in erster Linie um die Frage gehen, ob Produkte und Hersteller die Anforderungen erfüllen können, die sich durch den Einsatz dieser Produkte im Unternehmen ergibt."
Stefan Weidner, Technical Services Manager, Central Europe, Silicon Graphics GmbH
"Die größten Herausforderungen im klassischen Unternehmensumfeld sind weiterhin die Bedienbarkeit der Systeme, der Preis für heutige Systeme und die Flexibilität in der Nutzung. Kunden benötigen eine modulare, flexible und schlicht bezahlbare Lösung für jede Art der Datenhaltung, ob es sich hierbei um Block-, NAS- oder Objektbasierten Storage handelt."

Der Datenwust beinhaltet auch Dubletten, Tripletten und Quadrupletten, denn die sind im Digital Universe enthalten, aber auch vieles andere. Lieferketteninformationen beispielsweise, sobald das Gut sicher beim Kunden angekommen ist. Oder auch SMS mit Einladungen zum Mittagessen. 2020 gibt es der Studie zufolge indes weitere 33 Prozent Daten (2012: 23 Prozent), die durchaus wertvoll wären, versähe sie nur jemand mit Metadaten und analysierte sie (siehe Grafik).

Verhältnis der Daten, die mit Metadaten versehen für Big Data sinnvoll wären, zu den insgesamt vorhandenen Daten 2012
Foto: IDC

Das war jedoch laut IDC 2012 nur bei drei Prozent dieser potenziell werthaltigen Daten der Fall. Geht man nun großzügig davon aus, dass von den heute ungetaggten, aber potenziell sinnvollen 30 Prozent (entsprechend 12 Zettabyte im Jahr 2020) weitere 7 Zettabyte getaggt und analysiert würden, blieben immer noch 5 Zettabyte zusätzlicher Datenmüll übrig, was weiteren unnütze Storage für zehn Milliarden Dollar verschlänge. Insgesamt könnte also 2020 Speicher im Wert von mehr als 30 Milliarden Dollar keinerlei vernünftigen Zweck erfüllen.
Fazit: So wie Datenerzeugung und Storage heute funktionieren, sind sie trotz allen Preisverfalls noch immer ein fast grenzenloses Umsatz-Generierungsprogramm für Hersteller von Storage-Hardware und -Software.

Trend 2: SSD und Co. – Storage ohne Festplatten wird zum Allrounder

Ob als SSD oder als reiner Flash-Speicher, der Siegeszug der Speichertechnologie ohne bewegliche Medien ist nicht mehr aufzuhalten. Inzwischen soll Flash, so verkündete jüngst der Hersteller Fusion-io, in hochskalierbaren Cloud-Rechenzentren Festplatten-Storage gleich ganz ersetzen können.
Die ioScale-Module mit je 3,2 TByte Kapazität werden in Paketen zu 100 Stück an Endkunden verkauft und direkt an den PCIe-Bus, also die Server-Infrastruktur, angehängt. Dass die Technologie weiter vordringt, belegten schon die zahlreichen SSD-Varianten und –News auf der Storage Networking World im Herbst 2012: Zu sehen gab es SSD/Flash-Storage als Tier 0, als Cache, als Basis für Grid-Storage und selbstverständlich als Speichermodul für alle möglichen Mobilgeräte.

Die Flash-Module von Fusion-io für die Direktverbindung mit PCI haben maximal 6 TByte Kapazität.

Zwar erhöhen auch normale Festplatten ihre Kapazitäten laufend - derzeit kommen 4-TByte-Platten auf den Markt -, doch könnte es durchaus sein, dass sie früher oder später zumindest in großen Rechenzentren mit hohem Transaktionsaufkommen komplett von SSDs ersetzt werden. Ein Beleg für die Stärke des SSD-Trends ist auch, dass der Festplattenhersteller Seagate mit Virident jüngst einen Flash-Spezialisten gekauft hat, um gemeinsam mit ihm neue Lösungen zu entwickeln.

Cloud-Storage, Open Source-Storage, Automatisierung

Trend 3: Cloud-Storage professionalisiert sich

Der Service Hornetdrive von Antispameurope verschlüsselt in der Cloud gelagerte Daten von Ende zu Ende – 100 GByte für 2 Euro im Monat.
Foto: Antispameurope

Laut IDC (Studie „Digital Universe“) werden bis 2020 etwa 40 Prozent aller erzeugten Daten im Lauf ihrer Existenz irgendwie mit der Cloud in Berührung kommen, 15 Prozent sollen sogar ganz dort gehalten werden. Gleichzeitig häufen sich, zumindest in Europa, Sicherheitsbedenken, wenn die Daten „irgendwo“ in der Cloud landen – zum Beispiel außerhalb der deutschen Landesgrenzen oder gar des europäischen Rechtsgebietes.
Die Folge: Es entstehen immer mehr an den hiesigen Bedarf angepasste, gut gesicherte und für professionelle oder gar kritische Daten geeignete Cloud-Storage-Geschäftsmodelle. Zwei Beispiele machten in diesem Kontext von sich reden: IDGuard, eine Entwicklung des Startups Uniscon und das neue Cloud-Storage-Angebot Hornetdrive von Antispameurope.
Bei solchen und ähnlichen Offerten werden Daten von Ende zu Ende verschlüsselt ausschließlich auf deutschem Boden gehalten; der Provider hat weder auf Daten noch auf die Schlüssel Zugriff. Einziger Nachteil: Verliert der Kunde den Schlüssel, sind die Daten weg.

Trend 4: Storage goes Open Source

HGSTs 4-TByte-Festplatten sollen nach dem Willen des Herstellers eine wichtige Rolle in Open-Storage-Umgebungen spielen
Foto: HGST

Die Zeiten proprietärer Storage-Lösungen könnten allmählich zu Ende gehen, denn die Open-Source-Community entdeckt die Storage-Welt. Das gilt für Hardware und Software gleichermaßen. Motor sind wieder einmal Cloud Computing und Social Media, denn die Betreiber der riesigen dafür genutzten Rechenzentren haben genug von dicken Rechnungen. Beispielsweise gab die Western-Digital-Tochter HGST kürzlich bekannt, man werde sich an dem von Facebook initiierten Open Compute Project beteiligen. Auch EMC ist inzwischen mit dabei, um den Zug in die Zukunft nicht zu verpassen.
Eine vollständige Mitgliederliste veröffentlicht das Projekt leider nicht. In vielen Storage-Software-Bereichen gibt es inzwischen Open-Ansätze, beispielsweise das Filesystem SDFS (Scalable Deduplicated File System) für Deduplizierungsumgebungen, ein Produkt von Open Dedupe. Dem Speichermanagement widmet sich das Projekt OpenAttic; weitere Open-Ansätze gibt es im Bereich Netzwerk-Backup oder beim Aufbau von NAS-Systemen.
Auf der Storage Networking World 2012 präsentierte sich das Startup Inktank mit einer hochskalierbaren Grid-Storage-Lösung, die auf der Open-Source-Software Ceph und Standard-Speicherhardware (Festplatten oder SSDs) aufbaut. Inktank lebt, wie im Open-Source-Bereich üblich, von Support, Wartung und Schulungen und erfreut sich angeblich reger Nachfrage.

Trend 5: Automatisierung und Beschleunigung erleichtern das Storage Management

Die MLX-Plattform von Brocade wird mit umfangreichen SDN-Features ausgerüstet und soll vor allem Providernetze verbessern.
Foto: Brocade

Immer mehr soll beim Management von Storage-Systemen selbsttätig erfolgen. Was auch immer automatisch ablaufen kann, wird automatisiert und flexibilisiert. Storage-Hypervisor wie die von Datacore sind nur ein Beispiel. So wurde im Januar von Dot Hill ein zum Patent angemeldetes Verfahren zum automatisierten Echtzeit-Tiering von Daten in mehrschichtigen Speicherarchitekturen (RealStor-Technologie) angekündigt, das der Hersteller derzeit mit den Systemen der AssuredSAN Pro 5000 Serie anbietet.
Das Verfahren verschiebt Daten gleichmäßig auf mehrere Festplatten derselben Ebene, wenn das sinnvoll ist. Ein weiteres Beispiel sind Selbstheilungsfunktionen, wie sie beispielsweise Fusion-io in seine schon erwähnten Flash-Module integriert. Overland Storage bringt eine Rapid-Rebuild-Funktion für geclusterte Storage-Umgebungen, die nur die beschriebenen Sektoren gestörter Festplatten erneuert, was viel Zeit sparen kann.

In dieselbe Kategorie gehören auch Software-definierte Storage-, Netzwerk- und RZ-Architekturen. Sie verlagern die Konfigurationsmaßnahmen so weit als möglich auf eine softwaregesteuerte Kontrollebene. Damit lassen sich beispielsweise kritische Transporte von Speicherdaten anforderungsgemäß so gestalten, dass an Daten geknüpfte Betriebsabläufe nicht mehr verzögert werden. Dass VMware den SDN (Software-defined Networking)-Spezialisten Nicira und Networking-Hersteller Brocade den SDN-Anbieter Vyatta gekauft haben, ist nur ein Beleg für die Bedeutung solcher Technologien.

Storage-Differenzierung, Business Analytics, Security

Trend 6: Storage differenziert sich weiter aus

Speichersysteme differenzieren sich aus – EMC bietet seine VSPEX beispielsweise in einer neuen Variante optimiert für Sharepoint an.
Foto: EMC

Gleichzeitig mit dem Trend zu Open-Konzepten kontern die Hersteller von Speicherhardware mit ausdifferenzierten Konzepten für spezielle Zwecke. Einige Beispiele aus der letzten Zeit: EMC bringt eine VSPEX-Lösung eigens für Sharepoint auf den Markt. Es gibt plötzlich nicht mehr nur Systeme für „unstrukturierte Daten“, sondern wiederum andere, in denen „Object Storage“ gespeichert werden soll. Ein weiteres Beispiel liefern Grid- oder Scale-out-Storage-Konzepte. Damit sollen sich, so jedenfalls das Ziel der meisten Anbieter, irgendwann weiträumige, flexibel erweiterbare Speichersysteme aus Standardkomponenten aufbauen lassen.

Trend 7: Datenmassen revolutionieren Business Analytics

Software-Lösungen wie Hypercube entfernen Zwischenebenen bei der Datenanalyse, die auf reinen Annahmen und Statistiken beruhen.
Foto: Bearingpoint

Die Unmengen von Daten, die heute ausgewertet werden können, erfordern andere Analysemethoden. Denn einerseits eröffnen sie ungleich größere Einsichtspotentiale, andererseits ist es umso leichter, wichtige Informationen im Datenberg zu übersehen. Das wird zunehmend erkannt, und nicht immer heißt die Lösung für neuartige Analysemethoden Hadoop.
Zwei Beispiele für andere Ansätze: Hypercube, das Verfahren des von BearingPoint im vergangenen Jahr eingekauften französischen Startups Effiscience. Das Analyseverfahren ist das Resultat aus 15 Jahren universitärer Entwicklungsarbeit. Es analysiert Datenberge ohne Hypothesen und jenseits der klassischen statistischen Methoden und kommt so auf Zusammenhänge, die vorher niemand vermutet hätte. Das Münchner Startup Celonis analysiert umfassend und in Echtzeit die Geschäftsprozesse von Unternehmen, wobei Terabytes von Daten in die Auswertung einfließen können. Grundlage ist hier eine über spezielle Mechanismen mit den Analysewerkzeugen verknüpfte SQL-Datenbank und nicht etwa Hadoop.

Trend 8: Schwarzes Loch Sicherheit

Etwa die Hälfte der Daten im digitalen Universum ist laut IDC nicht ausreichend gesichert.
Foto: IDC

Die Compliance-Anforderungen steigen. Doch gleichzeitig sind die stetig wachsenden Datenmassen aus diversen Quellen nicht ausreichend abgesichert. Laut IDC trifft das auf rund die Hälfte der Daten zu. Besonders unsicher ist die Situation bei neuartigen unstrukturierten Daten aus der Echtzeit- oder M2M-Kommunikation (Machine-to-Machine). Häufig ist ungeklärt, inwieweit solche Daten überhaupt zu schützen sind.
Muss man die Kommunikation zwischen Maschinen in einer Produktionshalle etwa in das Backup einbeziehen? Was geschieht mit Social-Media-Mitteilungen von Mitarbeitern an Kunden oder untereinander? Was mit in SMS übersetzten Mitteilungen am Telefon? Und was mit den drahtlos versandten Mitteilungen medizinischer Geräte an die Arztpraxis oder die heimische Festplatte im Stunden- oder gar Minutentakt, wenn man einen Herzpatienten aus der Ferne überwacht?
Eine Fülle ungeklärter Fragen also, die auf Antwort warten. Die Anbieter von Sicherheitslösungen dürfte das Chaos eher freuen, denn auf sie warten große Umsatzchancen. Konjunktur haben derzeit übergreifende Lösungen (SIEM, Security Information and Event Management), die verschiedene Sicherheitsebenen zusammenfassen und so einen Überblick bieten; doch lösen sie neuartige Probleme wie die oben angesprochenen nicht unbedingt.

Neue Geschäftsmodelle, In-Memory-Computing

Trend 9: Cloud erzwingt neue Storage-Geschäftsmodelle

Mit dem Aufkommen von Cloud-Storage sehen die bisher relativ unangefochten agierenden Storage-Hersteller ihre alten Geschäftsmodelle bedroht. Das erfordert ein Umdenken, und das wiederum führt zu vollkommen neuen Geschäftsmodellen bei den Speicherspezialisten.
Ein Beispiel dafür ist Netapp. Peter Wüst, Director Strategic Pathways des Unternehmens, stellte jüngst das Cloud-Provider-Partnerprogramm des Herstellers vor, mit dem man sich besonders an Reseller wendet, die mit dem Aufbau eigener Cloud-Services liebäugeln. Von der Konzeption bis zur Umsetzung will man diesen zur Seite stehen. Dazu kommen Angebote, die das Cloud-Computing zögerlichen Kunden schmackhaft machen sollen.

„Wir unterstützen Reseller auf ihrem Weg zum Cloud-Provider“, Peter Wüst, Strategiedirektor bei Netapp.
Foto: Netapp

Netapp möchte beides: Einerseits soll Unternehmen die Angst vor dem Kontrollverlust über ihre Daten genommen werden. Andererseits will man ihnen ermöglichen, von neuartigen Cloud-Services, beispielsweise Datenanalysen auf der Infrastruktur von Cloud-Providern, zu profitieren. Deshalb bietet Netapp an, Speichersysteme unmittelbar benachbart zu den Cloud-Ressourcen (zum Beispiel in einem separaten Raum des Cloud-Provider–RZ) aufzustellen.
Ein solches System und alle darauf befindlichen Daten gehören jeweils einem spezifischen Endkunden, der es kontrolliert und verwaltet; es ist aber über Kommunikationsleitungen mit dem Cloud-Provider-RZ verbunden. Die Daten werden nur genau so lange wie unbedingt nötig, um etwa eine Analyse durchzurechnen, auf das System des Providers geschoben und kehren dann sofort wieder in das in unmittelbarer Nähe befindliche Speichersystem des Endkunden zurück. So würden Datentransporte über Weitverkehrsstrecken vermieden, andererseits könnten Anwender trotzdem von neuartigen Cloud-Services und –Ressourcen profitieren.

Das Modell gibt es bisher nur in den USA, es soll jetzt aber auch in Europa eingeführt werden. Eine ähnliche Neuerung ist HPs Flexible Capacity Service. Dabei sollen Kunden, etwa neue Cloud-Provider, die sich ihres Erfolgs noch nicht sicher sind, gegen eine Grundgebühr Storage, Server oder Netzwerke bei sich aufstellen können, ansonsten aber ausschließlich nutzungsbezogen abrechnen und die Systeme selbst verwalten können. Besonders relevant ist dieses Angebot wahrscheinlich für die hochskalierbaren, aber nicht eben billigen 3Par-Systeme.

Trend 10: In-Memory-Computing kommt

Architektur der SAP Hana-Appliance: In der heutigen Ausprägung dient sie der Echtzeitanalyse von Daten aus den SAP-Anwendungen. Die grauen Kästen zeigen die künftige Möglichkeit der Integration weiterer Datenquellen und Abfragetools. HP entwickelt für SAP HANA eine spezielle Entwicklungsplattform.
Foto: Susanne Franke

Weil bei steigenden, zentral gehaltenen Datenmassen und Echtzeit-Bearbeitungsanforderungen der Datentransport zum Engpass wird, beginnt man, Verarbeitungsaufgaben vom Server weg und direkt in die Cloud-Speichersysteme auszulagern. Das entlastet Netzwerke und Serverprozessoren und spart Zeit. Vision Cloud etwa, ein europäisches Projekt mit einem Budget von 16 Millionen Euro, befasst sich damit, wie man unstrukturierte Daten mit Hilfe kleiner Programmschnipsel („Storlets“) direkt in der Cloud verarbeitet, analysiert und in Geschäftsprozesse integriert.
Koordinator des Vorhabens ist IBM, wichtige Teile wurden an der Universität von Athen entwickelt. Weitere Beteiligte sind der italienische Sender RAI, SAP, Siemens, Orange und viele andere. Auch HP hat den Trend zum In-Memory-Computing erkannt und ein Entwicklungszentrum (Center of Excellence) dafür eröffnet. Hier sollen neuartige Lösungen für SAP HANA und die SAP Business Suite entwickelt werden. (Der Beitrag wurde von der CP-Schwesterpublikation Computerwoche übernommen / rb)