Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

06.06.2003 - 

Fehlende Standardvorgaben bereiten noch Probleme

Speichervirtualisierung in der Startphase

MÜNCHEN (kk) - Anwender nutzen die Vorteile der Speicher-virtualisierung, etwa die effizientere Auslastung der Ressourcen, schon heute. Die Lösungen für Speichernetze beruhen dabei meist auf einer In-Band-Konfiguration. Out-of-Band- und Switch-basierende Konzepte sind angekündigt.

Jeder Hersteller, der etwas auf sich hält, hat mindestens ein Virtualisierungsprodukt im Angebot. Zum Hype artet der schon vorher inflationär verwendete Begriff aus, seit IBM mit "On-Demand-Computing", Hewlett-Packard (HP) mit "Utility Data Center" und Sun mit "N1" die IT-Landschaft umkrempeln wollen. Denn die Basis für die propagierte kurzfristig erreichbare Skalierbarkeit der Ressourcen liegt in deren Virtualisierung. Nur dadurch kann sichergestellt werden, dass Applikationen zeitgerecht mit der benötigten Infrastruktur versorgt werden, ohne dass die Kosten explodieren.

Virtualisierung hat eine lange Geschichte

Dabei ist der Begriff Virtualisierung nicht neu: Schon seit den späten 60er Jahren besitzen Großrechner die Fähigkeit, den Hauptspeicher für mehr als eine Instanz des Betriebssystems aufzuteilen. Seit Mitte der 70er Jahre lassen sich auch Festplattensysteme virtualisieren, und 20 Jahre später erlebte die logische Aufteilung der Bandgeräte ihren Aufschwung. Die Trennung der logischen Sicht von den physikalischen Gegebenheiten diente schon immer der besseren Ausnutzung der Ressourcen.

Was zunächst nur innerhalb eines Geräts wie Mainframe, Disk-Array und Bandbibliothek möglich war, sollte mit dem Auftauchen von Speichernetzen (Storage Area Networks = SANs) auch für Gruppen von Speichergeräten zu realisieren sein: die Trennung der logischen Darstellungsschicht der Speicher, die den an ein SAN angeschlossenen Servern präsentiert wird, von der physikalischen Implementierungsebene. Gelingt dieser Schritt, dann ergeben sich einige Vorteile. So kann sich beispielsweise die Kapazitätsauslastung der Speichersysteme, die derzeit durchschnittlich nur 30 bis 40 Prozent beträgt, verdoppeln. Außerdem wird die Datenmigration von einem Speicher zu einem anderen unterbrechungsfrei möglich. Für die Zukunft wichtig wird die zeit- und mengengerechte Zuweisung (Provisionierung) von Speicherplatz an einen Server oder eine Applikation, die dank der Ressource Speicherpool kostengünstig zu erledigen ist. Insgesamt ist die Speicherverwaltung im SAN aufgrund der Zentralisierung einfacher geworden.

Mit dem Auftauchen der ersten Speichervirtualisierungsprodukte für SANs entwickelte sich sofort ein Streit darüber, wo denn nun die Virtualisierungsinstanz, die entscheidet, was wohin gespeichert wird, zu sitzen habe: eingebunden in das SAN (In-Band-Lösung) oder abgekoppelt vom eigentlichen Speicherdatenstrom im LAN (Out-of-Band). In jüngster Zeit kam noch eine dritte Variante ins Gespräch - die Virtualisierung im intelligenten Switch - , die zwar auch als In-Band-Lösung bezeichnet werden kann, wobei die Logik aber im Switch statt in dedizierten Virtualisierungs-Servern sitzt.

"Das In-Band-Konzept ist einfacher zu implementieren", begründet Forrester-Analyst Lofgren, wieso "SAN-Symphony" des Softwareanbieters Datacore Software die Lösung ist, die derzeit am häufigsten eingesetzt wird. Virtualisiert wird dabei in den "StorageDomain-Servern", die wegen ihrer zentralen Bedeutung doppelt ausgelegt sind. Diese Intel-Server mit Microsoft-Betriebssystem nehmen die Trennung zwischen logischem und physikalisch tatsächlich vorhandenem Speicher vor. Sie enthalten zudem die "Metadaten", also Kontrollinformationen sowie die Angaben darüber, wo die Daten tatsächlich abgelegt sind.

Da über den Storage-Domain-Server außerdem alle Nutzdaten vom Server zum Speicher laufen, ist er zweigeteilt: Das Volume-Management verwaltet und konfiguriert die im SAN befindlichen Laufwerke und fasst sie zu logischen Größen zusammen. Das Zugriffs-Management stellt die gebildeten logischen Laufwerke den Applikations-Servern auf Block- oder auf Dateiebene zur Verfügung. Weil der Storage-Domain-Server den Speicherzugriff direkt kontrolliert, kann er auch für Techniken wie Snapshots oder Mirroring verwendet werden.

Programme mit diesen Speicherfunktionen sind für die teuren Highend-Subsysteme schon länger vorhanden. Dank dem In-Band-Konzept stehen sie jetzt auch für billigere Hardware wie "Just a Bunch of Disks" (JBOD) oder Raid-Arrays zur Verfügung. Firmen, die früher an IBM teure Lizenzgebühren für "Peer-to-Peer-Remote-Copy" (PPRC) zahlen mussten, um Daten in ein Ausweichrechenzentrum zu spiegeln, lassen das heute von Virtualisierungsprogrammen erledigen. Dabei entsprechen die Lizenzkosten für die Copy-Software ungefähr denen des Virtualisierungsprodukts, das sich dadurch bezahlt macht.

Fehlanzeige bei großen Speicherherstellern

Der Vorteil, die Virtualisierungslogik nicht im Subsystem, sondern in den Storage-Domain-Servern abzulegen, bewog Dietmar Hensch, Bereichsverantwortlicher für Netzwerkadministration der Papstar Vertriebsgesellschaft mbH & Co. KG, zur Investition in eine In-Band-Lösung auf Fibre-Channel-Basis: "So können wir billigen Storage einkaufen, ohne auf die 2-Gbit-Technik zu verzichten." Papstar hat sich als Dienstleister auf Transport- und Lieferlogistik spezialisiert und betreut Kunden wie 3M, Faber Castell oder den Grußkartenhersteller Hallmark.

Als an mehreren Systemen der Speicherplatz ausging, suchte Hensch nach einer systemübergreifenden Lösung, die die vorhandenen AIX-, NT- und Netware-Server ebenso bedienen würde wie den seit Jahren genutzten älteren "Clariion"-Speicher von EMC. Die neue Speicherlandschaft sollte darüber hinaus ermöglichen, dass die Rechner aus dem SAN zu booten sind. "Wir haben die großen Lösungen etwa von Bull, IBM, HDS oder EMC geprüft, aber keiner dieser Hersteller konnte die gewünschte Funktionalität bereitstellen, so entschieden wir uns für eine Virtualisierungslösung", erläutert Hensch.

Restore in wenigen Minuten

Jetzt sitzen zwei Intel-Server von Fujitsu-Siemens als Storage-Domain-Server im SAN. Beim Subsystem fiel die Wahl von Hensch auf zwei "Fibrecat S80", die als Raid-5-Speicher konfiguriert und auf zwei Standorte verteilt sind. Derzeit sind im Ausweichrechenzentrum 1 TB Daten eins zu eins gespiegelt. Die an das SAN angeschlossenen Server haben keine Festplatten mehr, dafür ein oder zwei Hostbus-Adapter, und booten komplett aus dem Speichernetz, was sich als guter Schutz für den Fall von Systemabstürzen darstellt. Jedem Server ist im SAN eine Platte zugewiesen, von der der Rechner startet, ein Spiegelbild davon ist im Ausweichrechenzentrum abgelegt. Falls der Pfad zum ersten Storage-Domain-Server ausfällt, schaltet die "Alternate-Path"-Software von SAN-Symphony auf die Platte im zweiten Rechenzentrum und leitet so den Failover ein. Zusätzlich wird jede Nacht ein Snapshot der Partition erstellt, der an Stelle des Originalspiegels zu verwenden ist, falls beide Rechenzentren zeitgleich Probleme haben. "Mit Snapshots realisieren wir eine schnelle Systemwiederherstellung", freut sich Hensch, der früher für Backup und Restore etwa eines Windows-2000-Servers mit einer SQL-Datenbank 24 Stunden veranschlagte. Heute ist das in wenigen Minuten zu erledigen.

Virtualisierung macht richtig Spaß

"Unsere Virtualisierungslösungen machen richtig Spaß", resümiert Curt Borschel, Leiter Enterprise Storage bei Lufthansa Systems. Er setzt alte und neue Virtualisierungstechniken ein, um der wachsenden Datenflut des Dienstleisters Herr zu werden: "Hätten wir nicht virtualisiert, dann müssten wir für jede Umgebung eine eigene Infrastruktur aufbauen." Die Trennung von logischer und tatsächlicher Ressource sollte nach Meinung von Borschel allerdings auf verschiedenen Ebenen geschehen: im Plattensubsystem, bei den Kassettensystemen, bei der Connectivity zwischen Rechnern und Speicher-Arrays und generell im Speichernetz.

Auch Borschel nutzt im SAN die Datacore-Software: "Wir haben uns im vergangenen Jahr dafür entschieden. Damals war das die einzige Komplettlösung am Markt", begründet der Manager die Investition. Lufthansa Systems hält für seine Kunden Server mit jeder Art von Unix-Derivat, Maschinen unter Novell und unter fast allen Microsoft-Betriebssystemen vor. Die Speichersubsysteme im SAN stammen von Storagetek und Hitachi, IBM und EMC. Mainframes werden zwar ebenfalls eingesetzt, können aber wegen des Escon-Protokolls nicht auf Speicher der offenen Welt zugreifen. Dafür nutzen beispielsweise Unix-Server den Plattenplatz der Großrechner. Derzeit wird im SAN eine Datenkapazität von 40 TB virtualisiert, wobei jeweils 20 TB über zwei geclusterte Storage-Domain-Server verwaltet werden.

Technik kämpft noch mit Kinderkrankheiten

Trotz aller Vorteile der Virtualisierung im SAN kämpft Borschel vehement mit den Kinderkrankheiten der Technik: "Es geht um die fehlenden Standards in der offenen Speicherwelt." So könne im heterogenen Speichernetz beispielsweise ein neuer Treiber in der AIX-Umgebung eine Anwendung unter HP-UX negativ beeinflussen. Den Verweis auf die schon erreichten Speicherstandards der Storage Networking Industry Association (Snia) lässt Borschel nicht gelten: "Alles, was von der Snia kommt, hat die richtige Richtung, aber die Hersteller halten sich nur zu 99,5 Prozent da-ran." Und die fehlenden 0,5 Prozent sorgen für die großen Schwierigkeiten. Borschel ist gerade dabei, die Heterogenität seiner IT-Landschaft zu reduzieren. Am liebsten würde er nur mehr drei Inseln von Systemen betreiben, die gut miteinander harmonieren.

Die fehlenden oder nicht erfüllten Standards halten nach Ansicht von Norbert Deuschle, Senior Consultant der Meta Group, bisher noch viele Unternehmen vom Einsatz der SAN-Virtualisierung ab: "In einer reinen Windows-Umgebung ist das schon interessant, aber für eine große Konsolidierungslösung sind die heute verfügbaren Werkzeuge nicht geeignet." Das scheinen Zahlen der Giga Information Group - jetzt Forrester Research - zu untermauern: Von den im vergangenen Jahr insgesamt für Speicher-Management-Software ausgegebenen 5,7 Milliarden Dollar entfielen nur vier Prozent auf Virtualisierungsprogramme (siehe Grafik "Markt für Speicher-Management-Software").

Sowohl Meta-Analyst Deuschle als auch Lofgren von Forrester in den USA erwarten, dass die Nachfrage nach Virtualisierungsprodukten ab 2004 anzieht und diese Technik ab 2005 auf breiter Ebene eingesetzt wird. Denn dann sind die großen Hersteller, allen voran IBM, HP, Sun und EMC, mit ihren Virtualisierungslösungen am Markt. IBM hat als wesentliche Teile ihrer On-Demand-Strategie kürzlich Virtualisierungsprodukte vorgestellt, die einerseits dem Grid-Computing zugute kommen, andererseits dem Speicherbereich.

Dort hatte Big Blue bislang keine eigene Lösung anzubieten, nachdem der im Jahr 2000 vorgestellte "Storagetank" sang- und klanglos in der Versenkung verschwand. Datacores SAN-Symphony füllte das Loch in IBMs Virtualisierungsportfolio, bis Anfang Mai die eigene Strategie angekündigt wurde. Der "SAN Volume Controller" (SVC) dient der Virtualisierung der im SAN eingeklinkten Speichersubsysteme. Ebenso wie bei SAN-Symphony handelt es sich bei SVC (Codename "Lodestone") um eine In-Band-Lösung auf Block-Level: Jeweils zwei geclusterte X-Server mit Dual-Pentium-Prozessoren leiten die Daten vom Server zum Speicher und retour. Im Gegensatz zur Datacore-Lösung, die mit Microsoft-Betriebssystem arbeitet, setzt IBM in den SVC-Rechnern auf Linux - für viele Anwender die stabilere Lösung. Allerdings bedient IBM im ersten Schritt nur die hauseigenen Speicher-Arrays. Dazu Deuschle: "Diese Art der Virtualisierung ist nicht das, was sie sein soll, nämlich die Bildung eines Speicherpools über heterogene Plattformen hinweg."

Außer dem SVC präsentierte IBM erneut den Storagetank, der jetzt Teil des "SAN File System" ist. Es besteht aus der Storagetank-Software und einem Metadaten-Controller. Ziel ist es, ein zentralisiertes File-Management in einem heterogenen Netz zu erreichen. Damit sollen Endanwender direkt und unter Umgehung von Servern auf im SAN abgelegte Dateien zugreifen können. Dazu wird ein kleines Programm, der SAN File System Client, auf den Applikations-Servern abgelegt. IBM hat die Verfügbarkeit des SAN File System für Dezember 2003 angekündigt, der SVC soll bereits Mitte des Jahres verfügbar sein.

HP rühmt sich, Virtualisierung auf allen drei Ebenen - auf dem Server, im Netz und im Subsystem - zu beherrschen. HPs Virtualisierungstechnik nennt sich "Versastor". Sie wurde ursprünglich von Compaq entwickelt und auf den "Enterprise Virtual Arrays" (EVA) eingesetzt. HP hatte vor dem Merger mit Compaq für 350 Millionen Dollar die Storage Apps Inc. gekauft und deren Virtualisierungsprodukt in "Continous Access Storage Appliance" (Casa) umbenannt. Die neue HP bildete unter dem alten Namen Versastor eine Hybridlösung aus den beiden Techniken: Casa als ein In-Band-Appliance, durch das der gesamte Datenverkehr geschleust wird, und Versastor als ein Out-of-Band-Virtualisierungskonzept. Das noch unbenannte Gesamtwerk ist also weder In-Band noch Out-of-Band, sondern ein "verteiltes" System. Abgelegt wird es in zukünftige "intelligente" Switches von Brocade und anderen Herstellern.

Funktionen wandern in den Speicher-Switch

Nach Angaben von HP wird das neue Produkt, das für Ende des Jahres erwartet wird, über die gleiche Funktionalität wie Casa verfügen. Allerdings stellt die Casa-Appliance dann keinen Engpass im Datenfluss mehr dar, da nur wenige Kontrolldaten darüber laufen müssen und die Nutzdaten über den Switch geleitet werden. Die Analysten Deuschle und Lofgren sind sich einig, dass diese Lösung nur für den oberen Leistungsbereich interessant ist. "Für so eine Lösung müssen neue Switches angeschafft werden. Billiger ist es, einen PC für die Virtualisierung zu nutzen", erklärt Lofgren.

In der Industrie zeichnet sich allerdings der Trend ab, immer mehr Funktionalität in Speicher-Switches abzulegen. Brocade, Cisco und McData bereiten derzeit die neue Generation ihrer Schaltzentralen für die Übernahme von Zusatzaufgaben vor, und auch die Softwarehersteller, allen voran EMC und Veritas, wollen ihre Virtualisierungsprogramme in die "V-Switches" integrieren. "Die Intelligenz wandert immer mehr in die Netzwerkinfrastruktur, wo Blades in den Switches Spezialaufgaben wie Virtualisierung oder das Erstellen von Snapshots übernehmen", prophezeit Meta-Analyst Deuschle.

Abb.1: Markt für Speicher-Management-Software

Noch spielen Virtualisierungsprogramme im 5,7 Milliarden Dollar umfassenden Markt für Speicher-Management-Software nur eine kleine Rolle. Das wird sich mit den On-Demand-Initiativen von IBM, Hewlett-Packard und Sun Microsystems bald ändern. Quelle: Giga Information Group

Abb.2: In-Band-Virtualisierung

Nutz- und Kontrolldaten müssen durch das Virtualisierungs-Appliance geschleust werden. Das kann zu Engpässen führen, erleichtert aber die Implementierung. Für mehr Leistung können die Appliances aber geclustert werden. Quelle: Snia/KK

Abb.3: Out-of-Band-Virtualisierung

Hier nehmen Nutz- und Kontrolldaten unterschiedliche Wege. Das Virtualisierungs-Appliance stellt kein potenzielles Nadelöhr mehr dar. Nachteil: Es müssen Software-Agenten installiert werden, und die Implementierung ist schwieriger. Quelle: Snia/KK