Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

12.11.2004

Virtuelle Speicherkonzepte im Vergleich

Virtualisierung und Partitionierung spielen künftig nicht nur bei Servern, sondern auch bei Speichersystemen eine wichtige Rolle. Die drei führenden Hersteller EMC, Hitachi und IBM bestätigen diesen Produkttrend.

Die meisten Server erlauben es, ihre Ressourcen zu partitionieren und in kleinere Einheiten aufzuteilen. IBM hat diese Technik jetzt auch bei Speichern eingeführt und ermöglicht die Unterteilung des neuen Highend-Arrays "DS8000" in zwei logische Teile. Die Technik der Virtualisierung soll im Speichernetz für mehr Flexibilität sorgen: Der Anwender entscheidet, auf welchem Speicher die Daten abgelegt werden sollen. Die angeschlossenen Host-Rechner transferieren sie nur in das SAN, ohne genaue Information über den Speicherort. Die Virtualisierungssoftware steuert und überwacht diesen Prozess und hält die Metadaten zum genauen Verbleib der Daten fest.

In diesem Herbst hat Hitachi Data Systems (HDS) mit "Tagmastore" nicht nur das derzeit voluminöseste Speichersilo vorgestellt, sondern in diesem Sektor auch die beiden Techniken Virtualisierung und Partitionierung eingeführt. Die IBM präsentierte einige Wochen später mit DS8000 ihr neues Highend-Gerät, das die veralteten "Shark"-Speicher ablösen wird. Auch hier spielen die aus dem Server-Bereich bekannten Funktionen die Hauptrolle. "Die Zukunft von Highend-Speichern liegt darin, dass man sie virtualisieren und partitionieren kann", prophezeit Josh Krischer, Research Director Enterprise Systems and Storage bei Gartner in Deutschland.

Seiner Meinung nach haben HDS und IBM aus historischen Gründen einen Vorsprung vor EMC, wenn es um die neuen Techniken geht. Hitachi konnte bei der Entwicklung der Tagmastore auf Know-how aus dem Mainframe-Bereich zurückgreifen. Bis zum Jahr 2000 brachten die Japaner IBM-kompatible Großrechner auf den Markt und schufen für deren Entwicklerteams später neue Aufgaben im Speicherbereich. IBM verfügt dank eigener Prozessor- und Server-Entwicklung ebenfalls über die notwendigen Fähigkeiten für Partitionierung und Virtualisierung.

Doch EMC war ebenfalls nicht untätig: Firmenchef Joseph Tucci übernahm zum Jahresanfang für viel Geld den Virtualisierungsspezialisten VMware. Dessen Produkte werden im Umfeld von Intel-basierenden Servern genutzt. Die Portierung auf die EMC-Speicherarchitektur "Direct Matrix" (DMX), die mit IBMs Power-PC-Prozessoren arbeitet, dürfte nach Krischers Einschätzung 18 bis 24 Monate dauern. Tatsächlich hat EMC versprochen, noch im ersten Halbjahr 2005 mit dem "Storage Router" ein zum Wettbewerb vergleichbares Produkt auf den Markt zu bringen.

Kapazitäten dynamisch zuweisen

Die drei Hersteller sind sich darüber einig, dass in künftigen Speicherlandschaften das dynamische Zuweisen von Storage-Kapazitäten an die jeweiligen Rechnereinheiten oder für die Anwendungen Standard sein wird. Uneinigkeit herrscht allerdings darüber, wo diese Funktionalität am besten anzusiedeln ist. Hitachi lässt die Virtualisierungs-Middleware im Speicher-Array selbst ablaufen. IBM entschied sich zunächst dafür, die Software "SAN Volume Controller" (SVC) in einer eigenen Appliance anzubieten, sie also außerhalb des Speichersilos im SAN anzusiedeln. Inzwischen überlegt man bei Big Blue aber, die Software auf die Control Unit in der DS8000 zu portieren. Damit würde IBM dem Hitachi-Ansatz folgen. EMC schließlich setzt beim "Storage Router" als Wirtssystem auf intelligente Switches von Brocade, Cisco und McData im SAN.

Die jeweiligen Vor- und Nachteile sind zwar bekannt, eine einheitliche Meinung dazu hat sich in der Branche aber noch nicht gebildet. So bedeutet die Appliance-Lösung ein einfaches Handling, unter Umständen wird sie aber zum Engpass für den Datenstrom. SAN-Switches bieten viel Flexibilität, ihr Nachteil besteht im hohen Aufwand für Konfigurationsänderungen.

Wo soll virtualisiert werden?

Erfolgt die Virtualisierung im Array, lässt sich zwar eine sehr hohe Leistungsfähigkeit erzielen, doch der Anwender bindet sich an den Hardwarehersteller. "Die Anwender wissen nicht, an welcher Stelle sie virtualisieren sollen. Man muss den für sie jeweils am besten geeigneten Ansatz suchen", fordert Bill Pedzus, Marketing-Direktor vom amerikanischen Speicherspezialisten Glasshouse Technologies.

EMC immerhin ist von seinem Ansatz überzeugt und führt dafür gute Gründe ins Feld: IBMs Appliance stelle eine "In-Band"-Lösung und damit einen potenziellen Flaschenhals dar, da alle Daten durch dieses Gerät transferiert werden". Arbeiteten die Virtualisierungswerkzeuge in einem intelligenten Switch, dann bleibe die SAN-Architektur unverändert bestehen, packe man sie in das Subsystem, dann ändere sich der Aufbau der Fabric völlig.

EMC zeigte kürzlich auf der Storage Networking World in Orlando, Florida, den Prototyp des Storage Router auf Basis intelligenter Switches von Cisco und Brocade. Der Storage Router versteht sich als "Out-of-Band"-Virtualisierungslösung, bei der Daten- und Kontrollpfad getrennt verlaufen und so - anders als bei einer "In-Band"-Lösung - keinen Flaschenhals für den Datenstrom darstellen. Das EMC-System arbeitet mit zwei Knoten, die mit Intel-Chips bestückt sind. Ihre Aufgabe besteht darin, Ausnahmen aus dem normalen Prozedere zu behandeln und ein Logbuch der Metadaten über den Verbleib der virtualisierten Daten zu führen. Nach Angaben von EMC entfällt bei der Festplattenvirtualisierung der Löwenanteil der Arbeit auf das Umleiten der I/Os auf ihre richtige Position. Bei EMC erledigen das Prozessoren auf "Port-Level" im Switch.

Port oder Hostbus-Adapter

HDS hat in den Tagmastore-Speichern die Virtualisierung in der Controller-Architektur untergebracht: Kanal-Adapterkarten üben diese Funktion aus (siehe Grafik "Hitachis Virtualisierung über Kanalkarten"). Sie agieren als herkömmliche Ports, wenn beim Datenzugriff die Logical Unit Number (LUN) im internen Speicher liegt. Falls die Daten von einem anderen Speicher - hauseigene Hitachi-Subsysteme oder demnächst auch von Drittanbietern - angefragt werden, verhalten sich die Karten wie ein Hostbus-Adapter im Server.

Über die Virtualisierungsschicht lassen sich alle Ressourcen wie Kapazität, Cache-Größe und Port-Anzahl dynamisch in bis zu 32 "virtuelle Maschinen" partitionieren. Jede kann separat verwaltet und mit einem Passwort versehen werden. Die schon von der "Lightning" bekannten virtuellen Ports reduzieren auch bei Tagmastore die Anzahl der physischen Control Units und die Netzanschlüsse zum SAN.

Keine unnötige Komplexität

Hitachi preist sein Virtualisierungskonzept mit den Argumenten an, dass es "keine neue Komplexität zwischen Applikations-Server und Speicher aufbaut, die Virtualisierung nicht im SAN und damit unabhängig davon abläuft und so alle Arten von Datenlieferanten akzeptiert". Nicht nur Fibre-Channel-(FC-)Storages von offenen Systemen sollen sich virtualisieren lassen, sondern auch Daten direkt über FC angeschlossener Host-Rechner sowie von Mainframes, die per Escon oder Ficon mit Tagmastore verbunden sind. Der Hersteller betont, dass er für seine Lösung kein spezielles Datenformat verwendet und den Anwender nicht in eine proprietäre Falle lockt.

Das Tagmastore-Array stellt 192 FC-Anschlüsse oder 48 Ficon-Ports bereit. Wachsen die Anforderungen an das SAN, sollen sich weitere SAN-Switches und Router anschließen und so die Anzahl der virtuellen Ports im System verringern lassen. Gleichzeitig können dann mehr externe Speicher an das System angeschlossen werden. Profitieren sollen insbesondere Mainframes, die nicht länger auf teure Spezialspeicher angewiesen sind, sondern deren Daten auch auf kostengünstigere Arrays abgelegt werden können.

IBM riskierte Marktanteile

Die IBM erhielt bei der Präsentation vor ein paar Wochen viel Lob für den neuen Highend-Speicher DS8000, der das veraltete Shark-Subsystem ablösen soll. Die Vorstellung des Geräts wurde immer wieder verschoben, was Big Blue Reputation und Marktanteile kostete. Gartner-Analyst Krischer glaubt, dass sich das Warten gelohnt hat, und zollt Big Blue Anerkennung: "IBM steht nicht mehr in der dritten Reihe." Der Hersteller spielt die Stärke seiner "Power-5"-Prozessoren aus, die mit zwei CPU-Kernen arbeiten und sich in bis zu zehn Partitionen unterteilen lassen. Die 64-Bit-Chips wurden für die hauseigenen Mittelklasse-Server der "P"- und "I-Series" entwickelt und gelten als die derzeit leistungsstärksten im Markt. Die DS8000 enthält als Kernstück einen "p570"-Server aus der P-Server-Familie. Angeboten werden Konfigurationen mit einem Paar von Zwei- oder Vier-Wege-Servern. Zudem hat sich Big Blue von der hauseigenen "SSA"-Architektur verabschiedet und nutzt intern einen FC-Fabric-Aufbau, dessen Grenze bei 96 Petabyte (PB) erreicht ist.

"Das Verschmelzen von Rechner- und Speichersystem wird die Art, wie Speichersysteme in Zukunft verwendet werden, verändern", erklärte Diane Mc-Adam, Analystin der Data Mo-bility Group anlässlich der Vorstellung des Geräts. Ähnlich wie die Server können auch die neuen Speicher in - derzeit zwei - logische Partitionen unterteilt werden. Sie bieten eine jeweils separate Umgebung für Produktiv- und Testsysteme. Jede Partition hat Zugriff auf 50 Prozent der Rechenleistung und des Hauptspeichers, auf bis zu 16 Host-Adapter und 320 Festplatten mit einer Speicherkapazität von 96 TB. Dabei kann in den beiden Sektionen ein unterschiedlicher Mikrocode eingesetzt werden.

Innerhalb der logischen Partitionen erfolgt die Aufteilung in Logical Unit Numbers. Einmal eingerichtete Volumen, die sich über verschiedene Arrays erstrecken und bis zu 2 TB groß sein dürfen, können auch wieder gelöscht werden, so dass die Speicherkapazität nach einer Neuformatierung wieder zur Verfügung steht. IBM hat gegenüber dem Vorgängermodell die Anzahl der möglichen logischen Subsysteme auf 256 erhöht. Der Speicher unterstützt bis zu 65 280 logische Devices und bis zu 130 560 logische Ficon-Pfade.

Die Rolle der Prozessoren

Auch für Speichersysteme gewinnen Prozessoren an Bedeutung, denn sie können für Speicheraufgaben verwendet werden. In Zukunft wird man die Mikrochips zur Partitionierung und Virtualisierung nutzen und beispielsweise Bandbibliotheken direkt an die Control-Unit anschließen oder ein Backup-Programm in einer Partition ablaufen lassen. Das bedeutet, dass die Datensicherung ohne Host und LAN auskommt: Server- und LAN-freier Backup. "Was heute eine Disk-Control-Einheit ist, wird in Zukunft eine universelle Storage-Steuereinheit für heterogene Speicherplattformen werden", prophezeit Gartner-Analyst Krischer. Hitachi hat in puncto Heterogenität dabei seiner Meinung nach derzeit noch die Nase vorn, aber die Konkurrenz holt auf.