Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Speicherressourcen im SAN optimal nutzen


06.04.2001 - 

Durch Virtualisierung zu einem File-System

Mit Virtualisierungskonzepten versuchen Hard- und Softwarehersteller Server und Datenspeicher zu trennen. Die Ziele der einzelnen Ansätze reichen von besserer Ausnutzung des Speicherplatzes bis hin zu einem einheitlichen File-System, das den gemeinsamen Lese- und Schreibzugriff von Unix- und NT-Servern auf einen Datensatz ermöglicht. CW-Bericht, Kriemhilde Klippstätter

"Speichervirtualisierung ist der Prozess, mit dem physikalisch vorhandene Speicherressourcen in logische oder virtuelle Einheiten überführt werden", so die Definition von Softwareanbieter Veritas. Ziel der Virtualisierung sei es, Speicherkapazitäten besser zu nutzen, Verfahren zu automatisieren und die Performance zu steigern.

Derzeit tummeln sich am Markt diverse Anbieter mit unterschiedlichen Konzepten zur Virtualisierung. Einige Hersteller - etwa Veritas und Storagetek - bieten dazu bereits seit längerem fertige Produkte an. Andere, wie IBM und Compaq, feilen noch an ihrem Angebot. Allen Bemühungen gemeinsam ist, dass sie auf den Fibre Channel (FC) im Storage Area Network (SAN) setzen.

"Eigentlich ist die Idee von Storage Tank nichts Neues", erklärt Peter Sauter, Certified Professional für IBMs Speichersysteme. Dennoch will Big Blue mit der Technik im zweiten Halbjahr 2001 die Speicherlandschaft neu gestalten. Dann sollen die ersten Produkte zu Storage Tank auf den Markt kommen. Entwickelt wird das System von der IBM-Tochter Tivoli in den kalifornischen Forschungslabors in Almaden. Die Entwicklung verfolgt das Ziel, in einem FC-Speichernetz Unix- und NT-Servern flexiblen Zugriff auf die unterschiedlichen Speicherressourcen zu ermöglichen.

Als logische Schaltzentrale dient bei IBM/Tivoli ein im SAN integrierter "Storage Tank Server", auch "Metadata-Server" genannt. Dieser Rechner, nach IBM-Vorstellung ein "pServer" (früher: RS/6000), der auch geclustert sein darf, kommuniziert mit den angeschlossenen Host-Rechnern über das LAN (auf IP-Basis). Die zu speichernden Daten werden aber über das FC-Netz transportiert und profitieren damit von der Bandbreite des Fibre Channels (siehe Grafik "IBMs Storage Tank").

Die Idee stammt vom Mainframe"Storage Tank könnte man als attributgesteuerte Platzierung von Daten bezeichnen", so der IBM-Consultant. Gemeint ist, dass der Anwender nicht mehr wissen muss, wo die Daten abgelegt werden. Vielmehr ordnet er den Informationen vor der Speicherung bestimmte Attribute zu, etwa dass sie Raid-geschützt oder hochverfügbar im Remote-Copy-Betrieb vorgehalten werden. Die Storage-Tank-Software auf dem Metadata-Server hat alle Informationen über die Eigenschaften der im SAN verfügbaren Speichergeräte und verteilt die Daten entsprechend den Anforderungen auf die einzelnen Geräte, also auf Platten- oder Bandsysteme.

Bereits vor etwa zwölf Jahren, so Sauter, hat IBM für den Mainframe ein ähnliches Konzept entwickelt: System-managed Storage (SMS). Auch damals ging es darum, Speichergruppen und -klassen mit unterschiedlichen Anforderungen zu definieren und die letztendliche Ablage der Daten dem System zu überlassen. Storage Tank sei also die Übertragung des SMS-Konzepts von der Mainframe-Welt auf die offenen Systeme.

File-System dient der VereinheitlichungDie Schwierigkeit dabei ist, dass die im SAN eingebundenen Server, anders als der Mainframe, über kein einheitliches File-System verfügen. IBM packt deshalb auf jeden Host eine Softwarekomponente, das "Installable File System" (IFS). Über das IFS soll jeder angeschlossene Host-Rechner einen einheitlichen globalen Namensraum (Uniform Global Namespace) erhalten, so dass alle teilnehmenden Systeme eine einheitliche Sicht auf das File-System und die Dateien haben. Das IFS des jeweiligen Host-Rechners kommuniziert über das IP-LAN mit dem Metadata-Server, um die Zugriffsrechte oder die File-Location zu bestimmen. Nachdem der Server das Zugriffsrecht erhalten hat, werden die Daten über das schnelle FC-SAN zum oder vom Speicher transferiert. IBM erwartet von der Arbeitslastverteilung eine Verringerung der Server-Last um bis zu 70 Prozent.

Compaq, IBMs neuer Strategiepartner im Speicherbereich, steht ebenfalls mit einer neuen Speichertechnik in den Startlöchern. "Versastor" nennen die Texaner ihr Konzept, das ebenso wie IBMs Lösung mit dem Prinzip des "asymmetrischen Poolings" arbeitet. Der von der Gartner Group geprägte Begriff bezeichnet das Virtualisierungskonzept, das die Kontrollfunktion außerhalb des SAN und damit außerhalb des direkten Datenpfades stellt. Die Vorteile dieses Ansatzes gegenüber dem symmetrischen Pooling, wo der Kontroll-Layer zwischen Host und Speichergerät im SAN integriert ist, liegen vor allem darin, dass die Datenübertragung nicht durch die Kontrollinformationen gebremst oder die Expansionsmöglichkeit des Speicherpools eingeschränkt wird.

Die Versastor-Technik arbeitet mit einer Management-Software, die auf einem Rechner, dem "Versastor-Appliance" aufgespielt ist und den gesamten Virtualisierungsprozess regelt. Sie kontrolliert den Speicherpool und migriert die Daten unabhängig von den angeschlossenen Host-Rechnern. Die Software erstellt und pflegt auch die Mapping-Tabellen der virtuellen Disks und ist verantwortlich für das Erstellen von Datenkopien und -Snapshots.

Die Ersten: Storagetek und VeritasIm Gegensatz zur IBM-Lösung, wo mit dem IFS gearbeitet wird, sieht das Versastor-Konzept vor, dass in den Servern entsprechende Hostbus-Adapter eingebaut sind. Diese erhalten von der Versastor-Software die Mapping-Tabellen und auch - in Echtzeit - die Übersetzung der virtuellen Blockadressen der Festplatten in die physikalischen Logical-Unit-Number-(LUN-)Blockadressen. Der Server "weiß" also, wohin er gespeichert hat.

Compaq will die ersten Versastor-Produkte noch in diesem Jahr ausliefern. Zunächst werden aber nach Angaben von Abbott Schindler, Open SAN Technical Marketing Director, nur Festplattensysteme auf Basis von SCSI unterstützt. IBM will sein Angebot kompatibel zu Versastor machen, so dass Big Blues Server und auch Speichergeräte in ein Versastor-Netz eingehängt werden können. Schnittstellen und Treiber dafür möchten auch Emulex, JNI, McData, Qlogic, Storage Networking Technologies und Troika Networks entwickeln.

Schon seit mehr als zwei Jahren liefert Storagetek Produkte zur Speichervirtualisierung für Unix- und NT-Systeme. 1998 veröffentlichte der Hersteller die "Virtual Intelligent Storage Architecture" (Vista), ein Sechs-Schichten-Modell zum Aufbau von Speicherlösungen gemäß den Empfehlungen der Storage Networking Industry Association (Snia).

Der Hersteller unterscheidet danach, wo die Virtualisierung erzeugt wird: im Speichernetz oder im Endgerät. Schon aus der Mainframe-Welt bekannt sind die Disk-Systeme "Shared Virtual Array" (SVA), die jetzt zusammen mit dem entsprechenden Verwaltungsprogramm auch für offene Systeme im SAN zur Verfügung stehen. Die Virtualisierung, etwa dynamisches Mapping, wird in den SVA-Plattensystemen erzeugt.

Der im November 2000 vorgestellte "Storage Domain Manager SN6000" ist ein Verteilsystem für Unix- und NT-Server, das zwischen den Hosts und den Bandarchiven geschaltet ist. Er unterstützt derzeit bis zu 64 FC-Schnittstellen, von denen jede 16 virtuelle Devices ansprechen kann. Das System kann also bis zu 1024 Geräte - Server oder Speicher - verbinden. Zusammen mit dem "Virtual Transport Manager" (VTM) erfolgt hier die Virtualisierung im Speichernetz.

Von Branchenführer EMC und Technologieführer Hitachi sind bislang keine eigenen Konzepte zur Virtualisierung bekannt geworden. Allerdings kommen auch sie nicht ohne diese Technik aus und realisieren das über Software von Drittanbietern, insbesondere über die schon eingangs zitierte Veritas Software Corp. Die Company aus dem kalifornischen Mountain View sorgte vor allem mit der "V3"-Initiative vor etwa eineinhalb Jahren für einiges Aufsehen. Mit V3 will Veritas nicht nur gespeicherte Datenblöcke in einem SAN verwalten, sondern alle Ressourcen im Speichernetz, also auch Switches, Hubs und sogar Applikationen. Wie der Name schon andeutet, besteht das Konzept aus drei Komponenten.

Der SAN Access Layer soll die Verbindung zwischen der Hardware im SAN und der Speichersoftware schaffen. Dieses API ist dem IFS der IBM vergleichbar. Basierend auf dem Access Layer, hat Veritas Management-Tools entwickelt, die eine zentrale Verwaltung des SANs erlauben sollen.

Als drittes Element im V3-Konzept agiert ein Storage-Server mit aufgespielter Softwaresuite als Schaltstation zwischen Host-Rechnern und Speichergeräten. Die Software, die auf den Produkten "Volume Manager" und "File System" basiert, erlaubt, dass sich Pools von Subsystemen dem Host als eine virtuelle Festplatte präsentieren. Über ein grafisches Interface können IT-Manager ihr SAN oder LAN verwalten, wobei die Software kaskadiert werden kann, ohne dass die zentrale Sicht auf die Topologie verloren geht. Veritas hat einige der V3-Funktionen in das Programm "SANpoint Control" gepackt, das als zentrales Verwaltungswerkzeug im SAN positioniert ist.

Data Core, jüngstes Lieblingskind der Branche, sorgte mit seinem Softwareprodukt "SAN Symphony" für Furore, das durch seine einfache Bedienung besticht: Mit einem einfachen Mausclick lässt sich einem Server mehr Festplattenkapazität zuordnen. Voraussetzung ist auch hier wieder ein FC-SAN. Das Programm ist in einem oder mehreren "Storage Domain Servern" abgelegt, die ebenfalls am Speichernetz hängen. Data Core setzt dafür Wintel-Rechner ein, die mit zwei CPUs und mindestens 256 MB RAM ausgestattet sein müssen. "Je größer der Hauptspeicher, desto schneller der Datenzugriff, da sich die Daten dann möglicherweise im Cache-Speicher und nicht auf der Platte befinden", erklärte Bharat Kumar, Director of Marketing Communication, die Arbeitsweise von SAN Symphony. Auf der Server-Seite unterstützt das Programm neben den gängigsten Unix-Varianten, NT, Netware und Mac OS. Auch bei den Speichersystemen herrscht nahezu freie Auswahl.

Virtuelles InterfaceAn den Spezifikationen zum "Virtual Interface" (VI), ursprünglich als Cluster-Technik gedacht, wird derzeit gearbeitet. Ziel ist es, eine einzige Schnittstelle zu entwickeln, die unabhängig von der zugrunde liegenden Netztechnik verwendet werden kann. Damit soll unter anderem die direkte Kommunikation der Anwendung mit der Netz-Schnittstelle unter Umgehung des Betriebssystems erreicht werden. Um die Vorteile zu nutzen, müssen die Anwendungen VI-fähig sein und in den Servern VI-Netzkarten installiert werden.

Noch einen Schritt weiter gehen die Bemühungen um ein neuartiges Dateisystem. Am "Direct Access File System" (Dafs) arbeiten unter anderem die Branchengrößen Adaptec, Cisco, Compaq, Fujitsu, Gadzoo, HP, IBM, Intel, Network Appliance, NEC, Qlogic, Seagate, Troika und Veritas. Mit dem Dafs-Protokoll soll es möglich sein, dass Applikationen direkten Zugriff auf die Daten eines File-Servers erhalten. In einem Cluster ließen sich Daten effizient austauschen, da die Betriebssysteme umgangen werden. Dafs nutzt VI als Transportmedium.

Abb: IBMs Storage Tank

Der Metadata-Server kommuniziert über das LAN. Die Daten laufen über den Fibre-Channel. Quelle: IBM