Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

14.01.2000 - 

Speicher-Management

Der Speicherriese muß gezähmt werden

Der Hunger nach Speicherkapazität in der Unternehmens-DV wird Tag für Tag größer. Allein im Internet erhöht sich der Bedarf um den Faktor acht pro Jahr. Die gespeicherten Datenmengen müssen aber erst einmal zuverlässig gesichert werden. Daher wird das Speicher-Management in Zukunft für ein Unternehmen erfolgsentscheidend sein.

Von Herrmann Strass*

Storage Area Networks (SAN) bilden ein separates Netz parallel zum primären Local Area Network (LAN). Dadurch soll das LAN von den großvolumigen Datenströmen entlastet werden. Die Konsolidierung aller gespeicherten Daten wird vereinfacht, weil diese im SAN immer im direkten Zugriff verfügbar sind. Das Speichernetz entwickelt sich damit zu einem zentralen Element der Informationsverarbeitung.

Durch die rasante Entwicklung in den vergangenen Monaten ist die nötige Normierung durch die Snia (Storage Networking Industry Association) etwas ins Hintertreffen geraten. Die Anwender benötigen aber jetzt und heute Lösungen für ihre wachsenden Speicherprobleme. Die Unternehmen wollen und können nicht warten, bis ein Standard verabschiedet ist. So gibt es inzwischen mehr als ein Dutzend Allianzen, die zumindest Teillösungen anbieten.

Das LAN arbeitet üblicherweise mit einem Ethernet als Übertragungsmedium. SANs verwenden stattdessen meist Fiber-Channel-(FC-)Verbindungen. Diese können bei gegebener Taktrate bis weit über 90 Prozent mit Daten ausgelastet werden. Beim Ethernet liegt die Nutzlast im realen Betrieb bei 20 bis 40 Prozent der Übertragungsrate. Gerade bei den großen Datenmengen, die zwischen den Massenspeichern übertragen werden müssen, ist diese wesentlich höhere Nutzrate von besonderem Vorteil. Für das Gigabit Ethernet werden zwar die schon länger verfügbaren FC-Chips eingesetzt. An der protokollbedingten Ineffizienz des Ethernet ändert sich aber deswegen nichts.

Im FC-basierten SAN kommen bekannte und bewährte Protokolle wie IP oder SCSI zum Einsatz. Die Daten werden direkt zwischen den Speichersystemen ausgetauscht, ohne dass das LAN dadurch belastet wird. Sie lassen sich im SAN während des laufenden Betriebs sichern. Basis vieler SAN-Anwendungen sind Elemente aus dem hierarchischen Speicher-Management-Modell des Institute of Electrical and Electronics Engineers (IEEE).

Im SAN ist der Datenspeicher nicht mehr nur ein Peripheriegerät, das an einen bestimmten Rechner oder Server angeschlossen wird. Die Datenspeicher entwickeln sich zu einem aktiven Element in vernetzten Systemen. Dies wird durch die logische Zusammenfassung verteilter Datenspeicher in dem Gesamtsystem SAN erreicht. Moderne Speichernetze können außerdem zusätzlich eigenständig Nebenaufgaben wie Backup und Recovery übernehmen.

Die Gesamtsysteme sind also datenzentriert, nicht mehr Rechner- oder Server-orientiert wie bisher. Bei herkömmlichen Servern mit angeschlossenen Speicherlaufwerken waren nur die jeweils lokal administrierten Daten über den zugehörigen Server erreichbar. Das gilt auch für Thin Server oder Network-Attached-Storage-(NAS-)Architekturen.

Anders in einem SAN. Hier haben alle Server Zugriff auf alle Daten. Die Datenspeicher bilden eine von den Servern getrennte eigene logische Einheit. Somit kann ein gerade freier Server die vom Client benötigten Informationen aus dem Datenspeicherpool zur Verfügung stellen. Dadurch ergeben sich bei möglichen Ausfällen oder Datenstaus redundante Wege zwischen Daten und Anwender. Die Datenübertragung im Netzwerk läuft durch zwei Pipelines. Eine für Daten (SAN) und eine für Statusmeldungen sowie Steuerbefehle (LAN).

Problem der alten Architektur: Die Daten in herkömmlichen Systemen zu managen verursacht meist höhere Kosten als die Anschaffung der Speichergeräte.

Durch die Nutzung eines SANs mit zentraler Verwaltung ist ein IT-Manager nach Erkenntnissen des Marktforschungsunternehmes International Data Corp. (IDC) in der Lage, mehr als siebenmal so viele Daten zu verwalten als mit herkömmlichen Management-Systemen. Dabei wurde auch berücksichtigt, dass Server-spezifische Speichersysteme oft nur halb so viel kosten wie zentrale Speicheranlagen mit der zusätzlichen Infrastruktur für SANs.

Fazit: Herkömmliche Architekturen definieren eindeutige Zugriffsrechte direkt am Server. Client X kann Daten nur über den Server Y vom Speicher Z holen. SANs hingegen erlauben den unabhängigen Zugriff: jeder Client über jeden Server zu jedem Speicher. Dabei ist es Aufgabe der Management-Software im SAN, die logisch notwendigen Restriktionen netzübergreifend zu implementieren.

Die Zeiten proprietärer Systeme sind vorbei. Für ihre heterogenen Plattformen benötigen die Anwender über Standards gekoppelte Lösungen. Für die Basisstruktur der SANs gibt es die bereits seit einiger Zeit verfügbaren und erprobten Ansi- und ISO/IEC-Normen. Raid-ready- und SAN-ready-Plattenlaufwerke sind ebenfalls definiert. Über die SES (SCSI Enclosure Services) werden Informationen über die Umgebung wie zum Beispiel Temperatur, Stromzufuhr oder unterbrechungsfreie Stromversorgung (USV) in das System-Management eingebunden.

Was bislang noch fehlt, ist die darüber liegende Schicht von Management-Software für die harmonische Zusammenarbeit in einem heterogenen Netz. Die Unternehmen können jedoch angesichts ihres ständig wachsenden Speicherbedarfs nicht mehr warten, bis auch diese Normen verabschiedet sind. Daher haben sich inzwischen mehr als ein Dutzend Allianzen gebildet, um eine Konsolidierung zu erreichen. Einige dieser Bündnisse haben die bisher erarbeiteten Lösungen mit Hilfe der Snia bereits den zuständigen Standardisierungsgremien zur Normung vorgelegt. Derzeit fällt es aber noch schwer, eine geordnete Strategie der verschiedenen Aktivitäten zu erkennen.

Die Hardware und Protokolle eines Speichersystems sind bereits umfassend normiert, Teile davon auch als internationale Normen unter der International Organization for Standardization (ISO) oder der Verkabelungsnorm ISO/IEC. Von Vorteil ist dabei, daß Fiber Channel und SCSI in ihrer Weiterentwicklung kompatibel geblieben sind. Das SCSI-Protokoll wird nach wie vor beim Datentransfer mit dem seriellen Fiber Channel eingesetzt wie auch bisher beim parallelen SCSI-Bus. Anwendungen müssen deshalb bei der Migration vom parallelen SCSI-Bus zum seriellen Fiber-Channel-Link (elektrisch oder optisch) nicht umprogrammiert werden. Hilfsmittel und Dienste wie Schranküberwachung (SES) und Fehlerbehandlung sind ebenfalls für beide Techniken standardisiert. Das ist notwendig, um ausfallgeschützte Systeme implementieren zu können.

Weil Standards für das SAN-Management fehlen, haben sich unterschiedliche Allianzen gebildet, um mit kompatiblen Komponenten ein Gesamtsystem aus Hardware, Software und Management aufzubauen. Die Bündnisse verfolgen jedoch unterschiedliche Ziele. Oft streben die Partner nur die Zusammenarbeit der Komponenten gleicher Art (zum Beispiel Switches) oder die Lauffähigkeit einer Backup-Software auf einer gemischten Konfiguration an. Die Snia versucht, die einzelnen Aktivitäten in einem allgemeinen Standard zu integrieren.

Die Wege zum Standard bleiben steinig

Es gibt Herstellerallianzen, Kompatibilitätsbündnisse, neutrale Standardisierungsgremien sowie Mischversionen zwischen den beiden ersten Typen.

Bei den Herstellerallianzen übernimmt ein Unternehmen die Führung, und die Geschäftspartner ergänzen die Produktpalette, bis ein fertiges SAN-Gesamtangebot entsteht. In diese Gruppe gehören zum Beispiel Ensa (Compaq), die Fiber Alliance (EMC), Jiro (Sun), Open-SAN (Metastor), SAN Solution Provider (Tim) und SAN-Ware (Data Direct).

Kompatibilitätsallianzen entsprechen auch Herstellerverbänden, dienen aber in erster Linie zur Überprüfung der Kompatibilität von Hardware-Software-Kombinationen bereits vorhandener Produkte. Dazu gehören unter anderem das Celestra Consortium (Legato), OSFI (Switch-Hersteller), Tachyon (HP, jetzt Agilent) und Veritas.

Neutrale Standardisierungsgremien sind zum Beispiel American National Standards Institute (Ansi), IEEE, SSSWG, Internet Engineering Task Force (IETF), Snia oder THIC. Sie bearbeiten beziehungsweise entwickeln Standards und Entwürfe, die für den Einsatz in SAN-Netzwerken notwendig oder nützlich sind.

Für die Beurteilung der verschiedenen Allianzen ist Folgendes wichtig: Der Betrieb von heterogenen Systemen aus unterschiedlichen Rechner- und Betriebssystem-Plattformen, Dateiformaten, Controller-, Switch- und Speichermodulen sowie Software von verschiedenen Herstellern ist in standardisierter Form prinzipiell möglich. Ein Speichersystem über Fibre Channel an einen einzelnen Rechner anzuschließen und als SAN zu betreiben stellt sicher kein großes Problem dar. Auch die von den Allianzen oder Firmen speziell geprüften Konfigurationen sollten nur die üblichen Probleme bei der Installation bereiten. Die eigentliche Aufgabe einer SAN-Lösung stellt sich mit dem unternehmensweiten Management der gesamten Daten über viele Server hinweg mit einer entsprechenden modular aufgebauten System-Management-Software. Deren Standardisierung wird zur Zeit von der Snia vorangetrieben.

Besonders wichtig ist die laufende Anpassung des Standards an die sich immer weiter entwickelnden Normen der Snia und anderer Organisationen. Diese permanente Migration zum Standard bietet für die Anwender eine größere Freiheit bei der Produktauswahl und Konformität zu industrieweiten Standards. Larry Krantz von EMC (früher Data General), Chairman der Snia, verweist auf die Bedeutung der Zusammenarbeit heterogener Komponenten: "Die Speicherindustrie hat aus der LAN-Geschichte gelernt, wo die langjährigen Akzeptanzschwierigkeiten die Folge mangelnder Interoperabilität waren."

Für die Anwender empfiehlt es sich, Firmen oder Konsortien auszusuchen, die direkt und aktiv an der Standardisierung bei der Snia mitarbeiten. Dazu gehören zum Beispiel Brocade, Compaq, Dell, EMC, IBM, Legato, Seagate Technology, Storagetek und Veritas.

Weitere Forderungen, die an eine SAN-Architektur gestellt werden müssen, sind hohe Verfügbarkeit, Ausfallschutz sowie skalierbare Leistung und Kapazität etwa über Cluster-Systeme. Wichtig sind auch eine hohe Übertragungsrate und eine große räumliche Entfernung zwischen (gespiegelten) Subsystemen über den Fiber Channel, damit die Sicherheit der Informationen gewährleistet bleibt und eine Datensicherung unter optimalen Bedingungen ermöglicht wird.

Ausblick und Trends

Die Normierung bei Fiber Channel, SCSI und Raid geschah bisher immer zeit- und marktgerecht. Erweiterungen für höhere Geschwindigkeiten oder Funktionsergänzungen wurden dem Fortschritt der Technik entsprechend rechtzeitig fertig gestellt. Im SAN-Sektor hinken die Hersteller allerdings etwas hinterher. Nur auf den unteren Ebenen für SAN-Anwendungen gibt es Ergänzungen der Normen.

Die Fiber-Channel-Organisation FCIA (Zusammenschluss von FCA und FCLC) fördert die Entwicklung von Hardware-, Protokoll- und Schnittstellen-Standards in den Ansi-Gremien sowie deren Verbreitung im Markt. Die verschiedenen Gruppen und die Snia wollen darauf aufbauend Standards für die nächsthöhere Ebene entwickeln. Dazu wurde während der Storage Networking World im Oktober in Seattle eine Vereinbarung zwischen den Organisationen geschlossen.

SAN hat keinen Standard für Management-Software

Die Kombination von Fiber Channel und SAN bildet die Basis für eine neue Architektur von unternehmensweiten Datennetzen. Der Fiber Channel genügt auch den erhöhten Sicherheitsanforderungen, weil die Daten online in einem entfernten (Raid)-System dupliziert werden können. Die einzelnen Bestandteile für SANs sind also vorhanden. Eine Management-Software in standardisierter Form fehlt allerdings noch. Das Ziel ist bei allen das gleiche: modulare, standardisierte Produkte für heterogene unternehmensweite Datenspeichersysteme auf den Markt zu bringen. Bis jedoch standardisierte Produkte verfügbar sind, müssen sich die Anwender sorgfältig einen der großen Hersteller aussuchen, der jetzt schon passende Lösungen anbietet und auch den Übergang zum zukünftigen Standard mitmachen wird.

NASDs (Network-attached Storage Devices) gelten dagegen als problemlose Speichererweiterung (Thin Server mit IP-Adresse) im LAN. Der Zugriff direkt über das primäre LAN vereinfacht die Installation. Die Einsatzmöglichkeiten werden jedoch durch die besonders niedrige Übertragungsrate von etwa 2 MB/s bis 3 MB/s zum Beispiel im 100BaseT-Ethernet-LAN und die Blockade anderer Netzdienste durch die großen Datenmengen vom und zum Speicher begrenzt. Durch effizientes Caching beispielsweise mit NECP können Anwender eine gewisse Verbesserung erreichen.

Alle Elemente für unternehmensweite Speichernetze sowie die entsprechenden Normen dazu gibt es bereits. Die Management-Software für den Betrieb bieten die Hersteller vereinzelt ebenfalls an. Sie wird von der Snia in offene Speichernetzwerk-Normen eingearbeitet. Ein unternehmensweites heterogenes Speichersystem lässt sich aber auch dann nur in Zusammenarbeit zwischen Lieferanten, Systemintegratoren und Anwendern einrichten.

Für die Unternehmen wäre es jedoch falsch, zu warten, bis sich ein Standard etabliert hat oder sich eine Gruppe als vermeintlicher Sieger herauskristallisiert. Speicherprobleme müssen jetzt unter Beachtung der genannten Kriterien (Migration zum offenen Standard) gelöst werden. Wer die Speicherkapazität nicht ständig dem Wachstum anpasst, wird den Zeitpunkt eines fertigen Standards als Unternehmen nicht mehr erleben.

Speichermarkt

Die International Data Corp. (IDC) erwartet ein Marktwachstum von 14,5 Prozent im Jahr 2000 von 30 auf 34,3 Milliarden Dollar für Disk-Storage-Hardwareprodukte.

Für SAN-Produkte gibt das Marktforschungsunternehmen EMF Associates eine Steigerungsrate von 56 Prozent pro Jahr mit 8,9 Milliarden Dollar im Jahr 2000 und 32 Milliarden Dollar im Jahr 2003 an.

Die Marktforscher von IDC prognostizierten dem europäischen Speichermarkt 1999 einen Umsatz von 8,4 Milliarden Dollar und 11,8 Milliarden Dollar im Jahr 2002. Die Gartner Group hat vergleichsweise etwas höhere Zahlen für den europäischen Speichermarkt: 9,6 Milliarden Dollar für 1999 und 14,2 Milliarden Dollar im Jahr 2002.

*Hermann Strass ist Buchautor sowie Berater für neue Technologien insbesondere für Bus-Architekturen, Massenspeicher und industrielle Netzwerke.