Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

30.06.2000 - 

IT-Rezentralisierung/Jetzt die Grundlagen schaffen für die Speicherarchitektur von morgen

Rezentralisierung über SANs

Die in den fünf Jahren entstandenen Client-Server-Umgebungen halten den aktuellen Anforderungen an Verfügbarkeit und Skalierbarkeit nicht mehr stand. Waren in der Vergangenheit Flexibilität und kostengünstige Lösungen für unterschiedliche Anwendungen gefragt, so stehen heute die Einhaltung von Service Level Agreements und die Sicherstellung der Verfügbarkeit von Informationen im Vordergrund. Von Paul Schuster*

Nach einer Studie von Dataquest werden die veranschlagten Budgets für die Anschaffung von Speichersystemen und Dienstleistungen um 16 bis 20 Prozent steigen, obwohl die Preise pro Megabyte Plattenplatz um 35 Prozent fallen werden. Nicht zuletzt diese Studie zeigt, dass kein Ende des Wachstums der Datenmengen in Sicht ist.

Weitere Untersuchungen belegen, dass die Speicher-Management-Kosten für eine bestimmte Datenmenge in einer NT-Umgebung achtmal höher sind als in einer Großrechnerumgebung, 70 Prozent des Speicherplatzes nicht genutzt werden und 85 Prozent des Speichers an dem Server direkt angeschlossen sind. Unter diesen Gesichtspunkten ist es nicht überraschend, dass sich 96 Prozent der Top-500-Unternehmen mit Strategien zur Rezentralisierung der Speicherverwaltung und der Datenkonsolidierung befassen.

Aktuelle TechnologienDer erste Schritt in eine neue Speicherarchitektur ist die Entkoppelung der Server- und Speichersysteme. Dadurch werden die Verfügbarkeit erhöht, das Management vereinfacht, und die Kapazitäten lassen sich einfacher erweitern. Diese Voraussetzung ist heute mit zwei Technologien zu erfüllen: SAN (Storage Area Network) und NAS (Network Attached Storage). Während in einer NAS-Umgebung Daten über das TCP/IP-Netzwerk zur Verfügung gestellt werden, wird in einer SAN-Architektur eine Fibre-Channel-FC-basierende Netzwerkumgebung für die Einbindung aller Speicherressourcen aufgebaut. Ziel der neuen Architekturen ist deren einheitliche und vom Server unabhängige Handhabung.

Der NAS-Ansatz basiert auf einem dedizierten Fileserver, der die File-Systeme für eine heterogene Umgebung zur Verfügung stellt. Diese Lösung lässt sich einfach implementieren und verwalten. Bei größeren Datenmengen steigt die Komplexität allerdings stark an, und die Netzwerkbandbreiten bilden oft einen Engpass. NAS-Lösungen sind seit längerer Zeit im Einsatz und gewinnen im Rahmen der aktuellen Anforderung an Rezentralisierung und Speicherkonsolidierung weiter an Bedeutung.

Die eigentliche Grundlage für eine Rezentralisierung der Datenverarbeitung ist das Storage Area Network, da hiervon alle Aspekte der Datenhandhabung adressiert werden. Ein SAN ist eine Netzwerkumgebung für ein flexibles Management und erlaubt die gemeinsame Nutzung von Speicherressourcen wie Speichersubsystemen, Bandrobotern und Laufwerken. Diese Ressourcen lassen sich in einer SAN-Architektur unabhängig von den Produktivsystemen verwalten. Die Netzwerkarchitektur wird durch den Einsatz der Fibre-Channel-Technik realisiert. Im Gegensatz zum NAS ermöglicht ein SAN die Einbindung der gesamten Speicherumgebung, und das Speichernetz ist aus Applikationssicht transparent, da die Kommunikation nach wie vor über SCSI erfolgt.

Die wichtigsten Anforderungen an die neue Speicherarchitektur sind ein einfaches Management, eine gute Skalierbarkeit und eine höhere Verfügbarkeit der Daten und Informationen. Ein einfaches Management vor allem für verteilte, heterogene Umgebungen und eine hohe Verfügbarkeit für unternehmenskritische Applikationen im Rechenzentrum.

Verteilte UmgebungIm Lauf der Jahre wurden in verschiedenen Bereichen der meisten Unternehmen immer mehr Programme auf unterschiedlichen Plattformen implementiert. Diese Applikationen sind mittlerweile unternehmenskritisch geworden, und die Datenmengen sind enorm gestiegen. Die IT-Architekturen in den jeweiligen Abteilungen sind nicht einheitlich aufgebaut, und die Leistungsfähigkeit der einzelnen Server reicht oft nicht aus. Parallel dazu hat sich die Notwendigkeit entwickelt, zwischen den Applikationen zu kommunizieren und Daten auszutauschen. IT-Manager stellen sich derzeit die bange Frage, wie es denn nun weitergehen soll (siehe Grafik auf Seite 66).

Eine Rezentralisierung der Speicherverwaltung in diesen heterogenen Umgebungen lässt sich nur mit einer grundlegenden Veränderung der Architektur erreichen. Hierfür müssen die Daten für jeden Bereich, aber noch besser für die gesamte Umgebung in einem Speichersystem konsolidiert werden. Der Zugriff erfolgt je nach Datentyp und Anforderung über das FC-basierende SAN auf zentrale Speichersysteme oder über das LAN auf ein NAS-System. Oft kommen beide Varianten zum Einsatz, das NAS hauptsächlich für die File-Systeme der Benutzerdaten und das SAN als strategische Architektur für die Speicherverwaltung insgesamt sowie für die Bereitstellung von großen Datenmengen für unternehmenskritische Applikationen.

Das Management und der Datenaustausch in dieser Umgebung stellen heute die eigentlichen Herausforderungen dar. Die Key Player am Markt - etwa EMC, Network Appliance und Auspex im NAS-Bereich sowie EMC, Compaq und Hitachi (HDS) im SAN-Bereich - haben eigene Vorgehensweisen und Management-Werkzeuge etabliert. Die Produkte von Third-Party-Anbietern beschränken sich heute noch auf das Monitoring der Infrastruktur und der Systeme. Sie unterstützen in der Regel keine direkte Administration der Speichersysteme und der SAN-Infrastrukturkomponenten.

NAS-Lösungen ermöglichen eine gemeinsame Nutzung des Datenbestands durch unterschiedliche Plattformen, dabei können auch Unix- und NT-Systeme gleichzeitig auf einen Datenbestand zugreifen. In einer SAN-Umgebung ist der Aufwand für die Konzeption der Infrastruktur und die Implementierung der Sicherheitsvorkehrungen weitaus höher.

Ein gemeinsames Management beider Architekturen ist bislang nur in einer homogenen EMC-Umgebung möglich, da dieser Hersteller als einziger Anbieter beide Varianten mit dem gleichen Speichersystem unterstützt. Trotz noch vorhandener Einschränkungen beim Management einer SAN-Umgebung liegen die Vorteile auf der Hand:

-eine um 20 Prozent höhere Ausnutzung der Speicherkapazitäten,

-bis zu 50 Prozent Einsparung bei Kassettenarchivsystemen und Laufwerken,

-eine Steigerung der Effizienz beim Speicher-Management um bis zu 600 Prozent,

-eine höhere Produktivität durch kürzere Servicezeiten sowie

-eine geringere Beanspruchung der Produktivsysteme bei der Datensicherung.

Beispiel RechenzentrumIn einer RZ-Umgebung spielt das SAN eine noch wichtigere Rolle, denn eine hohe Verfügbarkeit und die Vorsorge für den Katastrophenfall sind ausschlaggebend für den Einsatz der neuen Technologie. Der Fibre Channel erlaubt die Übertragung der Daten über Entfernungen von bis zu zehn Kilometern, wichtig für Datenspiegelung oder -sicherung. Das Speichernetz bildet auch eine gute Grundlage für die Implementierung von Cluster-Architekturen, da der parallele Zugriff auf die Speicherressourcen durch die Netzwerkarchitektur unterstützt wird. Die hohe Verfügbarkeit wird durch eine redundante Datenhaltung über die Sicherheitsbereiche hinweg gewährleistet.

Das Speicher-ManagementTrotz der vielen Möglichkeiten, die eine SAN-Umgebung bietet, hat der eigentliche Durchbruch dieser Technik noch nicht stattgefunden.

Die Lösungen reduzieren sich auf die Verbindung zwischen Servern und Speichersystemen im Rahmen einer Speicherkonsolidierung und gestatten die gemeinsame Nutzung der Bandroboter. Des Weiteren wird FC heute für die Übertragung der Daten über große Entfernungen zwecks Datenspiegelung und Datensicherung eingesetzt. Architekturbedingt bietet ein SAN die Möglichkeit, umfassende Speicher-Management-Funktionalitäten in einer heterogenen Server- und Speichersystem-Landschaft über nur eine Oberfläche zur Verfügung zu stellen. Ein einheitliches FileSystem in einer heterogenen Umgebung und die Einbindung des Mainframes sind Ziele, die noch lange nicht erreichbar sind.

Es gibt aber heute schon viele Möglichkeiten, ein SAN effizient zu nutzen. So können die Daten unterschiedlicher Plattformen wie NT, HP, Sun, IBM, Compaq und andere in ein Speichersystem konsolidiert werden. Um den gegenseitigen Zugriff zu unterbinden, lassen sich die Systeme der gleichen Plattform in eigenen Zonen zusammenfassen. Über eine Zuordnung der Controller-ID (WWN World Wide Name) zu bestimmten Speicherbereichen (LUNs = Logical Unit Number) wird sicher gestellt, dass nur die Daten, auf die zugegriffen werden darf, von dem jeweiligen System "gesehen" werden können. Die gleichzeitige Nutzung eines Datenbestands durch mehrere Server ist bis jetzt nur innerhalb eines Clusters möglich.

Die höchsten Einsparungen lassen sich bei der Verwaltung der Speicherressourcen erzielen. Die meisten Anbieter stellen eine eigene Management-Umgebung zur Verfügung, die eine unterbrechungsfreie Erweiterung der Kapazitäten, eine zentrale Konfiguration und eine automatische Benachrichtigung im Fehlerfall unterstützt. Der Vorteil ist dabei schon durch die Architektur gegeben, da in einem SAN nicht viele kleine Speichersysteme über mehrere Server verwaltet werden müssen, sondern nur ein zentrales System. In einer solchen Architektur sind die Server einfach austauschbar und können sehr schnell für unterschiedliche Applikationen eingesetzt werden, indem beispielsweise eine andere Boot-Partition aus dem zentralen Speichersystem genutzt wird.

Bei der Datensicherung kommen die Vorteile eines Speichernetzes in vollem Umfang zum Tragen. So ist es heute schon üblich, dass mehrere Server auf das gleiche Kassettenarchivsystem zugreifen. Seit kurzem besteht die Möglichkeit, auch Laufwerke bei Bedarf unterschiedlichen Servern im SAN zuzuordnen. Ein nächster Schritt ist die direkte Sicherung der Daten von Platte auf Band, ohne dass das Produktivsystem durch den Datensicherungsprozess belastet wird.

ZusammenfassungEs steht außer Frage, dass das SAN die zentrale Komponente für zukünftige Speicherarchitekturen sein wird. Es werden einheitliche File-Systeme für Unix und NT, File-System-unabhängiges HSM (Hierarchical Storage Management) und integriertes Load Balancing bei selbständigem Management der Speicherumgebung realisiert sein. Was die Unternehmen heute brauchen, sind die entsprechenden praktischen Ansätze, damit sie von dieser überzeugenden Alternative zur heutigen Datenhaltung profitieren können. Denn schon heute werden SANs für konkrete Anforderungen wie Cluster, Backup/Recovery, Speicherkonsolidierung oder den Aufbau von Ausweichrechenzentren genutzt.

Unternehmen müssen jetzt die Grundlagen für ihre Speicherarchitektur von morgen schaffen. Dabei ist die richtige Beratung - auch wegen der fehlenden Standards in diesem Bereich - eine ausschlaggebende Komponente. In der nahen Zukunft gilt es jedoch zu bedenken, dass wir es mit neuartigen Technologien und Produkten zu tun haben. Die notwendige Normierung wird derzeit durch zahlreiche Standardisierungsgremien, Kompatibilitätsbündnisse und Herstellerallianzen international vorangetrieben. Hierbei sind beispielsweise die Initiativen der Snia (Storage Networking Industry Association), Fibre Alliance, FCIA oder das Celestra Consortium von Legato Systems zu nennen.

*Paul Schuster ist Technischer Direktor des Systemintegrators IQ Products GmbH in Dornach.

Was ist Fibre Channel?Fibre Channel (FC) ist eine Spezifikation für die leistungsfähige Verbindung von elektronischen Geräten, die eine flexible Konfiguration ermöglicht. FC besitzt die Eigenschaften einer Netzwerktechnik wie Ethernet und einer Bus-Technologie wie SCSI. Es lässt sich als Link zu multiplen Systemen und Speichermedien zusammen in einem Netzwerk einsetzen. Jedes System kann mit jedem Speichermedium kommunizieren. Das bedeutet, dass die Daten im gesamten Unternehmen in einem größeren Umfang verfügbar sind. Und es ist schnell: Fibre Channel kann heute große Datenmengen bei 100 MB pro Sekunde (200 MB/s in vollem Duplexmodus) übertragen.

Die Spezifikationen von Fibre Channel beinhalten fünf Protokollebenen, von denen die ersten drei den physikalischen Layer darstellen. Die Spezifikationen für diese Layer sind abgeschlossen und standardisiert.

Die Layer 4 und 5 (FC3 und FC4) sind spezifiziert. Allerdings besteht ein Interpretationsspielraum, der von den Herstellern genutzt wird, um spezifische Funktionalitäten für die eigenen Komponenten zu implementieren und so eine Abgrenzung zu anderen Herstellern zu ereichen. Diese Vorgehensweisen führen unter anderem dazu, dass ein einheitlicher Standard vor allem für das Management der auf FC basierenden Infrastrukturen noch nicht vorhanden ist.

Fibre Channel kann in fünf unterschiedlichen Serviceklassen genutzt, und in drei Topologien implementiert werden:

Klasse 1: Acknowledged-Connection-Service für große Dateien und volle Bandbreite;

Klasse 2: Acknowledged-Connection-Service für Cluster, Netzwerk, OLTP;

Klasse 3: Unacknowledged-Connection-Service für Speicher, Netzwerk, Broadcast;

Klasse 4: Fractional-Bandwith-Service für Echtzeitsysteme, Audio/Video;

Klasse 5: Uni-Directional für Videoverteilung (One to many).

Für die Einbindung von Speichersubsystemen und Bandroboter wird die Verbindungsklasse 3 genutzt. In einer Cluster-Umgebung kann die Verbindungsklasse 2 für eine synchrone Replikation der Daten eingesetzt werden.

An Topologien sind Point-to-Point, FC-AL (Fibre Channel Arbitrated Loop) und Fabric möglich. In der Point-to-Point-Topologie bietet Fibre Channel die einfachste Verbindung zwischen zwei Knoten. Sie gewährleistet die Verfügbarkeit der vollen Bandbreite von 100 MB/s, ist jedoch kaum skalierbar. FC-AL bildet eine Ringtopologie, ähnlich der Token- Ring- oder FDDI-Architektur. Sie verbindet bis zu 126 Knoten in einem Loop und ermöglicht die gemeinsame Nutzung der verfügbaren Bandbreite von 100 MB/s. Sie bietet zudem bereits eine gute Skalierbarkeit. Die Switched-Fabric-Topologie ist ausbaufähig auf bis zu 16 Millionen Knoten und bildet die Basis für die Verbindung mehrerer Loops und Knoten.

Abb.1: Speicherarchitektur

Für eine neue Speicherarchitektur müssen zunächst Server- und Speichersysteme entkoppelt werden. Quelle: IQ Products

Abb.2: Verteilte Client-Server-Umgebung

Viele Unternehmen kämpfen damit, dass im Laufe der Zeit eine Vielzahl von Insellösungen auf unterschiedlichen Plattformen entstanden ist. Quelle: IQ Products