Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

14.06.2002 - 

Speichernetze/Heterogenität und Grenzen der Integration bei Storage Area Networks

Open SAN - genaue Planung ist alles

Open Storage Area Networks erfordern aufgrund ihrer hohen Komplexität eine sorgfältige Planung und umfassendes Integrations-Know-how, denn vorhandene Ressourcen sollen weiterhin genutzt werden. Gelingt der Umbau, dann werden Unternehmen langfristig von ihren Investitionen profitieren. Von Rupert Auer*

Moderne E-Business-Anwendungen wie Enterprise Resource Planning (ERP) oder Customer-Relationship-Management (CRM) ließen den Datenbestand in Unternehmen explosionsartig ansteigen. Wo früher Archive mit Aktenordnern das Bild bestimmten, stehen heute Server, Cluster und Speichersysteme. Datensicherung wurde für die IT-Verantwortlichen plötzlich zu einem sehr brisanten Thema. Denn die Ressourcen verschlingenden Anwendungsprogramme verlangen die Hochverfügbarkeit großer Datenmengen. Die herkömmlichen Direct-Attached-Storage-Lösungen, bei denen der Speicher direkt mit dem Applikations-Server verbunden ist, werden diesen Anforderungen längst nicht mehr gerecht.

Vor diesem Hintergrund erschien der IT-Welt die aufstrebende Storage-Area-Network-Technologie (SAN) als ultimative Lösung für alle Speicherprobleme: Auf Basis der Fibre-Channel-Technik verbindet ein SAN die Server und Speichersysteme mittels Switches oder Directors zu einem großen Speichernetzwerk, das nahezu unbegrenzt erweiterungsfähig ist.

Ein SAN macht Sinn

Das separate SAN ist dediziert für die Kommunikation zwischen Applikations-Server und Speichergeräten und ermöglicht hohe Datenübertragungsraten bei großen Informationsmengen: Transferraten von bis zu 200 MB/s lassen sich über Entfernungen bis zu 100 Kilometern erzielen. Dadurch kann es die Anforderungen moderner E-Business-Anwendungen, bei denen viele Clients zuverlässig auf sehr große Dateien zugreifen, problemlos erfüllen und sorgt für eine hohe Performance, Datenverfügbarkeit und -sicherheit. Durch die Möglichkeit einer gleichzeitigen Server- und Speicherkonsolidierung schafft ein SAN zudem die Grundlagen für ein effizientes, zentrales System- und Speicher-Management, das langfristig die Total Cost of Ownership (TCO) senkt. Seine nahezu grenzenlose Skalierbarkeit macht Unternehmen flexibel. So weit zumindest die Theorie.

In der Praxis bereitet die Heterogenität und Komplexität der IT-Infrastrukturen den Verantwortlichen immer noch Kopfzerbrechen. Die größte Schwierigkeit bei der Implementierung eines SAN besteht unverändert im mangelhaften Zusammenspiel der verschiedenen Komponenten. Die Hersteller setzen das Fibre-Channel-Protokoll als Industriestandard individuell um und bieten meist Produkte mit proprietären, nicht kompatiblen Features an. Die Folge sind Interoperabilitätsprobleme durch Herstellerabhängigkeit.

Trend: Open SAN

Der Trend geht jedoch zwangsläufig zu einem offenen SAN-Konzept, das sich aus Komponenten unterschiedlicher Hersteller zusammensetzt, verschiedenste Server- und Speicherplattformen integriert und vielfältige Anforderungen erfüllen kann. Schließlich verfügen die meisten Unternehmen über eine historisch gewachsene heterogene Infrastruktur und möchten vorhandene Ressourcen auch weiterhin nutzen. Viele Hard- und Softwareanbieter wie beispielsweise BMC, EMC, Brocade, McDATA, Sun und IBM haben sich bereits zu Initiativen zusammengeschlossen, um Interoperabilität sicherzustellen. Allerdings verfolgen die Allianzen sehr unterschiedliche Ansätze. Ein einheitlicher Industriestandard ist nicht in Sicht.

Es bleibt die Frage, wie Entscheider bei der Planung eines Open SAN die Interoperabilität aller Komponenten sicherstellen können. Das entscheidende Kriterium für das technische Zusammenspiel der eingesetzten Hard- und Software ist, dass die Anbieter ihre Produkte gegenseitig zertifiziert haben. Dies bedeutet, dass sich der IT-Verantwortliche durch lange Zertifizierungslisten mit möglichen Produktkombinationen kämpfen muss. Wer von den Vorgaben abweicht, riskiert, dass die Hersteller weder Gewährleistung noch Service und Support für ihre Produkte übernehmen. Die Implementierung eines Open SAN stellt für viele Unternehmen unter diesen Bedingungen eine große Herausforderung dar. IT-Verantwortliche und Administratoren betreten Neuland: Sie kombinieren Mainframes, Unix- und NT-Serverfarmen, sie müssen sich mit neuen Backup-Prozessen auseinander setzen sowie Speicherplattformen und SAN zentral managen.

Für die Konzeption einer offenen SAN-Infrastruktur, die sich nahtlos in die bestehenden Strukturen einfügt und dem Unternehmen langfristig Sicherheit und Investitionsschutz bietet, ist ein systematisches Vorgehen erforderlich. Zunächst empfehlen sich eine detaillierte Bestandsaufnahme und die Dokumentation der bestehenden IT-Infrastruktur. Anschließend sind Ziele zu definieren, die sich von dem zu erwartenden Datenwachstum und den Anforderungen an Performance, Verfügbarkeit und Sicherheit ableiten. Diese Ergebnisse sind maßgebend für die Konfiguration des SAN. Das Projektteam sollte dabei umfassendes Know-how sowohl über Server und Speichersysteme als auch über die unterschiedlichen Betriebssysteme von OS/390 über Windows bis hin zu den zahlreichen Unix-Derivaten besitzen. Zudem sind profunde Kenntnisse über Hochverfügbarkeits-Lösungen sowie Cluster- und Backup & Recovery-Konzepte erforderlich. Fachkundige Unterstützung bei diesen komplexen Projekten bieten unabhängige Systemintegratoren. Vor der Implementierung sollte die SAN-Lösung getestet und anschließend über den Service nachgedacht werden.

Verwaltung eines heterogenen SAN

Wenn die SAN-Infrastruktur steht, sind Zugangskontrollen einzurichten, welche die Zugriffe auf die Ressourcen regeln. Beispielsweise erkennt der Festplatten-Manager von Windows NT nur die eigene Speicherbelegung und würde durch Unix-Betriebssysteme belegten Speicherplatz als frei verfügbar kennzeichnen. Um Datenkorruption und -verlust zu vermeiden und um kritische Daten zu schützen, muss der Zugriff zwischen Server- und Speicherports geregelt werden. Des Weiteren sind Sicherheitsmechanismen für die Kommunikation zwischen Servern und Clients zu definieren, die eine verlässliche Autorisierung und Authentifizierung der Zugriffsrechte garantieren. Bei der Einrichtung und Verwaltung dieser Strukturen steht Administratoren mittlerweile eine Auswahl von Management-Software zur Verfügung, welche die Komponenten verschiedener Hersteller verwaltet. Dennoch sollte sich der IT-Administrator genau informieren, welche Management-Softwarelösung seine Anforderungen am besten erfüllt, damit er unter Umständen auf bereits existierende Teilkomponenten aufsetzen kann. Fehlen der Überblick über die heterogene SAN-Umgebung und eine zentrale Management Software, können vorhandene Speicherressourcen nicht effizient eingesetzt werden.

Das Storage Management ist ebenfalls von einer Vielfalt unterschiedlicher Ansätze geprägt: So bildet Verwaltungssoftware zur Visualisierung eines SAN sämtliche Hardwarekomponenten und deren Topologien ab. Es macht die Datenflüsse sichtbar und zeigt dem Administrator an, welche Applikationen "kritisch" sind und wo Performance-Engpässe bestehen.

Bei der Speichervirtualisierung werden alle Speicherressourcen in einem Pool zusammengefasst. Eine Kontrollinstanz ordnet die benötigte Speicherkapazität zentral den Applikationen zu und steuert den Zugriff auf alle Daten. Der Administrator kann im laufenden Betrieb per "Drag and Drop" eine Anpassung an den benötigten Speicherbedarf vornehmen. Bei diesem Ansatz sind wiederum zwei Varianten zu unterscheiden. Bei der In-Band-Virtualisierung strömen alle Datenflüsse durch die Kontrollinstanz. Diese Methode kann jedoch leicht zu Performance- und Skalierbarkeits-Engpässen führen. Darüber hinaus birgt sie ein hohes Risiko, da Anwender nicht mehr auf ihre Daten zugreifen können, wenn die Kontrollinstanz ausfällt. Bei der Out-of-Band-Variante benötigt jeder Server einen speziellen Agent, der die Informationen vom Server über das LAN oder einen speziellen Datenpfad an die Kontrollinstanz schickt. Diese Variante hat den Nachteil, dass für jedes Betriebssystem und jede Version spezielle Software-Agents benötigt werden.

Ein SAN ermöglicht die Einführung unternehmensweiter Backup- und Recovery-Prozesse. Beim LAN-free-Backup sind alle am Backup-Prozess beteiligten Komponenten - wie Server, Speichersysteme und Libraries - an das SAN angeschlossen. Die dafür eingesetzte Software ermöglicht den direkten Datentransport zwischen den Speichergeräten: Sie kopiert Daten von einem Plattensubsystem im SAN direkt auf eine Tape Library ohne Umweg über das LAN. Da das Backup das LAN nicht belastet, lässt sich die Laufzeit erheblich verkürzen - Datensicherungen sind daher in sehr kurzen Intervallen möglich. Bei diesem Konzept erfolgt nicht nur das Backup, sondern auch das Recovery der Daten LAN-free und ohne den Server.

Praxistest vor der Inbetriebnahme

Vor der Implementierung sollte das Projektteam die SAN-Lösung in einer vergleichbaren Systemumgebung auf Herz und Nieren testen und ein Proof of Concept erstellen, um Risiken zu minimieren. Letztendlich gewährleistet erst der Praxis-Check in einer Testumgebung, dass alle Komponenten in dem komplexen Speichernetz miteinander harmonieren und technisch interoperabel sind. Die Erfahrung zeigt: Wird die Integration einer herstellerunabhängigen Open SAN-Infrastruktur sorgfältig geplant, werden sich die Investitionen schnell auszahlen. (kk)

*Rupert Auer ist Manager Produkt Marketing und Business Development bei der Comparex Informationssysteme GmbH in Mannheim.