Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

14.01.2000 - 

Speicher-Management/Das Ziel ist eine höhere Verfügbarkeit

Server- und Speicherkonsolidierung müssen Hand in Hand gehen

von Paus Schuster* Bedeutete die Verfügbarkeit von Daten in einer herkömmlichen Client-Server-Umgebung vor einigen Jahren noch allein die Wiederherstellbarkeit von Informationen, so ist heute für viele Bereiche eine kontinuierliche Verfügbarkeit der Daten von 24 Stunden an sieben Tagen in der Woche (7x24) unverzichtbar. Früher ging es vor allem um Offenheit und Flexibilität, heute führen Stabilität und Skalierbarkeit die Anforderungslisten an.

Die Verfügbarkeit der Daten hat sich durch den Einsatz von Raid-Technologien und das zentrale Management der DV-Umgebungen wesentlich verbessert. Diese Umgebungen können aber den aktuellen Anforderungen für unternehmenskritische Applikationen kaum mehr gerecht werden. Raid-Architekturen, Standby-Server oder einfache Cluster schützen zwar vor einzelnen Fehlern, können aber weder eine kontinuierlich hohe Leistungsfähigkeit beim Zugriff auf die Daten garantieren noch weitere Ursachen berücksichtigen wie etwa geplante Ausfälle für Wartung und Erweiterung der Umgebung, Server- und Softwarekonfigurationen, Kabel- und Netzwerkfehler oder Katastrophensituationen.

Eine konventionelle Client-Server-basierende IT-Umgebung ist charakterisiert durch eine große Anzahl von Systemen unterschiedlicher Hersteller. Die Platten sind allen Servern direkt zugeordnet, die Datensicherung erfolgt über einen dedizierten Backup-Backbone, in den die meisten Server mit einer zusätzlichen Netzwerkkarte eingebunden sind. So können zum Beispiel zwei Server mit hohen Datenmengen zum Zweck der schnelleren Datensicherungen direkt an das Kassettenarchivsystem angeschlossen werden. Umgebungen wie diese werden meist zentral verwaltet und können abhängig von den etablierten Prozessen und den eingesetzten Management-Werkzeugen auch zentral konfiguriert werden.

Der Aufwand für das Management wächst aber mindestens im gleichen Verhältnis wie die Datenmenge und die Anzahl der Knoten. Ein Ausbau der Kapazitäten ist nur durch den Einsatz von weiteren Servern mit zusätzlichem Plattenplatz möglich. Eine redundante Datenhaltung ist mit dieser Architektur kaum möglich, zudem wird die Leistungsfähigkeit der Informationssicherung von dem TCP/IP-basierten Netzwerk bestimmt. Auch ein Gigabit-Ethernet-Netz bietet keine wirkliche Abhilfe, da das Lesen der Daten im SCSI-Format von den Platten und deren Umwandlung in ein netzfähiges Format eine hohe Belastung auf dem zu sichernden Server erzeugen.

Ein erster Schritt zur Steigerung der Verfügbarkeit ist die Trennung von Daten und Servern, so dass die Verfügbarkeit nicht mehr vom Server und dem entsprechenden Betriebsystem abhängt. Durch Konsolidierung und Entkoppelung der Informationen vom Server können diese sehr schnell einem neuen System zugeordnet werden. Da somit auch über ein anderes System wesentlich einfacher auf die Daten zugegriffen werden kann, reduzieren sich Ausfallzeiten beim Crash des Servers, bei Problemen mit dem Betriebssystem oder bei Wartungsarbeiten am Server.

Derartige Architekturen lassen sich außerdem wesentlich einfacher skalieren, da meist ein Ausbau der Kapazitäten im laufenden Betrieb unterstützt wird. Cluster-Lösungen können durch den gemeinsamen Datenzugriff einfach implementiert werden, die meisten Plattensubsysteme unterstützen auch unterschiedliche Plattformen. Dieser erste Schritt zur Datenkonsolidierung bildet die Grundlage der redundanten Datenhaltung.

In einer typischen Cluster-Architektur mit einer redundanten Datenhaltung werden die Daten über die Server repliziert. Die Replikation der Daten hängt dabei je nach Plattform und Applikation vom Volumen-Manager, von der Cluster-Software, von der Applikation oder von einem Third-Party-Produkt ab. Die Verfügbarkeit dieser Umgebung wird durch die redundanten Pfade zu den Speichersubsystemen zusätzlich gesteigert.

Eine Konsolidierung der Daten kann in unterschiedlicher Form stattfinden. So stellen zum Beispiel redundante Rechenzentren eine Architektur dar, die einen sehr hohen Grad an Verfügbarkeit gewährleistet. Hier werden die Daten über zwei Rechenzentren gespiegelt. Die Replikation erfolgt dabei direkt vom Speichersubsystem ohne die Einbindung der entsprechenden Server. Hierbei wird meist die Fibre-Channel- Technologie für den Zugriff auf die Daten parallel zu der direkten Replikation der Daten über die native Schnittstelle des jeweiligen Herstellers genutzt.

Die Ziele einer Speicher- und Server-Konsolidierung liegen im Wesentlichen in der Steigerung der Verfügbarkeit durch eine höhere Effizienz bei der Datenhandhabung, einer einfachen Skalierbarkeit der Umgebungen sowie einem höheren Maß an Sicherheit. Nichtsdestoweniger hat die neue Architektur auch Auswirkungen auf andere Bereiche wie Datensicherung, Management, Katastrophenschutz und Service.

Durch die Konsolidierung der Daten auf ein zentrales Speichersubsystem entstehen auch neue Möglichkeiten für die Datensicherung wie zum Beispiel ein Host-loses Backup. Das bedeutet, dass Daten, die einem bestimmten Server zugeordnet sind, auch ohne Einbindung dieses Servers gesichert werden. Das erreicht man, indem kontinuierlich eine Kopie der Daten vom Speichersubsystem vorgehalten wird. Zu einem bestimmten Zeitpunkt werden diese Daten für die Sicherung getrennt und können unabhängig von den produktiven Daten gehandhabt werden.

Durch den Einsatz eines zentralen Speichersubsystems werden auch Werkzeuge zur Verwaltung dieser Systeme zur Verfügung gestellt. Diese Management-Umgebungen bieten eine Schnittstelle, die eine übersichtliche Verwaltung der verfügbaren Kapazitäten ermöglicht. So können Raid-Levels einfach konfiguriert und bei einigen Systemen auch Daten zwischen unterschiedlichen Plattformen in einem einheitlichen Format übernommen werden. Auch für die Betriebsführung entstehen neue Möglichkeiten zur Erweiterung der Kapazitäten, zur Analyse der Umgebung und der statistischen Auswertung.

Über ein Host-loses Backup können umfassende Maßnahmen für den Katastrophenschutz getroffen werden. Abhängig von den Anforderungen lassen sich die Raid-Arrays in einen anderen Abschnitt spiegeln. Außerdem können die Server zusätzlich in ein "Ausweich-Rechenzentrum" geclustert oder das Rechenzentrum kann über eine größere Distanz komplett gespiegelt werden.

Die wichtigste Entwicklung im Servicebereich ist die Fernwartung. Bei Implementierung eines automatischen Call-Home-Service kann kurzfristig auf Problemsituationen reagiert werden. Die Server-Konsolidierung in Cluster-Architekturen bietet je nach Software die Möglichkeit der unterbrechungsfreien Wartung und eines Upgrades der Server.

Das Fazit: Die heutigen Anforderungen an die Verfügbarkeit unternehmenskritischer Applikationen machen es erforderlich, die verteilte Client/Server-Architektur zu überdenken. Ein erster Schritt ist die Zentralisierung und Konsolidierung der Datenverarbeitung. Dies stellt aber nur den ersten Schritt eines weiteren Weges dar. Die daraufhin notwendigen Maßnahmen sind zum Beispiel die Gestaltung des Datenzugriffs (Storage Area Network (SAN)-Topologie), der Datensicherung, des Managements und der Maßnahmen für den Katastrophenschutz. Diese Schritte müssen folgen oder - besser noch - von Anfang an mit eingezogen werden.

Angeklickt

Wer seine DV-Landschaft konsolidiert, darf dabei den Speicher nicht links liegen lassen. Speicherkonsolidierung bedeutet, eine höhere Verfügbarkeit seiner Daten zu garantieren, einfachere Skalierbarkeit und ein höheres Maß an Sicherheit. Weitere Aspekte, die Anwender von Anfang an einbeziehen sollten, sind die Sicherung der Informationen, das Management, der Katastrophenschutz sowie der Service rund um den Datenbestand.

*Paul Schuster ist technischer Direktor des Systemintegrators Iqproducts GmbH in Dornach bei München.