Backup-Strategien für heterogene Infrastrukturen sind häufig Balance-Akt

28.11.1997
MüNCHEN: Ließ sich die Backup-Problematik in Mainframe-geprägten Infrastrukturen noch verhältnismäßig einfach und überschaubar - da zentral - lösen, herrschen in den heutigen verteilten und vernetzten IT-Landschaften neue Gesetzmäßigkeiten vor. Wie DV-Verantwortliche eine Vielzahl von Servern in eine unternehmensweite Backup-Strategie einbeziehen können, zeigt Mika Kotro, Marketing Manager bei der EMC Computersystems Deutschland GmbH in Schwalbach, auf.Man muß nicht erst die Erkenntnisse von Analysten wie Meta Group oder Gartner bemühen, um die Bedeutung von Backup oder Recovery, der Sicherung oder Wiederherstellung eines Datenbestandes in der Informationsverarbeitung, zu betonen. Speziell die wachsende Heterogenität und Vernetzung der IT-Infrastrukturen mit einer Vielzahl von zu verwaltenden Server-Systemen sowie deren unaufhörlich steigende Speicherkapazitäten stellen erhöhte Anforderungen an das Speichermanagement. Hinzu kommt, daß mit den zur Verfügung stehenden Ressourcen Personal und Zeit für die Durchführung der Datensicherung ebenfalls äußerst sparsam umgegangen werden muß.

MüNCHEN: Ließ sich die Backup-Problematik in Mainframe-geprägten Infrastrukturen noch verhältnismäßig einfach und überschaubar - da zentral - lösen, herrschen in den heutigen verteilten und vernetzten IT-Landschaften neue Gesetzmäßigkeiten vor. Wie DV-Verantwortliche eine Vielzahl von Servern in eine unternehmensweite Backup-Strategie einbeziehen können, zeigt Mika Kotro, Marketing Manager bei der EMC Computersystems Deutschland GmbH in Schwalbach, auf.Man muß nicht erst die Erkenntnisse von Analysten wie Meta Group oder Gartner bemühen, um die Bedeutung von Backup oder Recovery, der Sicherung oder Wiederherstellung eines Datenbestandes in der Informationsverarbeitung, zu betonen. Speziell die wachsende Heterogenität und Vernetzung der IT-Infrastrukturen mit einer Vielzahl von zu verwaltenden Server-Systemen sowie deren unaufhörlich steigende Speicherkapazitäten stellen erhöhte Anforderungen an das Speichermanagement. Hinzu kommt, daß mit den zur Verfügung stehenden Ressourcen Personal und Zeit für die Durchführung der Datensicherung ebenfalls äußerst sparsam umgegangen werden muß.

Die DV-Verantwortlichen in den Unternehmen stehen daher vor der Herausforderung, in einem Balance-Akt das technisch Mögliche mit dem finanziell Vertretbaren in Einklang zu bringen. Sie müssen in Abhängigkeit von den betrieblichen Gegebenheiten die Vor- und Nachteile dezentraler sowie zentraler Vorgehensweisen und die Integration bestehender Lösungen abwägen. Die Wahl einer Backup-Strategie sollte dabei immer im Kontext einer unternehmensweiten Speichermanagementlösung erfolgen. Denn häufig lassen sich die für den Backup notwendigen Schritte auch zur Unterstützung weiterer Aufgaben nutzen, beispielsweise für Report-Auswertungen auf der Datenbestandkopie des Backup-Plattenspeichers.

Ausnahmen bestätigen die Regel

Für jeden einzelnen Server ein lokales Backup durchzuführen, kann sicherlich nur eine Lösung für Ausnahmefälle sein. Denn die Pluspunkte "keine Netzwerkbelastung" und "Parallelisierung durch die Anzahl der Bandstationen beziehungsweise Band-Bibliotheken" werden schnell obsolet durch die hohen Hardware-Investitionen, die hohe CPU-Belastung, die Komplexität durch zusätzliche Clients sowie das Fehlen eines zentralen Managements.

Sinnvoll: Dedizierter Backup-Server

Der zentrale Netzwerk-Backup-Server wiederum erlaubt zwar ein zentrales Management und die bessere Ausnutzung der Backup-Hardware, läßt aber das Netzwerk zum Engpaß werden und entlastet ebenso wenig wie das dezentrale Verfahren die einzelnen Server-CPUs. Zudem erfordert die Begrenzung des für die Backup-Durchführung zur Verfügung stehenden Zeitfensters oftmals die Parallelisierung durch weitere Netzwerkverbindungen und Band-Bibliotheken.

Ein Blick auf den Durchsatz einzelner Netzwerktopologien zeigt, daß diese sich kaum zur zentralen Sicherung großer Datenbestände in einem vertretbaren Zeitrahmen eignen. Der direkte SCSI-Anschluß (200 Mbit/s beziehungsweise 70 GB/h) erweist sich selbst gegenüber den schnellen Backbone-Technologien wie FDDI oder Fast Ethernet (100 Mbit/Sekunde beziehungsweise 35,2 GByte/ Stunde) überlegen.

Vor diesem Hintergrund ist es naheliegend, den Backup durch einen dedizierten Server direkt über das SCSI-Interface des Plattenspeichersystems auf eine Bandbibliothek und ohne "Umweg" über die Server-CPU durchzuführen. Voraussetzung ist aber, daß die unterschiedlichen Server-Systeme gemeinsam eine zentrale Speicherlösung nutzen. Zudem werden Schnittstellen zu der Server-Software auf den einzelnen Rechnern benötigt.

"Umweg" über CPU vermeiden

Neben den oben schon erwähnten Vorteilen einer zentralen Vorgehensweise profitiert man beim direkten Anschluß an das Speichersystem von der hohen SCSI-Geschwindigkeit. Netzwerk und die CPUs der Server-Systeme werden komplett von der Backup-Durchführung entlastet und stehen zur Bearbeitung ihrer eigentlichen Aufgaben zur Verfügung. Im übrigen kann der Backup-Server weiterhin mit dem Netzwerk verbunden sein und hierüber zusätzliche Rechnersysteme mit geringen Datenmengen sichern.

Alternativ können Unternehmen, die für ihre bestehende IBM-Mainframe-Infrastruktur schon ausgefeilte Backup/Restore-Strategien installiert haben, diese auf die offene Systemwelt ausdehnen. Die gemeinsam mit dem Unternehmen Innovation Data Processing entwickelte Softwarelösung FDRSOS (Fast Dump/Restore to Safeguard Open Storage) eröffnet bei Einsatz gemeinsam einsetzbarer Plattenspeichersysteme die Möglichkeit, die vorhandenen Mainframe-Speicher-Ressourcen zu nutzen.

Allerdings gilt hier ebenso wie bei der Anwendung eines dedizierten Backup-Servers die Einschränkung des sogenannten "full-physical backup". Das Auffinden einzelner Dateien in den Backup-Medien ist noch nicht ohne weiteres möglich, da ein einheitliches Dateisystem für die unterschiedlichen Server-Plattformen fehlt und zumeist eine Platte als Ganzes gesichert wird. Aufgrund der in Netzwerken vorherrschenden Heterogenität bedarf es sicherlich noch einiger Entwicklungsanstrengungen für die Realisierung eines solch ganzheitlichen Entwurfs einer Speicherlösung.

Eigenständiges Backup der Speicherlösung

Gleichwohl stellt der direkte Anschluß eines Backup-Servers an das Plattenspeichersystem einen großen Schritt auf dem Weg der durchgängigen Trennung von Server-CPU und Speicherebene dar. Das Plattenspeichersystem übernimmt hierbei zusätzlich die Aufgabe eines Backup-Servers und ermöglicht so den direkten Anschluß einer Bandbibliothek. Die gesamte Backup-Tätigkeit wird damit eigenständig und transparent von der Speicherlösung durchgeführt.

Weitere Zwischenschritte bei der Umsetzung dieser Vision betreffen die Einbeziehung von Datenbestandskopien für Backup-Aufgaben. Speziell bei unternehmenskritischen OLTP-Anwendungen erlauben sie die nahezu vollständige Entkoppelung von Produktions- und Backup-Betrieb, beispielsweise als Online-Backup-Modus für Datenbanken.

Während der Datenbestand, gegebenenfalls schon durch eine gewisse Redundanz ausfallgeschützt, den Anwendungen ohne Unterbrechungen zur Verfügung steht, wird beispielsweise bei der Softwarelösung TimeFinder transparent eine (oder mehrere) weitere Kopie(n) auf dem Plattenspeichersystem mitgeführt. Man kann nun die Anwendung kurzfristig herunterfahren und die der Kopie zugeordneten Platten abtrennen. Während die Datenbank nach wenigen Minuten wieder den Produktivbetrieb aufnimmt, werden die Platten an einen weiteren Server angeschlossen und die Sicherung kann frei von Zeitdruck erfolgen.

Einsatz vollständiger Kopien sinnvoll

Zusätzlich oder alternativ können Technologien zum Einsatz kommen, die Datenbestände in Echtzeit oder in festzulegenden Zeitabständen automatisch auf ein zweites, an einem geografisch getrennten Standort installiertes Disk Array überträgt und dadurch einen noch größeren Schutz bewirkt.

Der Einsatz vollständiger Kopien des Datenbestandes für Backup-Zwecke besitzt im übrigen einen angenehmen Nebeneffekt. Die Kopien lassen sich für weitere Aufgaben im Unternehmen nutzen und sorgen so für zusätzliche Entlastung der Produktionssysteme.

Als mögliche Einsatzfelder bieten sich unter anderem Data-Warehouse-Szenarien und Berichterstellung, aber auch Tests neuer Software-Releases auf Produktionsdatenbeständen an.

Zur Startseite