Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

06.12.1996 - 

Speicher-Management manuell und automatisch

Backup-Software: Sicherung allein genügt nicht mehr

Backups sind kein lästiges Übel, sondern ebenso notwendig wie eine funktionierende Buchhaltung oder ein gutstrukturierter Vertrieb. Dabei gilt: Je umfangreicher die Datenmenge, desto wichtiger wird ein Daten-Management-System. Backup-Software kann zwar auch als Einzelapplikation das Sichern und Wiederherstellen von Daten übernehmen, wirklich effizient wird sie aber erst zusammen mit einer Speicher-Management-Lösung. Wie läßt sich nun die Datensicherung im ganzen befriedigend organisieren?

Zu hoher Aufwand bei Voll-Backup

Zunächst einmal muß der Systemverantwortliche einen bestimmten Backup-Fahrplan festlegen. Die Entscheidung, wann Dateien wie gesichert werden sollen, hängt von der Umgebung ab. Während bei kleinen Stand-alone-Systemen die komplette Sicherung aller Programm- und Anwenderdateien oft die einfachste Lösung darstellt, führt ein Voll-Backup in Client-Server-Umgebungen schnell zu einem unverhältnismäßig hohen Zeit- und Kostenaufwand. Zusätzlich sollte daher noch ein inkrementelles oder sogar differentielles Backup möglich sein (inkrementelles Backup sichert alle Dateien, die seit dem letzten Backup verändert wurden, differentielles Backup hingegen sichert die seit dem letzten Voll-Backup geänderten Dateien).

Lösungen miteinander kombinieren

In datenintensiven Umgebungen bieten die beiden selektiven Backup-Verfahren nahezu die einzige Möglichkeit, große Datenbestände mit einem vertretbaren Aufwand zu sichern. Häufig werden die verschiedenen Lösungen miteinander kombiniert.

Nachdem eine adäquate Methode definiert ist, muß geklärt werden, wie die Speichermedien einzusetzen sind. Zumindest ein aktueller Mediensatz ist an einen anderen Ort auszulagern. Die übrigen Mediensätze können beim System verbleiben, um den schnellen Zugriff zu gewährleisten. Damit sich die Backup-Dateien im Ernstfall auch wiederfinden lassen und das Restore mit angemessenem Aufwand vorgenommen werden kann, müssen Einsatz und Archivierung der Speichermedien strukturiert werden.

Der Wechsel der Speichermedien erfolgt in der Praxis häufig nach einem der beiden klassischen Rotationsschemata "Tower of Hanoi" (ToH) oder "Grand-father-Father-Son" (GFS). Nur das Tower-of-Hanoi-Prinzip - angelehnt an das gleichnamige Denkspiel - ermöglicht die Auslagerung eines Mediensatzes und spart gegenüber dem GFS-Prinzip 20 bis 30 Prozent an Speichermedien. Nachteil des ToH-Verfahrens ist die kompliziertere Verwaltung, die jedoch mit entsprechender Software-Unterstützung durchaus in den Griff zu bekommen ist. Aktuelle Backup-Lösungen bieten zusätzlich zu den genannten Verfahren auch die Möglichkeit, ein eigenes Rotationsschema zu definieren.

Da Bedienungsfehler die Hauptursache für Systemprobleme sind, sollte die Software schon bei der Installation automatisch die Server-Umgebung analysieren. Kann sie auch noch Dateien und Geräte selbständig managen, erleichtert dies die Arbeit. Auch die Verwaltung der Speichermedien - von der Art der Medienrotation bis hin zur Archivierung der Bänder durch entsprechende Archivfunktionen - ist ein Qualitätsmerkmal von Backup-Lösungen. Erst im Fall eines "Backup-GAUs" zeigt sich, was die Software wirklich kann. Beim dann notwendigen Restore beispielsweise sollte sie potentielle neue Fehlerquellen von vornherein ausschalten.

Dazu ein Negativbeispiel: Ein 5-GB-Server ist zusammengebrochen und muß komplett vom Band wiederhergestellt werden. 3 GB wurden seit dem letzten Voll-Backup nicht verändert, 2 GB per Differential-Backup gesichert. Sämtliche Daten werden vom Voll-Backup-Band wiederhergestellt. Da hierzu auch die 2 GB an veränderten Daten zählen, ist eine beachtliche Zeit erforderlich. Von den Differential-Tapes muß der Systemverantwortliche die geänderten 2 GB neu einspielen, so daß insgesamt 7 GB übertragen wurden.

Neueste Version würde ausreichen

Bei Inkremental-Backups ist die Situation noch dramatischer, da manche Dateien in fünf Versionen auf dem Band sind, obwohl die neueste Version völlig ausreicht. Wird nun noch - beispielsweise durch einen Konfigurationsfehler im Server - der Wiederherstellungsprozeß unterbrochen, muß die gesamte Prozedur wiederholt werden. Die zwei Stunden Restore vor dem Abbruch waren vergebens. Wenn dann bei der Wiederherstellung ein Band nicht sofort verfügbar war oder in der falschen Reihenfolge eingelegt wurde, muß der Vorgang wieder unterbrochen werden, und ein Neustart ist unumgänglich.

Sinnvoller ist es, die Software überprüft den Speicherstatus auf dem Server und stellt dann nur die fehlenden Daten wieder her. Vom Ausfall nicht betroffene Dateien brauchen schließlich nicht wiederhergestellt zu werden, nur um sie anschließend wieder zu löschen, da sie jetzt doppelt vorhanden sind. Hierzu muß die Software in der Lage sein, über ein entsprechendes Archiv-Management zu lokalisieren, wo sich die jeweilige Datei und das dazugehörige Band gerade befinden. Sollte ein Band nicht gleich zur Hand sein, ist es hilfreich, wenn die Software dann ein anderes einspielen kann. Oder sie unterbricht den Prozeß, um an der gleichen Stelle weiterzuarbeiten, wenn das Band verfügbar ist.

Backup-Software ist heute in der Lage, aus dem Voll-Backup nur die Daten auszuwählen, die unverändert wieder in das System eingespielt werden sollen. Fehlende oder geänderte Daten lassen sich in der aktuellsten Fassung einfach über die Differential-Backup-Bänder integrieren. Der Systemverantwortliche spart so nicht nur viel Zeit, sondern auch Nerven.

Für eine effiziente Datensicherung sollten besonders in großen Netzen die Anforderungen an die eingesetzte Backup-Software klar definiert werden.

Funktion auch manuell steuerbar

Kompatibilität zu bestehenden Standards nach der ECMA-208-Norm der internationalen Standardbehörde European Computer Manufacturers Association (ECMA) ist ein absolutes Muß, damit die Lösung auch bei einem Systemwechsel und in heterogenen Umgebungen weiterverwendet werden kann. Sinnvollerweise sollte die Software Funktionen der eingesetzten Netz-Betriebssysteme unterstützen - beispielsweise Native NDS oder SMS bei Netware 4.0 oder Windows NT Registry Hives. Dadurch ist auch die problemlose Migration von Daten zwischen Netware- und Windows-NT-Umgebungen möglich.

Neben den verschiedenen Backup-Arten gehören vor allem zahlreiche Automatisierungsfunktionen zu den Merkmalen solcher Lösungen, doch müssen sie auch die Möglichkeit offenlassen, diese Funktionen bei Bedarf manuell zu steuern. Dies gilt sowohl für die Unterbrechung des Medienrotationsschemas als auch für das Finden, Melden und Beheben von System-, Benutzer-, Hardware- oder Medienfehlern. Die Definition verschiedener Zugriffsberechtigungen erleichtert die Datensicherung ebenso wie die Möglichkeit, mit einer Boot-fähigen Diskette ohne Neuinstallation des Netz-Betriebssystems und der Backup-Software die Daten wiederherzustellen. Natürlich muß eine derartige Software plattformübergreifend einsetzbar sein.

Stabile, aktive und inaktive Daten

Intelligente Speicher-Management-Lösungen sind in der Lage, Daten zu kategorisieren und ihrer Relevanz entsprechend zu verwalten. Dieses Hierarchical Storage Management (HSM) basiert auf der Tatsache, daß zirka 80 Prozent aller Daten eines Unternehmens sogenannte inaktive Daten sind, die nicht verändert werden und lediglich Speicherplatz verbrauchen. Derartige Daten müssen anders behandelt werden als solche, die für den laufenden Betrieb unbedingt notwendig sind: Das sind die "stabilen" Daten - also die Betriebssysteme, Anwendungen und Tools - und die "aktiven" Daten, die ständig bearbeitet und modifiziert werden. Letztere werden regelmäßig per Backup gesichert und lassen sich so nach einem Systemausfall gezielt identifizieren und schnell wiederherstellen. Inaktive Daten sollten auf andere Medien von der Festplatte ausgelagert und systematisch archiviert werden hier kommt es nicht auf einen schnellen Restore-Vorgang, sondern auf eine gutorganisierte Verwaltung sowie Zugriffs- und Migrationsmöglichkeiten an.

Durch das Auslagern inaktiver Daten steht mehr schneller Speicher für die stabilen und die aktiven Daten bereit. Beim Restore werden zunächst diese Informationen rekonstruiert. Während das System bereits wieder einsatzfähig ist, können dann bei Bedarf die inaktiven Daten geladen werden, die für die aktuelle Arbeit im Netz keine Rolle spielen. So lassen sich die Ausfallzeiten und -kosten bei einem Systemabsturz im Netzwerk deutlich reduzieren.

Der Branchentrend geht in Richtung integrierte Lösungen mit Funktionen für das gesamte Speicher-, System- und Netzwerk-Management. Eine solche Zusammenführung bringt auch Synergieeffekte im Hinblick auf die Netzwerk- und Systemverwaltung - nicht zuletzt durch die einheitliche Bedienung. Eine zentrale Anforderung an diese Lösungen ist Skalierbarkeit, das heißt flexible Einsatzmöglichkeiten vom Desktop-System über Server-Backup bis hin zu Server-Storage-Management-Lösungen, die die zentrale Verwaltung dezentraler Backup-Server erlauben.

ANGEKLICKT

Bei Backup-Lösungen kommt es immer mehr auf Bedienerfreundlichkeit an. Die zuverlässige Sicherung der Daten, vor Jahren noch ein ausreichendes Kriterium für Backup-Lösungen, ist heute nur noch die wesentlichste Voraussetzung derartiger Systeme. Backup- und Restore-Vorgänge können inzwischen, im Zeichen offener Systeme, durch funktionsstarke Spezialsoftware sowohl manuell gesteuert als auch (teil-)automatisiert werden.

*Klaus Albers ist freier Journalist in München.