Immer noch unterbewertet: Datensicherung in Netzwerken

28.11.1997
ISMANING: Wer die Bedeutung von Daten erkannt hat und mit der Datensicherung beginnen möchte, wird über kurz oder lang auf einige unerwartete Probleme stoßen. Glücklicherweise gibt es mittlerweile sowohl Hardware- als auch Software-Lösungen für (fast) jedes Problem. Lothar Duda* stellt diese Lösungen vor.Täglich werden riesige Datenmengen verarbeitet. Geht man von der Annahme aus, daß eine Schreibkraft 300 Anschläge pro Minute erzielt und etwa 35 Mark in der Stunde erhält, ergibt das bei einer Datenmenge von 40 Megabyte einen finanziellen Aufwand von rund 80.000 Mark. Bei einem Gigabyte beläuft sich der Betrag bereits auf zwei Millionen Mark. Hinzu kommt, daß diese Summe lediglich die reinen Eingabekosten berücksichtigt. Die Kosten für die Beschaffung der Daten sind hier nicht einbezogen. Rund 80 Prozent der Datenverluste sind auf Anwenderfehler zurückzuführen, und ein Großteil der Daten kann nach dem Verlust nicht so einfach rekonstruiert werden. Dazu gehören etwa Gesprächsnotizen in Adreßdatenbanken oder Daten, bei denen die Eingabereihenfolge wichtig ist (Buchhaltung).

ISMANING: Wer die Bedeutung von Daten erkannt hat und mit der Datensicherung beginnen möchte, wird über kurz oder lang auf einige unerwartete Probleme stoßen. Glücklicherweise gibt es mittlerweile sowohl Hardware- als auch Software-Lösungen für (fast) jedes Problem. Lothar Duda* stellt diese Lösungen vor.Täglich werden riesige Datenmengen verarbeitet. Geht man von der Annahme aus, daß eine Schreibkraft 300 Anschläge pro Minute erzielt und etwa 35 Mark in der Stunde erhält, ergibt das bei einer Datenmenge von 40 Megabyte einen finanziellen Aufwand von rund 80.000 Mark. Bei einem Gigabyte beläuft sich der Betrag bereits auf zwei Millionen Mark. Hinzu kommt, daß diese Summe lediglich die reinen Eingabekosten berücksichtigt. Die Kosten für die Beschaffung der Daten sind hier nicht einbezogen. Rund 80 Prozent der Datenverluste sind auf Anwenderfehler zurückzuführen, und ein Großteil der Daten kann nach dem Verlust nicht so einfach rekonstruiert werden. Dazu gehören etwa Gesprächsnotizen in Adreßdatenbanken oder Daten, bei denen die Eingabereihenfolge wichtig ist (Buchhaltung).

Für viele sind diese Rechenbeispiele jedoch nicht abschreckend genug. Nach wie vor halten Anwender das Risiko des Datenverlusts für gering und vernachlässigbar. Das mag auf Verluste durch Hardwarefehler zutreffen. Der Faktor "Mensch" jedoch bleibt nach wie vor unberechenbar. Marktforschungsergebnisse zeigen, daß Datenverluste mit großen finanziellen Einbußen für Unternehmen verbunden sein können. So haben Ernst & Whinney festgestellt, daß in den Jahren 1992 und 1993 nahezu jede zweite Firma in den USA erhebliche finanzielle Verluste durch Systemabstürze hinnehmen mußte. Natürlich bedeutet das nicht automatisch den Verlust aller Daten. Jedoch mußten in einem Zehntel der Fälle über 50.000 US-Dollar aufgewendet werden, um die verlorenen Daten wiederherzustellen.

Eine noch deutlichere Sprache sprechen die Untersuchungen der Universität von Minnesota und des Haftpflichtverbands der Deutschen Industrie - ein Versicherungsunternehmen, das auch Datenbestände versichert. Die Amerikaner haben festgestellt, daß nur sieben Prozent der Unternehmen einen totalen Datenverlust überleben. 95 Prozent der Betroffenen sind fünf Jahre nach einer derartigen Katastrophe vom Markt verschwunden. Der deutsche Versicherer gibt an, daß 40 Prozent der Unternehmen innerhalb von zwei Jahren nach einem Datenverlust ohne vorausgehende Datensicherung bankrott gehen.

Selbst wenn regelmäßig eine Datensicherung erstellt wird, löst das nicht alle Probleme. Vielmehr ergeben sich neue, mitunter recht erhebliche Probleme.

Allen voran zunächst die Kapazität der Aufzeichnungsmedien: In SOHO-Umgebungen reichen die bisher angebotenen Lösungen mit bis zu 13 Gigabyte auf einem Band und ohne Kompression sicher aus. Für Netzwerkumgebungen und eine große Anzahl von Workstations werden riesige Datenmengen in Terabyte-Größe verarbeitet. Hersteller wie das Unternehmen Adic haben sich darauf spezialisiert, solche Laufwerke mit Autoloadern zu kombinieren. Diese Autoloader führen automatisch ein neues Band in ein Laufwerk ein, sobald die Kapazität des vorhergehenden erschöpft ist. LCD-Anzeigen informieren den Anwender ständig über den aktuellen Systemstatus. In Kombination mit mehreren Laufwerken bieten diese Lösungen Speicherkapazitäten von bis zu vier Terabyte.

Hohe Übertragungsraten für schnelle Datensicherung

Mit der Datenmenge ist der zur Sicherung benötigte Zeitaufwand verknüpft. Jan Ulrich Kath, Systemverwalter eines Mineralöl-Konzerns, hatte mit folgendem Problem zu kämpfen: "Vor der Umstellung auf DLT haben wir mit DAT-Laufwerken gearbeitet. Für die 70 Gigabyte an zu sichernden Daten war nicht einmal das Wochenende ausreichend. Wenn ich am Montag ins Büro kam, war die Datensicherung immer noch nicht abgeschlossen."

Dabei entsteht die Gefahr, daß die Datensicherung abbricht, bevor alle Daten gesichert sind. Oder die Datensicherung läuft parallel zur normalen Geschäftstätigkeit und verursacht damit erhebliche Leistungsverluste im Netz. Inzwischen gibt es Archivierungssysteme, die Übertragungszeiten von bis zu 60 Megabyte pro Sekunde ermöglichen.

Ein weiteres Problem vor allem in Netzwerken sind geöffnete Dateien. Auf diese Dateien kann aus Gründen der Datenintegrität nicht ohne weiteres zugegriffen werden.

Während ein Anwender einen Datensatz ändert, darf er nicht vom System gesichert werden. In diesem Fall wäre nicht gewährleistet, daß die komplette Änderung erfaßt wurde. Mit solchen Problemen hat zum Beispiel Werner Diehl von Fahner Druck in Lauf zu kämpfen: "Unser Datenbankserver läuft auf einem Server unter NT auf einem Alpha-Rechner. Leider können wir die Datenbank nur von Hand herunterfahren und nach der Datensicherung wieder von Hand starten. Ein aufwendiger Vorgang, der für eine sinnvolle Datensicherung nicht tragbar ist. Hier müssen wir eine andere Lösung finden." Softwareanbieter wie Legato und Cheyenne bieten mittlerweile Programme, die diese Anforderungen bewältigen. Bei einigen Systemen versucht die Software immer wieder, eine geöffnete Datei zu sichern, bis sie inklusive aller Änderungen erfaßt ist. Bei anderen gewährleisten spezielle Sicherungsmechanismen die Datenintegrität.

Automatische Sicherung

Wichtig ist auch der Zeitpunkt der Datensicherung. Nicht nur wegen der zuvor erwähnten Datenintegrität ist es ratsam, die Datensicherung dann durchzuführen, wenn keine oder wenige Anwender an den zu sichernden Systemen arbeiten.

Außerdem beansprucht eine Datensicherung einiges an Systemleistung und sollte auch aus diesem Grund nicht während der Hauptarbeitszeit durchgeführt werden. Daher muß die Sicherung automatisch, zu einem frei wählbaren Zeitpunkt und ohne Bedienung durch einen Operator, erfolgen. Die Software muß in der Lage sein, ein detailliertes Protokoll über die durchgeführten Tätigkeiten zu führen. Außerdem ist eine automatische Fehlerkorrektur notwendig. Dazu muß die Software beispielsweise jederzeit auf das richtige Sicherungsband zugreifen können.

Die ideale Lösung für jedes Unternehmen

Ausgehend von den bisher diskutierten Problemen sieht die ideale Datensicherung für große Datenbestände wie folgt aus. Das System muß über ausreichende Kapazität verfügen, um alle auf den zu sichernden Systemen vorhandenen Daten unterzubringen.

Das ist in der Regel nur über Autoloader-Systeme zu erreichen. Bei Problemen müssen automatisch Fehlermeldungen an den Administrator gegeben werden. Darüber hinaus haben die Sicherungszeiten so hoch zu sein, daß Komplettsicherungen in der arbeitsfreien Zeit erfolgen können. Über die Software müssen alle durchgeführten Aktionen detailliert protokolliert werden. Sie muß sowohl geöffnete Dateien als auch SQL-Dateien verarbeiten können. Optimal wäre außerdem die Sicherung auf zwei Medien gleichzeitig. Eine der Kopien kann dann extern gelagert werden und erhöht dadurch die Sicherheit der Daten nochmals.

*Lothar Duda ist Marketing-Leiter bei Adic Deutschland in Ismaning.

Zur Startseite