Backup für Filialen

28.04.2006
Die Sicherung dezentraler Datenbestände ist vor allem für Firmen mit verteilten Standorten ein Alptraum. Symantec will mit "Netbackup Pure Disk" für mehr Datensicherheit sorgen und so dem Administrator schlaflose Nächte ersparen.

Von Dr. Thomas Hafen

Wer Filialen hat, hat auch ein Problem mit der Datensicherung. Meist kümmert sich niemand wirklich um das Backup, Bänder verschwinden oder werden überschrieben. Sollte die Sicherung wider Erwarten doch funktionieren, gleicht die Suche nach einer wiederherzustellenden Datei im Wust von Duplikaten und Dateileichen der nach der Stecknadelsuche im Heuhaufen.

Trotz dieser Probleme konnten sich Alternativen zur dezentralen Datenhaltung bisher nicht durchsetzen. Thin Clients sind nur in einigen Branchennischen verbreitet, Wide Area File Services (WAFS), wie sie beispielsweise Cisco oder Brocade anbieten, sind erst seit kurzem auf dem Markt und noch kaum im produktiven Einsatz.

Die meisten großen Unternehmen mit vielen Standorten setzen eher auf einen zentralisierten Backup-Ansatz. So bietet etwa Asigra mit "Televaulting" ein Produkt für diese Aufgabe, bei Iron Mountain lässt sich das Backup verteilter Standorte über den zur CeBIT 2006 gestarteten "Server Electronic Vaulting"-Service konsolidieren.

Nun bietet mit "Netbackup 6.0 Pure Disk Remote Office Edition" auch Symantec eine Lösung, die verteilte Datenbestände zentral speichern kann. Um Bandbreite zu sparen und den Dateienverhau zu minimieren, sichert die Software jedes File nur einmal. Für Duplikate setzt das System lediglich einen Pointer.

System aus drei Komponenten

Pure Disk besteht aus drei Komponenten: der "Metabase" genannten Metadatenbank, in der die Pointer für Dateien und deren Duplikate verwaltet werden, dem "Content-Router", einem Server, der den physikalischen Speicherort einer Datei verwaltet und mit den Metadaten verknüpft, sowie den "Clients" genannten Agenten, die auf den Servern in den Außenstellen das Einsammeln der zu sichernden Daten übernehmen. Die Clients sorgen auch für eine Verschlüsselung der Daten, wobei sie für jede Datei einen Schlüssel erzeugen. Um die Übersicht zu behalten, erfolgt das Key Management zentral über eine webbasierte Managementkonsole.

Über eine individuelle, "Fingerprint" genannte Prüfsumme identifiziert Pure Disk jede Datei. Treten nun auf mehreren Servern Files mit identischem Fingerprint auf, wird deren Inhalt nur einmal gesichert - unabhängig davon, wie die Dateien heißen oder wann der Nutzer sie zuletzt abgespeichert hat. Ändert sich ein File, werden nur die Änderungen neu gespeichert, nicht die gesamte Datei. Die Software zerlegt die Files dazu in Blöcke von standardmäßig 128 KB. Die Segmentgröße lässt sich je nach Anforderungen unbegrenzt einstellen. Es sind also beispielsweise Blöcke von wenigen KB oder mehreren MB Größe möglich. Zugleich speichert das Programm für jedes Duplikat einen Metadaten-Eintrag. Wieder erfolgt der Zugriff über die Metadaten.

Sicherung in mehreren Stufen

In der Regel geschieht die Datensicherung zunächst dezentral in einem lokalen Storage-Pool. Auch der Abgleich der Daten erfolgt nur über die lokalen Clients. In einem definierbaren Backup-Zeitfenster gleicht Pure Disk dann diese lokalen Daten mit dem Storage-System in der Zentrale ab. Dabei eliminiert es Datenduplikate über das gesamte Unternehmensnetz. Der Speicherbedarf soll sich dabei um das Zehn- bis Fünfzehnfache gegenüber einer herkömmlichen Sicherung ohne Duplikatentfernung verringern lassen.

Kleinere Standorte lassen sich auch direkt an den zentralen PureDisk-Storage-Pool anschließen. Welche Daten aus den Filialen in die Zentrale übernommen werden, kann der Anwender über Policy-basierte Filterregeln festlegen, die beispielsweise Dateityp oder Speicherdatum berücksichtigen.

Zusätzlich zur zentralen Sicherung ist eine Replikation an einem Disaster-Recovery-Standort möglich. Die Spiegelung in die DR-Site ist allerdings nur asynchron möglich und erfolgt in der Regel nachts. Über ein Gateway kann Pure Disk außerdem die Daten an einen Netbackup-Server übergeben, der diese dann auf Band speichert.

Modularer Aufbau garantiert Skalierbarkeit

Um eine möglichst hohe Skalierbarkeit zu gewährleisten, ist das System modular aufgebaut. Die Metadatenbank besteht aus einem "Metabase Server", der die Kommunikation mit den Agenten übernimmt, und so genannten "Engines", in denen die eigentlichen Datenbankeinträge verwaltet werden. Eine Engine kann die Metadaten von zirka 50 Millionen Dateien verwalten. Sind größere Mengen zu bewältigen, lässt sich eine weitere Engine zum System hinzufügen.

Auch bei den Content-Routern greift das modulare Konzept. Ein Router entspricht dabei einem neuen Server mit eigenen Storage-Ressourcen (meist einer LUN), der 2 TB an Daten verwalten kann. Wird mehr Kapazität benötigt, lassen sich im laufenden Betrieb weitere Server mit entsprechenden Ressourcen hinzufügen. Die Content-Router kommunizieren untereinander und verteilen die Daten im Hintergrund so auf die verschiedenen Systeme, dass es zu keinen Speicherengpässen kommt.

Will man gesicherte Daten wiederherstellen, gibt es mehrere Möglichkeiten. Zum einen können Anwender selbst direkt über eine webbasierte Benutzeroberfläche auf den Storage Pool zugreifen. Welche Dateien sie sehen und wiederherstellen dürfen, kann der Administrator über eine rollenbasierte Nutzerdefinition festlegen. Darüber hinaus lassen sich die Backup-Daten als virtuelles CIFS/SMB-Laufwerk mounten. Mount-Punkte und Datenfilter legt wieder der Administrator fest. In beiden Fällen sieht der Nutzer zunächst nur die Metadaten, was Suchvorgänge beschleunigt. Erst wenn er einen File herunterladen will, greift das System auf den Content-Router zu.

Derzeit nicht möglich ist allerdings ein Bare Metal Recovery beim Totalausfall eines Servers. Ebenso fehlt ein automatisches Failover zwischen den Content-Routern. Fällt also einer dieser Server aus, ist der auf ihm gespeicherte Datenbestand so lange nicht zugänglich, bis der Server wieder läuft.

Die Lizenzkosten sind nur von der Menge der gespeicherten Daten abhängig, wobei die vorgehaltene Storage-Kapazität in den Filialen, der Zentrale und den Disaster-Recovery-Standorten addiert wird. Eine Erweiterung der Kapazität ist jederzeit möglich, ein Downsizing jedoch nicht.

Zur Startseite