Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Disaster Recovery/Datensicherheit für die Anwendung

Kümmern Sie sich um das Wesentliche

02.05.2003
Hochverfügbarkeitslösungen wie gespiegelte Datenbanken oder Cluster ersparen Unternehmen eine Menge Ärger, denn sie vermeiden Ausfallzeiten und Ausfallkosten. Sie helfen aber nicht, wenn Viren, Anwenderfehler oder Softwareprobleme die Ursache für korrupte Datenbanken und Applikationen sind. Die aber bilden nach einer aktuellen Studie mit 53 Prozent die häufigsten Ausfallgründe.Von Kai Hamann*

Mehr als die Hälfe der Ausfallzeiten kann also über eine hochverfügbare Storage-Installation nicht aufgefangen werden. Für die Anwender ist aber einzig entscheidend, dass sie jederzeit uneingeschränkt mit ihren Programmen arbeiten können. Die Lösung für dieses Problem ist "Application Focused Recovery". Dabei wird die vorhandene Speicherlösung so angepasst, dass die Nutzung fehlerfreier Informationen jederzeit gewährleistet ist beziehungsweise in einem vertretbaren Zeitrahmen wiederhergestellt werden kann.

Ein brisantes Beispiel: Messaging

An Messaging-Applikationen wie Microsoft Exchange oder Lotus Notes werden die Vorteile von Application Focused Recovery besonders deutlich. Die Anzahl geschäftsbezogener E-Mails nimmt jährlich um etwa 25 bis 40 Prozent zu. Da E-Mail-Server nicht dafür konzipiert sind, sehr große Datenmengen langfristig zu speichern, wachsen die Probleme mit dem benötigten Speicherplatz und den nicht mehr online gespeicherten Mails. So sind Administratoren schon heute wöchentlich mehrere Stunden mit E-Mail-Backup und -Recovery beschäftigt.

Fällt ein Server aus oder bricht eine Netzwerkverbindung zusammen, während in eine Messaging-Datenbank geschrieben wird, ist der Datenbestand inkonsistent und kann auch nach der Fehlerbehebung nicht mehr einwandfrei genutzt werden. Ähnliches passiert, wenn ein Virus eine Log-Datei oder einen Index löscht. Notes oder Exchange können die Daten nicht mehr nutzen, und die in- und externe Unternehmenskommunikation ruht. Durch einen kompletten Restore - die Wiederherstellung der Daten von Band - lässt sich die Datenbank in einem historischen Zustand wieder konsistent und vollständig bereitstellen. Allerdings kann das je nach Datenbankgröße und Leistungsfähigkeit der Datensicherung Stunden, ja Tage dauern. Für die meisten Unternehmen bedeutet das gefährliche Verluste: Aktuelle Umfragen ergeben, dass sich rund ein Viertel aller Unternehmen in ihrer Existenz gefährdet sehen, wenn eine Downtime durch ein Disaster Recovery bis zu acht Stunden dauert.

Durch die möglichst schnelle und gezielte Wiedergewinnung der Messaging-Datenbanken, eben Application Focused Recovery, werden die finanziellen Schäden durch einen Ausfall von Exchange oder Notes verringert. Hierzu gibt es unterschiedliche Techniken mit ganz unterschiedlichen Recovery-Zeiten und natürlich zu sehr unterschiedlichen Preisen.

Snapshots verkürzen Ausfallzeiten

Die Lösung des geschilderten Problems kann nur durch Kombination verschiedener technischer Ansätze sichergestellt werden. Beispiel Microsoft Exchange: Durch den Einsatz relativ kostengünstiger Snapshot-Technologien lassen sich Ausfallzeiten des Messaging auf wenige Minuten verkürzen. Zum Anlegen eines Snapshots werden alle Exchange-Datenbanken kurzzeitig geschlossen und ein Disk-to-Disk-Image von der Platte erzeugt. Je nach Sicherheitsanforderungen und dem zur Verfügung stehenden Plattenspeicher werden meist mehrere Snapshots am Tag erstellt, mit denen sich die Applikationsdaten im Falle eines logischen Fehlers schnell wiederherstellen lassen. Dazu setzt der Administrator den Recovery-Prozess auf der Snapshot-Copy mit dem letzten fehlerfreien Datenbestand auf. Anschließend werden die Transaktions-Logs automatisch zurückgespielt, um die Datenintegrität zu garantieren. Nur wenn dieses Quick-Recovery-Verfahren versagt, müssen die auf Band gespeicherten Daten für das Recovery benutzt werden.

Hierarchisches Speicher-Management

Eine deutlich erhöhte Leistungsfähigkeit beim Einsatz von Snapshots wird durch speziell dafür ausgestattete Storage-Devices erreicht. Sie stellen durch redundante Komponenten eine mehr als 99,99-prozentige Verfügbarkeit der geschäftskritischen Applikationen sicher und garantieren, dass selbst Volumes mit mehreren TB innerhalb von Sekunden wiederhergestellt werden.

Hierarchical-Storage-Management (HSM) wird eingesetzt, wenn viele Daten gespeichert sind, auf die nur selten zugegriffen wird. HSM-Software für Messaging-Applikationen versieht ältere E-Mails und Attachments mit einem Index und verlagert sie physisch vom Primärspeicher auf langsamere, kostengünstige Medien wie Tapes oder magneto-optische Laufwerke. Trotzdem bleiben sie für den Anwender im Direktzugriff.

Da bei HSM nur die häufig genutzten Daten auf den Primärspeichern liegen, kann ein Recovery deutlich schneller ausgeführt werden, und durch die geringere Datenmenge wird auch das Backup beschleunigt. Ein Unternehmen, das sich für HSM entscheidet, profitiert aber noch auf andere Weise davon. So können ohne weiteren Aufwand die gesetzlichen Vorschriften für die Aufbewahrung von Buchhaltungsunterlagen erfüllt werden. Und da sich die Regeln, nach denen die HSM-Lösung E-Mails und Attachments klassifiziert und verarbeitet, flexibel konfigurieren lassen, wird auch im normalen Betrieb die Leistung und Verfügbarkeit des Speichers gesteigert.

Welcher Lösungsansatz der geeignete ist, um Ausfallzeiten unternehmenskritischer Anwendungen zu vermeiden oder zu verkürzen, muss individuell ermittelt werden. Dabei sind drei Aspekte zu beachten: die technische Machbarkeit, die betriebswirtschaftliche Notwendigkeit und das vorhandene Budget.

Die Ermittlung des Recovery-Bedarfs geschieht durch eine detaillierte Storage-Analyse, in der auch für einzelne Applikationen Aussagen zu Datenmenge, Datenbewegung und Datenwachstum enthalten sind. Sie wird von erfahrenen Consultants mit Unterstützung der IT-Mitarbeiter des Unternehmens vorgenommen. Unverzichtbar ist dabei, dass Prioritäten festgelegt werden, wie geschäftskritisch die einzelnen Applikationen sind und wie schnell sie nach einem Ausfall wieder verfügbar sein müssen.

Beratung zahlt sich aus

Die Kooperation von Beratern und den Mitarbeitern des Unternehmens soll nicht nur Fehlentscheidungen vermeiden, sondern auch dafür sorgen, dass mit dem bereitgestellten Budget die höchstmögliche Sicherheit und Verfügbarkeit der Applikationsdaten erreicht wird. Die Kosten für die Hinzuziehung der externen Spezialisten dürften sich in der Praxis innerhalb kurzer Zeit amortisieren. Beispielsweise bieten die auf Storage Networking spezialisierten SAN Solution Provider (www.san-solution-provider.de) investitionsgerechte und anwendungsoptimierte Recovery-Lösungen an, die auf zeitkritische Applikationen zugeschnitten sind. Bei der Wahl des Beratungshauses sollte darauf geachtet werden, dass herstellerunabhängig und unter Berücksichtigung der finanziellen Mittel analysiert, beraten und installiert wird. Nur so erhält ein Unternehmen eine optimale Recovery-Lösung, die die Applikation im Blickfeld hat. (kk)

* Kai Hamann ist Autor und freier Journalist in München.

Angeklickt

Über Hochverfügbarkeitslösungen lassen sich Ausfallzeiten vermeiden. Sie nutzen aber wenig, wenn beispielsweise Viren eine Messaging-Datenbank befallen. Neue Ansätze rücken deshalb die Anwendung in den Blickpunkt der Sicherheitsüberlegungen: Application Focused Recovery. Dabei wird jede Anwendung analysiert, ihre Datenmenge, Datenbewegung und Datenwachstum ermittelt. Danach erfolgt die Priorisierung nach der Wichtigkeit für das Unternehmen und wie schnell die Anwendung nach einem Ausfall wieder verfügbar sein muss.

Beispiel Computervirus W32.SQLSlammer

Neue Computerviren, gegen die auch ständig aktualisierte Antivirensoftware machtlos ist, zeigen immer wieder, dass es für Unternehmen unverzichtbar ist, sich auf das Recovery ihrer Datenbestände vorzubereiten. Am 25. Januar 2003 wurde der Wurm W32.SQLSlammer aktiv, der eine Sicherheitslücke des SQL Server 2000 ausnutzt, für die Microsoft schon ein halbes Jahr zuvor einen Security Patch veröffentlicht hatte. Slammer löst über ein modifiziertes UDP-Packet auf Port 1434 einen Buffer Overflow aus. Danach schickt er sich selber mit der vollen Bandbreite des Rechners an zufällige IP-Adressen weiter. In nur zehn Minuten waren 90 Prozent der insgesamt befallenen 75 000 Systeme infiziert und lahm gelegt - Weltrekord bei der Ausbreitungsgeschwindigkeit!

Den Betreibern der Server entstanden bei der Distributed-Denial-of-Service-Attacke (DDoS) hohe Kosten durch die zusätzlich verschickte Datenmenge. Internet- und E-Mail-Server waren während der Wurmbekämpfung ausgefallen oder durch die Überlastung blockiert. Als Folge davon waren zum Beispiel die Geldautomaten der Bank of America außer Betrieb. In Seattle konnten etliche Notrufnummern für mehrere Stunden nicht erreicht werden, und sogar eine Reihe von Microsoft-eigenen Servern waren infiziert, was den Download des dringend benötigten Updates behinderte. Besonders hart wurde Südkorea getroffen, wo es die meisten schnellen Breitband-Internet-Zugänge gibt und zwei Drittel des Börsenhandels über das Internet laufen - zwei Tage nach dem Auftauchen von Slammer lag das Handelsvolumen auf seinem tiefsten Stand seit 13 Monaten. Der weltweite Gesamtschaden wurde nach einer Woche auf mehrere Milliarden Euro beziffert, und das, obwohl der nur 376 Byte große Wurm relativ harmlos ist, da er keinen zerstörerischen Code enthält.

Backup vom Band

Tape-Backup ist immer noch die unverzichtbare Grundlage jeder Datensicherungs-Strategie. Autoloader und Libraries werden von aktueller Backup-Software, die separate Speichernetze, LAN- und Serverless-Backup unterstützt, flexibel genutzt. Allerdings ist es unumgänglich, die Leistung der Bandgeräte an das zum Backup verwendete Netzwerk anzupassen. Denn moderne, schnelle Bandtechnologien haben so hohe Datentransferraten, dass die Laufwerke über bislang ausreichend schnelle Netzwerk- oder Server-Anbindungen oft nicht im Streaming-Mode gehalten werden können - das Band muss nach jedem Pufferüberlauf neu positioniert werden, wodurch die Transferrate auf weniger als die Hälfte zusammenbricht. Deshalb werden Tape-Devices mit hochleistungsfähigen Laufwerken über schnelle Netzwerke, zum Beispiel auf Basis des Fibre Channel, angebunden, oder Staging-Technologien eingesetzt, wobei die Daten zwischen Servern und Library auf Festplatten zwischengespeichert werden.

Gängige Bandformate

Bandkassette: / LTO-1 / LTO-2 / DLT8000 / SDLT220/320 / AIT-2 / AIT-3

Native Kapazität: / 100 GB / 200 GB / 40 GB / 110 / 160 GB / 50 GB / 100 GB

Komprimierte Kapazität: / 200 GB / 400 GB / 80 GB / 220 / 320 GB / 130 GB / 260 GB

Native Transferrate: / 15 MB/s / 30 MB/s / 6 MB/s / 11 / 16 MB/s / 6 MB/s / 12 MB/s

Komprimierte Transferrate: / 30 MB/s / 60 MB/s / 12 MB/s / 22 / 32 MB/s / 12 MB/s / 24 MB/s

Rückwärtskompatibel: / - / LTO-1 / DLT4000, 7000 / Liest DLT4000, 7000, 8000 / AIT-1 / AIT-1 & 2