Datenrettung

Die schlimmsten Fehler bei Backup und Recovery

22.07.2010 von Oliver Mangel und Norbert Steiner
Wer Backup und Recovery nur als lästige Pflicht versteht, lebt gefährlich. Lesen Sie, welche Fehler Ihre Kunden vermeiden sollten und wie ein professionelles Konzept für die Datensicherung aussieht.

Wer Backup und Recovery nur als lästige Pflicht versteht, lebt gefährlich. Lesen Sie, welche Fehler Ihre Kunden vermeiden sollten und wie ein professionelles Konzept für die Datensicherung aussieht.

Die Datenrettung gehört glücklicherweise nicht zu den täglichen Aufgaben von Storage-Administratoren. Doch die Anforderungen an das tägliche Backup steigen. Wachsende Datenmengen müssen in immer kürzerer Zeit mit minimaler Beeinträchtigung der Produktivsysteme gesichert werden. Engmaschige Compliance-Anforderungen erschweren die Aufgabe zusätzlich.

Trotz dieser Herausforderungen wird die Datensicherung oft wie ein Stiefkind behandelt. Mit Backup und Recovery im Unternehmen ist es wie mit Versicherungen. Man muss sich darum kümmern, will aber nur wenig Zeit und Arbeit investieren. Tritt dann tatsächlich ein Schaden ein, wird schnell klar, dass sich ein wenig mehr konzeptionelle Energie bei Auswahl, Design und Implementierung durchaus gelohnt hätte. Denn Datensicherungsprojekte erfordern End-to-End-Konzepte, durchgängige, zentrale Monitoring-Ansätze und eine ganzheitliche Betrachtung der gesamten Unternehmensarchitektur.

Die besten Storage-Tools
Parted Magic
Das kostenlose Programmpaket bietet eine umfangreiche Tool-Sammlung, um nahezu alle Aufgaben und Probleme rund um die Festplatte zu erledigen beziehungsweise zu lösen.
Eraser
Mit der Freeware Eraser lassen sich sensible oder vertrauliche Dateien durch mehrfaches Überschreiben mit verschiedenen Algorithmen sicher löschen.
PureSync
Das kostenlose Tool unterstützt den Anwender beim Backup und Wiederherstellen von wichtigen Dateien beziehungsweise Ordnern. Darüber hinaus kann es ausgewählte Dateien und Ordner User-spezifisch zwischen zwei Orten synchronisieren.
Grysync - rsync
Während der Synchronisation zeigt das Tool die wahrscheinliche Restzeit des Prozesses und die momentan zu verarbeitende Datei an.
CheckQuota
Die Software überwacht das Datenvolumen in Ordnern und auf Laufwerken. Bei Erreichung eines Schwellwertes wird der Administrator informiert
ISO Master
Kein Umstellung notwendig: Die grafische Benutzeroberfläche für Windows und Linux sind fast identisch.
Anti-Twin
Mit der Freeware Anti-Twin lassen sich gleiche oder binär ähnliche Dateien finden. Im Beispiel werden Bilder auf Pixelebene mit einer Ähnlichkeit von mindestens 90 Prozent gesucht.
WinSplit
Mit der Shareware WinSplit lassen sich große Dateien einfach in mehrere kleine Stücke aufteilen.
Unlocker
Mit der Freeware Unlocker lassen sich von Anwendungen oder Systemprozessen gesperrte Dateien trotzdem löschen.
Baobab
Ein Scan des gesamten Dateisystems gibt Ihnen einen Überblick des verbrauchten Speicherplatzes.
MeinPlatz
Mit verschieden Gruppierungs- und Filterfunktion durchsucht das Programm Speichermedien, um Dateien mit großem Speicherplatzbedarf aufzuspüren.
YARCGUI
Die Oberfläche verleiht Microsofts Robocopy eine eingängigere Bedienung und komfortable Kopierauftagsverwaltung.

Problem 1: Messaging und File-Services sichern

Das Thema Backup und Recovery wirft bei den Verantwortlichen in den Unternehmen viele Fragen auf. Zunächst sorgen sich IT-Verantwortliche natürlich um die Sicherheit ihrer Bestandsapplikationen wie Messaging und File-Services. Die rasanten Wachstumsraten dieser Anwendungen sprengen immer wieder die Kapazitätsgrenzen der Datensicherungsmedien und die definierten Laufzeiten für Sicherung und Restore.

Hohen Erklärungsbedarf gibt es derzeit bei der Sicherung von Daten aus neuen Applikationen wie Collaboration-Plattformen. In Sharepoint-Umgebungen können die Informationsmengen auf mehrere Terabyte anwachsen. Gleichzeitig stellen die Server-Farmen mit untereinander konsistent zu sichernden Einzelsystemen für Datensicherungsvorhaben komplexe Hürden dar. Weiter sind virtualisierte Infrastrukturen ein aktuelles Thema für Data-Protection-Experten.

Egal ob die Plattform VMware, Hyper-V oder anders heißt, die Frage lautet immer: Wie können Daten in virtualisierten Umgebungen effizient und Recovery-fähig gesichert werden? Ein wichtiges Thema ist die Konsistenz von Applikationen im virtuellen Umfeld. Hier gilt es, die vorhandenen Schnittstellen genau auf ihre Tauglichkeit für die Backup-Instanzen zu prüfen.

Vielfach sind bereits punktuelle Lösungen im Einsatz, die das Backup und die Rücksicherung von ein bis drei virtuellen Maschinen bewältigen. Wer plant, seine Infrastruktur mittelfristig in größerem Rahmen zu virtualisieren, sollte mit leistungsfähigen Enterprise-Backup-Tools operieren. Diese sollten Backup-Services automatisieren, Applikationen konsistent sichern und die Betriebsaufwände über eine einheitliche zentrale Administrationsschnittstelle im Rahmen halten.

Problem 2: Insellösungen funktionieren nur kurzfristig

Die Krux bei der Datensicherung ist die End-to-End-Betrachtung des Sicherungsprozesses: Die gesamte Wegstrecke der Daten von Quellapplikation und -system, über das LAN oder SAN bis hin zum Sicherungsmedium muss geplant werden. Organisatorisch führt der Sicherungsweg in den Unternehmen über Funktionsbereiche und Abteilungen hinweg.

Hier gilt es, an den Schnittstellen der Zuständigkeitsbereiche konzeptionelle Brüche zu vermeiden, damit die definierten Serviceziele für Backup und Recovery in jedem Fall erreicht werden. Fehlt diese ganzheitliche Betrachtung, besteht die Gefahr, dass jede Abteilung Insellösungen zum Schutz der eigenen Applikationen durchsetzt. Ein zentrales, konsistentes Berichtswesen und durchgängige Prozesse werden so unmöglich und sind mit deutlichem Mehraufwand verbunden.

Wie bei vielen anderen IT-Projekten ist die Kommunikationsleistung auch bei Datensicherungsvorhaben von zentraler Bedeutung. Es gilt unterschiedliche Anforderungen und Interessen unter einen effizienten Hut zu bringen. Hilfreich ist das Hinzuziehen des Auditors, der die Sicherung von Prozessen auf Compliance- oder Restore-Fähigkeit hin untersucht und gegebenenfalls veraltete Anforderungen aktualisiert.

Mitunter sollte sich der Projektleiter im Unternehmen nicht scheuen ein paar grundsätzliche Architekturfragen zu stellen: Ist das Ziel eine optimale Applikationsintegration innerhalb einer Insellösung, oder soll ein Betriebskonzept mit durchgängigen, zentralen Monitoring- und Reporting-Funktionen umgesetzt werden? Diese Zielsetzung bestimmt dann erst im zweiten Schritt, welche Technologien optimal sind. Unternehmen, die Daten aus komplexen, gewachsenen Applikations- und Infrastrukturlandschaften sichern wollen, sollten auf externe Beratung nicht verzichten, um Vorteile verschiedener Lösungen am Markt unabhängig bewerten zu lassen.

Problem 3: Das Backup-Medium Tape wird für tot erklärt

Zu den Best Practices eines Beratungs- oder Systemhauses gehört es, die Aussagen der Hersteller kritisch zu hinterfragen und sich vorrangig die individuelle Kundensituation anzusehen. Auch wenn es die Plattenhersteller gerne propagieren: Das Tape ist nicht tot! Als Ablagemedium in einer Backup-Strategie ist es wirtschaftlich sinnvoll und ermöglicht gegenüber der Plattensicherung eine komplementäre Risikostreuung.

Nur etwa ein Prozent der Kunden von Computacenter verzichtet derzeit völlig auf den Einsatz von Tapes. Pauschale Aussagen, dass Disks in jedem Fall schneller sind als Tapes, sind ebenfalls mit Vorsicht zu genießen. Wer regelmäßig umfangreiche Datenbanken sichern muss, ist mit Bändern oft schneller und wirtschaftlicher unterwegs.

Auf der anderen Seite gehören die Minidateien von File-Servern nicht direkt auf Tapes, da sie zu langsam angeliefert werden. So interessant die Datenreduktion von Backup-Daten durch Deduplizierung auch ist, für manche Sicherungsvarianten ergibt sie keinen Sinn. Nur bei ausreichend langen Aufbewahrungsfristen oder sehr redundanten Daten lohnt sich Deduplizierung. Ein Deduplizierungsansatz ist für die Datenbereiche eines Unternehmens einzeln zu bewerten. Die beste Lösung ist immer diejenige, die die Anforderung der jeweiligen Infrastruktur optimal erfüllt.

Problem 4: Überflüssige Technologien

Hersteller halten einen Blumenstrauß an Technologien bereit: Das Angebot reicht von der Deduplizierung über Continuous Data Protection (CDP), Snapshot-basierte Sicherungsverfahren und Medien wie Festplatten, Tape- oder Virtuelle Tape Libraries (VTL). Es ist aber zu erwarten, dass die Deduplizierung und seitens der Backupsoftware gesteuerte diskbasierte Sicherungen die VTLs über kurz oder lang verdrängen werden. Hochsensible Systeme fordern Online-Recovery, weniger kritische Daten können auch von Tapes mit längeren Antwortzeiten rückgesichert werden. Oft führen auch Betrachtungen der Verhältnismäßigkeit von Aufwand und Relevanz der Informationen zur passenden Backup-Technologie.

Die Datensicherungslösung wird bei mittleren bis großen Unternehmen immer eine Kombination aus Software wie Enterprise-Backup-Tools oder Einzelkomponenten mit Sicherungsgeräten wie Tape- oder virtuellen Tape-Libraries, Backup-to-Disk-Systemen oder Deduplizierungs-Appliances sein. In Summe gilt es zu klären, wo welche Funktionalität angesiedelt wird.

In der Praxis hat die Konsolidierung und zentrale Verwaltung mit einem Enterprise-Backup-Tool bewährt. Interesse bestand in den vergangenen Jahren vor allem an Snapshot-basierten Backups und der Flexibilität von VTLs. Kurz- bis mittelfristig werden Deduplizierungsfunktionen und das Steuern der Snapshots zunehmend in die Backup-Software integriert sein, sodass hierfür keine dedizierten Appliances mehr angeschafft werden müssen.

Problem 5: Backup erfordert intelligente Softwaresteuerung

Die funktionelle Bandbreite der Sicherungssoftware wird vielfältiger. Wurden früher lediglich Daten von A nach B transferiert, wird der Weg der Daten in das Backup zunehmend intelligent gesteuert, man spricht dabei von Orchestrierung. Das Datensicherungsprogramm versetzt die Applikation in einen konsistenten Zustand, initiiert einen Snapshot im Storage-System, sorgt für dessen Übertragung und kopiert ihn gleichzeitig an einen Ausfallstandort.

Dieser Prozess wird im Vorfeld definiert und ist damit auch problemlos zu überwachen. Im Sinne einer zunehmenden Automatisierung der Datensicherung empfiehlt sich ein zentraler Backup-Server, ein sogenannter Denker, der den gesamten Backup-Prozess nach vorgegebenen, wiederverwendbaren Regelsätzen steuert.

Fazit

Um die konzeptionelle Vorarbeit bei Backup- und Recovery-Projekten kommt angesichts des unkontrollierbaren Datenwachstums und komplexer, virtualisierter Umgebungen kein Unternehmen herum. Bei einer genauen Analyse der eigenen Infrastruktur fallen Fehler bei Betriebsabläufen, ungünstig definierte Anforderungen oder Backup-Systeme mit Archivfunktion auf.

Das bietet die Chance zur nachhaltigen Korrektur und eine effiziente Basis für eine Datenversicherung, die im Schadensfall auch hält, was sie verspricht: schnelle, gegebenenfalls deduplizierte Backups und eine zeitnahe Wiederherstellung mit integrierter Replizierung auf Disaster-Recovery-Standorte.

Die häufigsten Fehler beim Backup

Aus den häufigsten Fehlern, die bei Backup und Recovery-Projekten immer noch auftreten, lassen sich hilfreiche Strategien für die Zukunft ableiten.

In der Praxis missbrauchen immer noch viele Unternehmen ihre Datensicherung als Archiv. In Stahlschränken stapeln sich unzureichend beschriftete Backup-Bänder. Hinzu kommt die Abhängigkeit von Soft- und Hardware: Eine fünf Jahre alte E-Mail in einer alten Exchange-Version von einem Backup-Band zurückzusichern, bedeutet einen unverhältnismäßigen Aufwand.

Es ist nötig, die Aufgabenstellung der Datensicherung unternehmensweit sauber zu definieren. Ein Backup soll einen Datenverlust im Schadensfall durch eine zeitnahe Wiederherstellung vermeiden. Alle Daten, die älter als sechs bis acht Wochen sind, sollten automatisch archiviert werden. Ein Archiv, das aufbewahrungspflichtige Informationen automatisch speichert und löscht, erfüllt Compliance-Anforderungen, sorgt für die Wiederauffindbarkeit von Dokumenten und arbeitet weitaus wirtschaftlicher als Backup-Lösungen.

Viele Datensicherungswillige richten das System-Design an den Anforderungen der User aus und rechnen die erforderliche Performance für Backup & Recovery nicht ein. Da kann es dann passieren, dass ein nagelneuer Server zwar die Anwender glücklich macht, aber die SLAs für den Restore schlicht nicht erfüllt. Daher gilt: Auch moderne Verfahren zur Datensicherung kosten Zeit und Systemleistung.

Die Betriebsabläufe sind sauber zu definieren, damit das Monitoring Fehler auch rechtzeitig und angemessen melden kann. Welche Schritte zu einem Job gehören und ob er abgeschlossen ist, muss genau festgelegt sein.

Backup-Software kann quasi auf jedem beliebigen System innerhalb einer Organisation installiert werden. Ein Administrator mit krimineller Energie könnte sich jede Gehaltstabelle auf ein System zurück sichern, für das er Zugriffsrechte hat. Sicherheitsthemen wie Berechtigungs-Management und Verschlüsselung dürfen daher bei Backup- und Recovery-Projekten nicht vernachlässigt werden.

Den Beitrag haben Oliver Mangel, Practice Designer Restore & Recovery, Computacenter Deutschland und Norbert Steiner, Practice Designer Datensicherung & Archivierung, Computacenter Deutschland verfasst.