Datenverlust auf Server und Storage vermeiden

Die 10 häufigsten IT-Datenkatastrophen 2018

18.01.2019 von Bernhard Haluschak
Ob Cloud, IoT, Digitalisierung vor Datenverlust kann sich keine IT-Technologie 100 Prozent schützen. Die Experten von Ontrack haben für 2018 die zehn häufigsten Datenpannen in den IT-Abteilungen ermittelt und geben Tipps, wie man diese vermeiden kann.
Datenpannen und damit einhergehender Datenverlust sind oft hausgemacht.
Foto: Peshkova - shutterstock.com

Ein Datenverlust im Unternehmen kostet Geld und bewirkt oft einen enormen Imageschaden. Obwohl die Experten in den IT-Abteilungen der Unternehmen ihr Möglichstes tun, um solche Datenkatastrophen zu vermeiden - sie passieren dennoch und dass trotz aller Sicherheitsmaßnahmen die getroffen wurden. Die Datenrettungsspezialisten von Ontrack haben anhand ihrer täglichen Rettungseinsätze in 2018 die zehn häufigsten Zwischenfälle aus den Hilferufen der IT-Abteilungen zusammengestellt. Darüber hinaus geben sie Tipps, mit welchen Präventivmaßnahmen man solche Datenpannen vermeidet.

Wichtige Snapshots von virtuellen Maschinen gelöscht

Unternehmen nutzen häufig verschiedene Softwareumgebungen für Tests und Updates von Programmen, die sie erst mal von ihren Produktivsystemen trennen wollen. Dafür eignen sich virtuelle Maschinen (VM) auf Testsystemen. Die Technologie ist schnell verfügbar, einfach und kostengünstig nutzbar.

Eine virtuelle Maschine bildet die Rechnerarchitektur eines real in Hardware existierenden oder hypothetischen Rechners nach. Neben der Basis-Installation in eine -flat.vmdk-Datei, beinhalten VMs auch Snapshots. Diese sind Schnappschüsse, also Momentaufnahmen einer virtuellen Maschine, die in einer -delta.vmdk-Datei abgelegt werden.

Ein Snapshot erlaubt es, bestimmte Einstellungen oder Installationen zu testen, ohne irreparable oder nur schwer rückgängig zu machende Fehler zu riskieren. Bei einem Snapshot wird nicht nur der Dateistand gesichert, sondern auch die dazugehörende Hardware-Konfiguration. Wie bei einem inkrementellen Backup bauen sich neue Snapshots einer VM wie eine Kaskade aufeinander auf.

Wer jedoch viele Tests durchführt und viele Snapshots unterschiedlicher VMs gespeichert hat, kann bei den teils ähnlichen Dateinamen leicht durcheinanderkommen. Zum Beispiel, indem versehentlich der falsche Snapshot gelöscht wird, ohne dass er vorher gesichert wurde. Das passiert schnell, ein falscher Mausklick genügt und die Daten sind weg. Daher sollten Unternehmen hier nie sensible Daten speichern - erst recht nicht ohne Backup - und beim Aufräumen der Snapshots besonders aufmerksam vorgehen.

Nur Snapshots als Backup gesichert

Es genügt bei VMs allerdings keinesfalls, nur die Snapshots im Backup zu speichern. Denn ein Snapshot ist nur ein Teil der kompletten Maschine, sozusagen eine Momentaufnahme. Die Grundinstallation des Ganzen besteht aus einer -flat.vmdk-Datei, die Ausgangspunkt für mehrere Klone bildet. Sie enthält wichtige Basisinformationen, die in den einzelnen Snapshots alleine nicht gespeichert sind. Um keine Daten zu verlieren, sollte die Ursprungsmaschine daher auch unbedingt ins gleiche Backup fließen.

Ungeeignete Backup-Tools für VMs und Datenbanken genutzt

Doch auch beim Backup von VMs und Datenbanken lauern noch Fallstricke, die zu häufigen Fehlern führen. Backup ist nicht gleich Backup - bei VMs ist darauf zu achten, dass die Datensicherungstools auf dem neuesten technischen Stand sind. Denn bei virtuellen Dateisystemen handelt es sich um offene Dateien, also Daten, die durch die Snapshot-Technologie im laufenden Betrieb stets aktualisiert werden.

Problematisch wird es auch, wenn VMs im laufenden Betrieb zwischen Servern umgezogen werden und sich in einem anderen Speicherbereich befinden. Kritisch bis leichtfertig wird es, wenn Backup-Tools genutzt werden, die schon ein paar Jahre alt sind. Das gleiche gilt für Datenbanktools.

Daher empfiehlt es sich regelmäßig, das Update-Datum der Tools sowie die Unterstützung der jeweiligen virtuellen Systeme beziehungsweise die Kompatibilität zu überprüfen.

Veraltete Prozesse zur Datensicherung verwendet

Besonders ärgerlich für eine IT-Abteilung ist es, wenn die falschen Datensätze im Backup liegen und die richtigen nicht mehr auffindbar sind. Das passiert, wenn die verantwortlichen Mitarbeiter nicht auf dem neusten Wissensstand beziehungsweise die festgelegten Prozesse zur Datensicherung nicht mehr aktuell sind. Dazu ein Beispiel:

Fachbereiche des Unternehmens wechseln den Speicherplatz auf den Servern ohne die IT-Abteilung zu informieren. Dieser Server hat jedoch andere Sicherungseinstellungen und Funktionalitäten. In diesem Fall müssen alle Anwendungen, die das Business eines Unternehmens ausmachen, angepasst werden. Dazu ist es nötig, genau zu wissen, wo welche Daten auf dem Server abgelegt werden und wie sie bei einem Ausfall aus dem Backup wieder eingespielt werden können. Und liegen die Daten auch wirklich da, wo sie sollen?

Ebenso müssen die Verantwortlichen wissen, welche Art Disaster Recovery für diese Anwendung nötig ist und das in einem Notfallplan festschreiben. Darin sollten detaillierte Handlungsempfehlungen stehen und auch ein Worst-Case-Szenario abgedeckt sein.

Zu den Aufgaben eines IT-Verantwortlichen zählt auch, das regelmäßige Überprüfen der Backups inklusive des Speicherortes. Das ist etwa durch einen Live-Test möglich. Doch viele IT-Abteilungsleiter scheuen diesen Arbeitsaufwand. Ein Fehler!

Inkompatibilitäten zwischen den virtuellen Welten nicht beachtet

Bleiben wir beim Thema Technologie-Update: Unternehmen wechseln häufig ihre Applikationen. Das ist gut und richtig, denn der IT-Markt entwickelt sich rasant. Was heute noch hip ist, kann in wenigen Jahren schon alt und unbrauchbar sein. Probleme entstehen jedoch, wenn alte und neue Systeme kombiniert werden. So zum Beispiel bei Hyper-V von Microsoft und ESXi von VMware. Vor ein paar Jahren war die eine Technologie für ein Unternehmen noch ein Must-Have, doch kurze Zeit später plötzlich die andere.

Um Geld zu sparen, rüsten Unternehmen dann oftmals halbherzig auf und ergänzen eine bestehende Technologie (Legacy) um eine andere, anstatt alles neu aufzusetzen. Doch auch, wenn Unternehmen bereits viel Geld in eine Technologie gesteckt haben, sollten sie idealerweise ganz aufrüsten oder gar nicht. Denn ansonsten bestehen plötzlich zwei Welten, die nicht miteinander kompatibel sind und bei denen es zu Kopplungsverlusten kommt. Durch die Verschiedenheit der Systeme lassen sich Daten oft nicht direkt umziehen, und drohen durch komplexe "selbstgebastelte Lösungen" verloren zu gehen. Leider kommt auch dieses Szenario in der Praxis recht häufig vor.

Falsch gesetzte Retention Zeiten bei Backups missachtet

Glücklich ist wer Dark-Data weitgehend minimiert hat, wichtige Daten identifiziert und Aufbewahrungszeiten in sogenannten Retention Times festgelegt hat. Wenn Mitarbeiter Daten löschen wollen, erscheint nicht immer die Frage: "Sind Sie sicher?" Denn: Oftmals können per Mausklick oder Bestätigungstaste Befehle durchgesetzt werden, die Datensicherungseinstellungen aufheben, zum Beispiel, dass Datei xy aus rechtlichen Gründen 10 Jahre lang aufbewahrt werden muss. Es passiert auch den geschulten Experten, dass diese sogenannte Retention-Zeiten erheblich verkürzt werden. Und plötzlich werden Daten nicht mehr nach 10 Jahren, sondern 3 Monaten gelöscht. Das passiert etwa, wenn die Dateien ähnlich heißen und Adminrechte an Programmen nicht klar definiert werden. Zugang zu den entsprechenden Tools sollten nur zuverlässigen IT- und Security-Verantwortlichen vorbehalten sein. Wer ganz auf Nummer scher gehen will, schränkt auch den Zugang zur Serverstruktur ein.

Mal schnell aufräumen und nicht dokumentieren, was man gemacht hat

Eine Ontrack-Studie zeigt: 77 Prozent der IT-Abteilungen sind überlastet. Klar, dass da einige Dinge liegen bleiben können. So fehlt jedem zweiten IT-Mitarbeiter die Zeit, Vorgänge und Prozesse regelmäßig zu dokumentieren. Dieses Verhalten ist jedoch auf lange Sicht ein fataler Fehler. So kann nicht nachvollzogen werden, welche Daten wann wo gespeichert wurden. Und auch die Rettung der Daten wird so erschwert. Denn wenn nicht genau rekapituliert kann, was passiert ist, wird der Wiederherstellungsvorgang aufwendiger und teurer - unter anderem, weil Datenretter mehre Orte nach Datenspuren durchsuchen müssen.

Verantwortlichkeiten für das Backup nicht klar definiert

Ein Backup kann sehr komplex sein. Daher sollte nicht "irgendein" Mitarbeiter für die Datensicherung zuständig sein, sondern ein ausgewiesener Experte. Gerade kleine Niederlassungen sichern ihre Daten in Außenbüros. Da sie sich nicht immer Backup-Fachleute leisten können, ist vielleicht ein normaler Mitarbeiter für das regelmäßige Kopieren der Daten, den Bändertausch und Transport in den Tresor zuständig, vergisst dabei die Sicherung oder macht einen Fehler.

Auch sollte ein externer Dienstleister für die Backup-Erstellung gut gewählt sein. Er muss nicht nur wissen, wie welche Speichermedien zu behandeln sind, sondern auch die Datenschutzrichtlinien kennen. Ist ein Backup einmal eingerichtet, ist dies außerdem keine Gewährleistung, dass es auf ewig funktioniert. Know-how spielt also bei dem Thema eine große Rolle. Unternehmen sollten für sich hier Risiken und Kosten abwägen.

Notfallplan nach Datenverlust auf Server nicht erstellt

Ein Unternehmen hat bemerkt, dass Daten auf einem Server fehlen. Normalerweise sollte der Server direkt gesperrt, isoliert und der aktuelle Datenbestand eingefroren werden. Geschieht das nicht und arbeiten Unternehmen normal auf ihm weiter, werden wichtige Bereiche überschrieben, die für die Rettung der verlorenen Daten notwendig ist. Allerdings ist es vielen meist nicht möglich, den Server direkt zu isolieren. Denn dazu ist ein Ersatz nötig, also eine andere Umgebung, auf der in dieser Zeit weitergearbeitet werden kann. Diesen haben viele nicht. Damit riskieren sie den endgültigen Verlust von Daten. Besonders fatal ist es, wenn der Datenverlust lange nicht bemerkt wird. Unternehmen sollten also nicht vor dem (finanziellen) Aufwand zurückscheuen, genügend Manpower, Ersatz-Server und vernünftige Backups zu installieren.

Firmware-Probleme neuster Geräte nicht beachtet

Ein letzter Fehler, der häufig vorkommt, aber nicht unbedingt menschengemacht ist: Firmware-Probleme. Gerade das Topmanagement von Unternehmen benutzt gerne die neuesten, hippsten Geräte. Diese haben aber oft Kinderkrankheiten. Die Art und Weise, wie die Algorithmen arbeiten, könnte fehlerhaft sein. Manager stehen dann vor dem Problem, dass sie keinen Zugriff auf ihre Daten haben, oder der Zugriff auf ältere Daten extrem langsam ist. Manchmal sind Daten gar nicht mehr verfügbar und es ist schwerer nachzuvollziehen, wann, wie, was und wo gelöscht worden ist. Da die Geräte noch nicht lange auf dem Markt sind, gibt es vielleicht noch keine Lösungen für solche Probleme. Unternehmen sollten sich daher überlegen, ob es wirklich direkt die neueste Technologie sein muss.