Disaster Recovery und Backup

2017 wird das Jahr der Hybrid Cloud



Stefan Henke ist Head of DACH bei Cloudflare. Er gilt als Experte für das Thema IT-Security, SaaS, Cloud und Informationmanagement. Seine besondere Expertise liegt im Großkundenbereich, insbesondere im Industrie- und Finanzsektor und in der Automobilbranche. Er hat über 25 Jahre Erfahrung im IT-Bereich und war zuletzt mehrere Jahre bei Symantec und Veritas tätig. 
2016 schaffte die Cloud endgültig den Durchbruch in den Unternehmen. 2017 wird vermutlich als das Jahr in die IT-Geschichte eingehen, in dem die Hybrid Cloud den Markt eroberte.

IT-Anwendungen werden immer agiler, gleichzeitig wächst der Datenberg mit alarmierender Geschwindigkeit weiter an und belegt wertvolle Kapazitäten. Deshalb verlagern immer mehr IT-Abteilungen kritische IT-Services sowohl in die Private als auch in die Public Cloud. Wie wird sich das Thema Hybrid Cloud weiter entwickeln?

Die Anzahl geschäftskritischer Workloads in der Cloud soll sich in den kommenden zwei Jahren verdoppeln.
Die Anzahl geschäftskritischer Workloads in der Cloud soll sich in den kommenden zwei Jahren verdoppeln.
Foto: rosedesigns - shutterstock.com

Cloud-Dienste für Business Continuity und Disaster Recovery

Bislang haben zwei Faktoren die Nutzung der Public oder Shared Cloud für Disaster Recovery verhindert: die Unsicherheit hinsichtlich des endgültigen Speicherortes von Daten und fehlende Tools, um Workloads vom Hauptrechenzentrum erfolgreich in die Cloud zu überführen. Große Cloud Provider wie AWS oder Microsoft mit Azure haben das erste Problem vielerorts gelöst und lokale Rechenzentren eingerichtet. Als Lösungsansatz für das andere Hindernis stellen jetzt einige Anbieter Tools für die Automatisierung der Datenreplikation und die Organisation der Workload-Migration zur Verfügung. Vor allem für mittelständische Unternehmen ist die Cloud eine brauchbare Option für ein Disaster Recovery. Das Risiko eines Datenverlusts sinkt und die geringeren Kosten erlauben es, Disaster-Recovery-Systeme breiter einzusetzen.

Der Anfang vom Ende der Bandspeicherung

Seit der Einführung von deduplizierenden Speichermedien sind Bandlaufwerke in vielen Rechenzentren selten geworden. Bandspeicherung wird in der Regel nur noch für langfristige Datensicherungen verwendet. 2017 werden Unternehmen auch die Datensicherung für lange Backup-Zeiträume in die Cloud verlagern. Schließlich wurde die Wirtschaftlichkeit von Cloud Storage verbessert, das Vertrauen in die Datensicherheit gestärkt und die Deduplikation-zur-Cloud-Technologie ist weiter herangereift. Unternehmen bezahlen immer noch jedes Jahr Millionen für ihre Bandspeicher. Insbesondere für Transport, Lager und die mechanische Verwaltung fallen hohe Kosten an. Wir werden 2017 beobachten, dass sich Unternehmen von der Bandspeicherung lösen und billigere sowie schnellere Backup-Methoden nutzen werden.

Zahlreiche Initiativen, um DSGVO-Compliance zu erreichen

Im Mai 2018 wird die Datenschutz-Grundverordnung der EU eingeführt - und Unternehmen müssen 2017 dafür sorgen, dass die neuen Regelungen umgesetzt werden. In diesem Zusammenhang müssen sie vier Fragen beantworten können:

  • Existiert ein Überblick über personenbezogene Daten, die sie gespeichert haben?

  • Lassen sich alle Informationen, die über ein Datenobjekt vorhanden sind, lokalisieren?

  • Können Daten innerhalb einer engen Deadline auf Nachfrage zur Verfügung gestellt werden?

  • Kann die Verwendung von Daten nachgewiesen werden und sind Daten geschützt?

Um diese Fragen beantworten zu können, müssen Unternehmen ihr Datenmanagement komplett analysieren. Das ist zunächst mühsam, doch bringt es einige Vorteile: Die Analyse bringt nämlich nicht nur Klarheit über den Standort der Daten, sondern deckt auch Bestände auf, die getrost gelöscht werden können. Der belegte Speicherplatz nimmt ab und die Verwaltungskosten sinken.

Die Zeit ist reif für Software-defined Storage

Im Jahr 2017 wird die Anzahl der Workloads, die in der Private Cloud ausgeführt werden, um etwa 18 Prozent im Vergleich zum Vorjahr steigen. Diese neuen Hyperscale-Umgebungen fordern einen neuen, Cloud-basierten Ansatz für Datensicherung, den die überholten SAN-Untersysteme nicht bieten können. Unternehmen haben 2016 neue Software-definierte Lösungen ausprobiert, die 2017 eingeführt werden. Diese Lösungen werden es Unternehmen ermöglichen, die Stärken von konventionellen Hardware-Systemen wie Server, SSDs und Festplatten auszunutzen. So können kosteneffektive, richtlinienkonforme und hochleistungsfähige Speicherservices entwickelt werden. Diese machen es dann möglich, Speicherpools im Unternehmen und in der Public Cloud miteinander zu verbinden.

Big Data Plattformen werden zum Standard-Speicherort für Enterprise Master Data

Viele Entscheider stellen sich die Frage, wie sie ihre auf Hadoop basierenden Big-Data-Bestände schützen können. Es scheint, dass Unternehmen immer öfter Analysen mit solchen Plattformen durchführen und zunehmend Daten dort hochladen. Das macht diese Plattformen für die Organisationen so wertvoll, dass ein Verlust zu vermeiden ist. Tatsächlich dienen diese Big Data Plattformen jetzt als Speicherorte für Enterprise Master Data. Gehen diese Daten verloren oder werden sie beschädigt, reicht es nicht, sie einfach wieder hochzuladen - es ist eine geschäftskritische Angelegenheit.

Eine 2016 von Veritas durchgeführte Studie zeigt, dass sich die Zahl der unternehmenskritischen Workloads in der Cloud in den kommenden zwei Jahren verdoppeln wird. Der Trend zur Cloud wird also nicht nachlassen, im Gegenteil. Das Datenvolumen steigt noch immer stark an. Dieses Problem kann nicht ohne die Cloud gelöst werden. Mit der wachsenden Zahl an Cloud-Providern, dem größeren Nutzen der Cloud für die Datensicherung und der hohen Nachfrage nach Software-defined Storage wird sich die Cloud-Landschaft in den kommenden zwölf Monaten Jahr erheblich verändern.

Zur Startseite