Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Backup-Systeme


16.01.1998 - 

Von "Commodity" zur strategischen Lösung

Der Speicherbedarf wird auch in den kommenden Jahren weiter dramatisch ansteigen, in einigen Bereichen sogar überproportional. Denn hochentwickelte, auf Datenbanken basierende Anwendungen wie beispielsweise SAP R/3 fordern neben hoher Rechenleistung gewaltige Speicherkapazitäten. Die International Data Corp. (IDC) schätzt, daß die Datenvolumina bis Ende der Dekade insgesamt um das Neunfache wachsen werden.

Welche Datenmengen zudem Anwendungen wie das Internet, die unternehmenseigenen Intranets oder Video on demand mit sich bringen werden, vermag derzeit noch niemand auch nur einigermaßen zu quantifizieren.

Den wirtschaftlichen Zugriff auf große Datenmengen realisieren Disk Arrays - sie werden auch als Raid-Systeme bezeichnet (Redundant Array of Independent Drives). Sie verbinden Gruppen von preisgünstigen Standardfestplatten (5,25 und 3,5 Zoll) unter einer gemeinsamen elektronischen Speicherverwaltung zu einer leistungsfähigen Einheit. Das Vordringen dieser Technologie dokumentiert weit mehr als einen Trend. Wie groß bereits heute die Bedeutung der Raid-Speichersysteme ist, verdeutlicht die folgende Zahl: Für Mainframes wurden im vergangenen Jahr Disk Arrays im Wert von immerhin weltweit rund 4,5 Milliarden Dollar ausgeliefert.

Doch dringen sie auch in die Welt offener Systeme vor. Die Umsatzzahlen zeigen einen deutlichen Anstieg bei Netzwerk-Servern. Im Client-Server-Markt zeichnet sich eine Entwicklung zum einheitlichen, systemübergreifenden Storage Pool ab. Denn in den Rechnerlandschaften mit Servern unterschiedlicher Hersteller ist in den vergangenen Jahren ein Wildwuchs proprietärer Speicherlösungen entstanden. Die Folge solcher Konfigurationen sind redundante Datenbestände, inkonsistente Backup-Verfahren und ein kompliziertes Daten-Management. Hier lautet die Problemlösung: verteilte Datenverarbeitung mit zentraler Speicherung und Verwaltung.

Die Kapazitätsanforderungen werden permanent steigen. Die Hersteller von Festplatten kündigen technologische Verbesserungen an, die den Bedarf an hohen Plattenvolumina decken sollen. Durch verbesserte Schreib-Lese-Köpfe (magneto-resistive Köpfe), Reduzierung der Kopfflughöhe und der Oberflächenrauheit der Platte, verbesserte Antriebstechnik sowie Signalschreib- und Leseverfahren geht man davon aus, daß sich die Kapazität - bei derselben Baugröße - jährlich um zirka 50 bis 60 Prozent erhöhen wird. Und so wie die einzelnen Disks über immer mehr Kapazität verfügen, so werden auch die Disk Arrays insgesamt immer kompakter: Heute sind bereits Systeme auf dem Markt, die auf 1,5 Quadratmeter Stellfläche bis zu 3 TB Daten vorhalten. Damit einher gehen deutliche Einsparungen bei Energie- und Klimabedarf. Ein Ende dieser Entwicklung ist nicht absehbar.

Keine Trennung zwischen Server und Speichersystem

Den Drang nach immer mehr Leistung unterstützt auch die Entwicklung von schnelleren Mikroprozessoren sowie Bussen und Schnittstellen-Technologien mit höheren Übertragungsraten. So sollen Konzepte wie SSA (Serial Storage Architecture), Fibre Channel und SCSI-3 (Ultra-SCSI) in naher Zukunft einen Datentransfer von 80 bis 200 MB pro Sekunde ermöglichen.

Neue Möglichkeiten bei der Realisierung von Geschwindigkeiten, die den hohen Übertragungsraten moderner Netze entsprechen, eröffnen sogenannte Netzwerkspeicher: Diese um einen oder mehrere Front-end-Prozessoren erweiterten Disk Arrays werden über Anschlußtechnologien wie ATM und FDDI als autonome Einheit direkt in das Netzwerk eingebunden und können innerhalb des Netzes direkt auf mehrere homogene und heterogene CPUs zugreifen. Mit diesem Konzept, auf das weiter hinten näher eingegangen wird, löst sich die Trennlinie zwischen Server und Speichersystem auf.

Systemstillstand und ein Verlust geschäftskritischer Daten führen häufig zu beträchtlichen finanziellen Einbußen für die betroffenen Unternehmen und können unter Umständen sogar den wirtschaftlichen Infarkt nach sich ziehen. In Rechenzentren werden daher die tolerierbaren Ausfallzeiten und folgerichtig die angestrebten Wiederanlaufzeiten immer kürzer. Einige Branchen, darunter Finanzdienstleister und Versicherungen, fordern sogar den unterbrechungsfreien Betrieb: das bedeutet 61320 Stunden Ausfallsicherheit pro Jahr. Das heißt allerdings auch, daß die DV bei immerhin 99,8 Prozent Verfügbarkeit - und da liegt derzeit der Grenzwert - statistisch gesehen 122 Stunden pro Jahr ausfallen kann. Welche Folgen das möglicherweise etwa für einen Finanzdienstleister hat, läßt sich leicht ausmalen.

Heutige Disk Arrays sind so konzipiert, daß Geschäftsabläufe nicht unnötig durch Stillstandzeiten unterbrochen werden und Unternehmensdaten in größtmöglichem Umfang verfügbar sind. Erreicht wird dies zum einen durch die Redundanz sämtlicher aktiver Systemkomponenten (beispielsweise Disk-Director, SCSI-Adapter, System-Busse und Netzteile). Gestattet das Speichersystem zudem einen "unterbrechungsfreien Austausch" wichtiger Komponenten, lassen diese sich warten oder auswechseln, ohne daß das Disk Array dazu abgeschaltet werden muß. Auf diese Weise bleiben die Daten online verfügbar und können jederzeit abgerufen werden. Die Nichtflüchtigkeit des Systems wird darüber hinaus durch eine Batteriepufferung gewährleistet, die, falls es zu einem Stromausfall kommt, die Stromversorgung übernimmt.

Die Raid-Technologie gilt als Schlüsselfaktor im Speicherbereich; fast jeder Speicherhersteller bekennt sich heute zu ihr. Das Raid Advisory Board (RAB) definierte bislang sechs als Raid-Level bezeichnete Ansätze für den Datenschutz. Sie unterschieden sich dadurch, wie Daten beziehungsweise redundante Daten auf Festplatten organisiert werden, so daß beim Plattenausfall innerhalb eines Subsystems kein Datenverlust auftritt. Ersetzt wird diese Definition seit Januar 1997 durch das neue RAB Disk System Classification Program des RAID Advisory Board, das lediglich drei Klassen unterscheidet:

-Failure Resistant Disk Systems (FRDS),

-Failure Tolerant Disk Systems (FTDS) sowie

-Disaster Tolerant Disk Systems (DTDS).

Jede Klasse umfaßt zwei Stufen: eine Basisstufe sowie eine sogenannte Premium-Stufe ("+"). Alle Systeme, die den Anforderungen der Premium-Stufe genügen, müssen weitere Schutzmaßnahmen bieten - beispielsweise gegen umgebungsbedingte Störungen. Um in eine der Kategorien eingestuft zu werden, muß das Plattenspeichersystem alle Klassifizierungskriterien erfüllen, die vom RAB für die betreffende Kategorie aufgestellt wurden. Insgesamt gibt es 21 Klassifizierungskriterien.

Die Plattenspiegelung nach dem bislang als Raid 1 bezeichneten Verfahren liefert zwei identische Kopien der Daten aus separaten Platten des Subsystems. Damit ist ein Optimum an Datenverfügbarkeit sichergestellt, ohne daß die System-Performance beeinträchtigt wird. Quasi ein Raid 1 über große Distanz realisiert die Softwarefunktion Symmetrix Remote Data Facility (SRDF), mit der ein gravierender Fortschritt für Recovery und Backup erzielt wurde. Diese für Mainframe-Umgebungen wie auch für alle marktgängigen Unix-Server, PC-LAN-Server und AS/400-Plattformen verfügbare Lösung basiert auf dem Prinzip des Mirroring. Via Glasfaserkabel wird in Echtzeit eine Kopie aller Transaktionen des Produktionsrechners aus einem Speichersystem in ein zweites übertragen, das im Ausweichrechenzentrum installiert ist. Der Host-Rechner läßt sich innerhalb weniger Minuten auf den Ausweichstandort umschalten. Anwender werden damit in die Lage versetzt, nach einem partiellen oder totalen Systemausfall selbst mit großen Datenbeständen innerhalb kürzester Zeit wieder betriebsbereit zu sein. Das dort installierte Subsystem dient gewissermaßen als elektronischer Safe. Bei konventionellen Backup-Lösungen dauert es in der Regel Stunden oder sogar Tage, bis sämtliche Operationen vollständig wieder hergestellt sind. Der geografischen Ausdehnung dieses Remote Mirroring sind keine Grenzen mehr gesetzt. Über leistungsfähige Verbindungsmöglichkeiten werden Escon- und SCSI-Kanal-Schnittstellen sowie Hochgeschwindigkeitsdienste für Weitverkehrsnetze (WANs) unterstützt, zum Beispiel DS3, E3, SMDS und ATM.

Ein Schutzmechanismus, der eine hohe Präventivwirkung besitzt und sich im Markt durchgesetzt hat, ist der Remote Maintenance Processor. Dieser spezielle Serviceprozessor überprüft permanent Systembetrieb, Zustand der Platten und des Cache-Speichers, Datenintegrität, Subsystemfunktionen sowie viele weitere Systemparameter. Wird, aufgrund vorgegebener Grenzwerte, ein potentielles Problem ermittelt, etwa ein Platten- oder Cache-Fehler, sind die automatischen Fehlerbehebungsroutinen des Systems häufig imstande, dieses zu lösen. Wenn nicht, verständigt die Autocall-Funktion des Subsystems selbständig das Customer Support Center. So lassen sich schnell Abhilfemaßnahmen einleiten beziehungsweise präventive Wartungsarbeiten in Angriff nehmen, noch bevor der Systembetrieb in irgendeiner Weise betroffen ist.

Um Ausfallsicherheit für geschäftskritische Applikationen zu gewährleisten, die auf Unix-Servern residieren, läuft in den Cluster-Umgebungen eine Failover-Software mit. Sie schaltet im Notfall automatisch auf den Reserverechner um. Das eingesetzte Speichersystem muß daher nahtlos in das Failover-Konzept eingebunden werden können, also logisch so zu konfigurieren sein, daß jeder Server Zugriff auf die Platten hat.

Die schnelle Verfügbarkeit der Ressource Information ist heute der entscheidende Faktor für die Effektivität und damit für die Konkurrenzfähigkeit eines Unternehmens. Zwar zählen zu den wesentlichen Komponenten von Disk Arrays die Basistechnologien wie Magnetplatten und Schnittstellen, ihre Leistungsfähigkeit wird allerdings in erster Linie durch die Systemarchitektur und -intelligenz (Mikrocode) bestimmt. Eines der größten Probleme bei Raid-Systemen in der Vergangenheit war - verglichen mit den nichtredundanten Speichern - die geringe Schreibleistung. Disk Arrays bieten bereits deutliche Leistungsvorteile gegenüber den traditionellen Speichersystemen; trotzdem bleiben Plattenzugriffe teilweise mechanische Vorgänge, da immer die Positionierung eines Schreib-Lese-Kopfs notwendig ist. Der Trend geht eindeutig dahin, Disk Arrays mit großen Cache-Speichern zu koppeln, um die Zahl der zeitaufwendigen physikalischen Plattenzugriffe auf ein Mindestmaß zu reduzieren und damit die Leistungsfähigkeit des Gesamtsystems zu steigern. Die tatsächliche Wirksamkeit derartiger als Schnellpuffer dienender Halbleiterspeicher hängt von der Intelligenz des Cache-Controllers beziehungsweise des Betriebssystems, der Cache- Größe und von den Algorithmen ab, die für eine effiziente Verwaltung und Nutzung des Cache-Speichers sorgen.

In manchen hochausgelasteten Speichersystemen wurden bislang je nach Anwendung bereits 1500 bis 2500 I/O-Zugriffe pro Sekunde abgearbeitet. Die neue Generation verdoppelt diese Leistung nahezu.

Erreicht wird dieser deutliche Fortschritt durch optimierte Software (Mikrocode), durch mit zwei Mikroprozessoren konfigurierte Kanal- und Plattenadapter, neue Festplatten mit größerer Kapazität, neue Fast-Wide-Differential-SCSI-Verbindungen zwischen Plattenlaufwerken und -adaptern sowie durch eine höhere Bus-Bandbreite (500 MB/s).

Parallelisierung der Architektur beziehungsweise der "Connectivity" ist ein Schlüssel dafür, um in einem einzigen Speichersystem eine große Anzahl von Controllern gleichzeitig nutzen zu können.

Der Bedarf des Markts an Systemen, die gleichzeitig Daten aus Mainframes und heterogenen offenen Plattformen speichern, ergibt sich aus dem sukzessiven Wechsel vieler Unternehmen vom Großrechner auf offene Rechnerplattformen beziehungsweise aus dem Parallelbetrieb dieser beiden Welten. Lösungen hält der Markt bereit.

Nach einer Studie der Meta Group aus dem Jahr 1995, in deren Rahmen IT-Manager nach Problemfeldern im DV-Umfeld befragt wurden, nannten 92 Personen das Thema Backup an erster Stelle. Hält ein Rechenzentrum mehrere hundert Gigabyte oder sogar Terabyte Daten vor, ist das Backup nicht nur eine technische, sondern auch eine wirtschaftliche Herausforderung, denn für Datensicherungsmaßnahmen steht im Normalfall nicht viel Zeit zur Verfügung.

Im Mainframe-Umfeld ist Backup heute kein schwieriges Thema mehr. Mittlerweile werden aber immer mehr Server installiert, die unterschiedlichen Einsatzbereichen zugeordnet sind. Beispielsweise ist ein Online-Backup einer relationalen Datenbank, die geschäftskritische Applikationen stützt, aufgrund der wachsenden Datenvolumina kaum möglich. Selbst ein Offline-Backup bei einer Datenbankgröße von 200 GB ist bei den engen Zeitfenstern kaum machbar. Nicht zuletzt muß für ein derart komplexes Backup auch die Arbeitskapazität zur Verfügung gestellt werden.

Angenommen, in einem imaginären Rechenzentrum mit einem Backbone sind eine Vielzahl von Servern und eventuell über Wide Area Networks andere Gebäude oder Geschäftsstellen angebunden. Wie lassen sich dann Backup und Restore sinnvoll realisieren? Einmal besteht die Möglichkeit, jeden Server mit einem lokalen Bandsystem zu verbinden und darauf die Daten zu sichern. Nur hat jede Tape-Technologie ihre Kapazitätsgrenzen, die bei den neuesten Laufwerken bei rund 40 GB pro Band liegen. Ist der zu sichernde Datenbestand größer, muß entweder das Tape ausgetauscht oder jeder Server mit einer Tape Library verbunden werden. Vorteil dieses Konzepts: Man benötigt für das Backup kein Netz, das ja bei der netzwerkweiten Datensicherung bisher als Flaschenhals gilt. Eine Parallelisierung ließe sich zwar durch mehrere Laufwerke erzielen; allerdings würde dies hohe Hardware-Investitionen mit sich bringen. Als kritisch erweisen sich der erhebliche Anstieg des Management-Aufwands, weil keine zentrale Backup-Verwaltung besteht, die Komplexität durch zusätzliche Clients sowie die sehr hohe Belastung der CPU.

Bei einem zentralen Netzwerk-Backup erlaubt das zentrale Management zwar eine komfortable Datensicherung, und die Backup-Hardware läßt sich besser nutzen, doch wird das Netzwerk auch zum Bremsklotz: Bei einem FDDI-Backbone können rund 30 GB pro Stunde gesichert werden. Schwierig wird es dann bereits, wenn die Datenbank "nur" 200 GB Daten faßt. Eine Parallelisierung läßt sich auch durch zusätzliche Netzwerkverbindungen herstellen, aber es gibt immer noch die hohe Belastung für die CPU. Zudem transferiert der Server die Daten nicht von der Platte auf die Tape Library, sondern über das Netz.

Doch stehen mit speziellen "Data Managern" beispielsweise Backup-Lösungen zur Verfügung, die direkt über die SCSI-Schnittstelle vom Raid-Speichersystem innerhalb kürzester Zeit große Datenbestände sichern können. Dabei ist es egal, ob der Speicher an einen Unix-Server oder -Client angeschlossen oder in eine LAN-Umgebung eingebunden ist. Solche Lösungen realisiert die vollautomatische Speicherung selbst für mehrere hundert Server in einem Local Area Network mit einem Gesamtdurchsatz von 70 GB pro Stunde. Selbst in einem ATM-Netz - auch wenn es ausschließlich zur Datensicherung eingesetzt würde - sind lediglich 50 GB pro Stunde möglich. Neben dem zentralen Management und der besseren Ausnutzung der Backup-Hardware ist die Datensicherung mit I/O-Kanalgeschwindigkeit der herausragende Vorteil. Zudem werden die CPUs der Server nicht belastet. Notwendig für dieses Konzept sind allerdings Schnittstellen zur Server-Software.

Einen weiteren Flexibilitätsschub für Backup und Restore bringt eine neue Speichersystemfunktion, die neben der Raid-1-Kopie unterbrechungsfrei weitere Kopien - sogenannte Multiple Mirrors - dedizierter Produktionsdaten von Mainframes oder offenen Rechnerplattformen erstellt. Diese als Business Continuance Volumes bezeichneten Kopien können dann für spezifische Aufgaben frei genutzt werden, etwa für das Backup oder das Laden von Produktionsdaten in ein Data-Warehouse. Die Kopien werden aus dem Online-Betrieb herausgenommen, nach der Abarbeitung des Jobs wieder "angehängt" und resynchronisiert. Durch dieses Konzept wird das Backup-Zeitfenster drastisch verkleinert. Bislang war es nur möglich, den kompletten Inhalt einer Disk auf eine zweite Platte zu spiegeln.

Einsatzfelder für Netzwerkspeicher

In großen vernetzten Umgebungen, beispielsweise Workstation-Verbünden, verlangt der Anwender, stets seinen Dateiraum im Zugriff zu haben. Diese Forderung besteht unabhängig davon, ob er über seine Workstation gerade mit einem Computer- oder einem Visualisierungs-Server arbeitet. Speziell für die Arbeit in Konstruktionsabteilungen sowie im wissenschaftlichen Umfeld ist außerdem die gemeinsame Nutzung von Daten und Dateien unerläßlich. Entsprechend hoch ist der Datenaustausch zwischen den einzelnen Arbeitsplätzen. Mit dem Network File System (NFS) steht, mit Blick auf die Software, für diese Anforderung eine Lösung bereit, die weithin als Standard akzeptiert wird.

Herausforderung "Information Sharing"

Informationen unternehmensweit gemeinsam nutzen und verwalten, unabhängig von der zugrundeliegenden Technologie - dies ist eine der aktuellen Herausforderungen der IT-Industrie. Das "echte" Information-Sharing ist durchaus in greifbare Nähe gerückt: Zukünftig werden Unternehmen - ohne Beschränkungen durch die Anwendungen - Zugriff auf alle Daten haben, die in einer beliebigen Rechnerumgebung vorhanden sind.

Wenn über das Netzwerk große Datenmengen zwischen einer beliebigen Mainframe-Plattform und Unix-Servern bewegt werden müssen, kommt es unweigerlich zu Engpässen und damit zu Performance-Einschränkungen. Mit bestimmten Softwarelösungen können die Unternehmen jedoch schon heute große Dateibestände zwischen Mainframes und Servern für offene Systeme völlig ohne Netzwerkbelastung mit höchster Geschwindigkeit transferieren.

Zu erwartende Weiterentwicklungen bei Speicherlösungen werden letztendlich eine einheitliche Sicht aller Unternehmensinformationen sicherstellen, die auch Prozessoren und Management-Tools einschließt. Intelligente Speicherlösungen haben in der Welt der Informationstechnologie völlig neue Möglichkeiten eröffnet - und werden dies auch in Zukunft tun.

*Ralf Klingsöhr ist freier Journalist in Wiesbaden.