Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

02.02.1996 - 

Anwender muessen eigenes Know-how aufbauen

Keine Globalloesung fuer die Datenhaltung in Sicht

Aus der DV der 60er und 70er Jahre hat sich das Bild vom sterilen Rechenzentrum eingepraegt, in dem entlang den Waenden aufgereihte Magnetbandstationen mit drehenden Spulen die codierte Information verarbeiteten. Spezialwaegen, vollgepackt mit Acht- Zoll-Rollen, wurden durch die Gaenge geschoben - Datensicherung und -archivierung auf dem Mainframe.

Trotz aller Unbequemlichkeit bei der Handhabung hatte der RZ- Leiter jedoch die Gewissheit, Herr ueber die gespeicherte Information zu sein. Die Hard- und Software fuer das Backup passte zum Rechner; bei Verbesserungen war die Lesbarkeit der Altinformation garantiert - zumindest, solange kein System- oder Herstellerwechsel vorgenommen wurde.

Im Zeitalter von Client-Server-Computing liegen die Daten verteilt auf zentralen Servern, Abteilungsrechnern oder Einzelplatz-PCs. Eine einheitliche logische Struktur der gespeicherten Daten fehlt, hardware- oder softwareseitige Datenkompression erschwert zudem die Kompatibilitaet.

Die Hersteller von Backup-Software haben ihre Produkte noch nicht auf ein solch heterogenes Umfeld ausgerichtet und werden dies auch in den kommenden Jahren nicht schaffen. Das prophezeit zumindest Luis Praxmarer, Speicherexperte und Geschaeftsfuehrer des Marktforschungsinstituts Meta Group Deutschland GmbH in Muenchen.

Der Speicherbedarf waechst explosionsartig

Dabei erwartet er fuer die kommenden Jahre einen gigantischen Bedarf an Speicherplatz. Allein die Menge an unstrukturierten Daten auf PC-basierten Servern wird um den Faktor zehn steigen, prognostiziert der Experte. Bei Unix-Servern soll der Zuwachs zwischen 200 und 500 Prozent liegen. Das hat zur Folge, dass solche Server in die RZ-Verwaltung eingebunden werden, da dort die Management-Strukturen ausgereifter sind. Einzig proprietaere Midrange-Systeme kommen mit einem moderaten Wachstum der Storage- Kapazitaet von zehn bis 20 Prozent aus.

"Durch die Vielzahl an unstrukturierten Daten aus Applikationen mit Sprach-, Video- oder Bildinformationen", so der Analyst, "wird der Speicherbedarf ungeahnte Dimensionen annehmen." Trends wie beispielsweise Data-Warehousing lassen im Datenbankbereich die Anforderungen an die Speicherkapazitaet explodieren.

Die Folge der Datenflut ist die Notwendigkeit von sicheren Backup- und Archivierungsloesungen. "Wir muessen nicht nur in der Lage sein, Informationen effizient zu speichern, sondern wir muessen auf diese Daten genauso schnell wieder zugreifen koennen." Diese Forderung stellte Trevor Duplock, Direktor der Storage Systems Division von Micropolis, im vergangenen Jahr. Doch was so einfach und fast selbstverstaendlich klingt, laesst IT-Managern noch immer die Haare zu Berge stehen: Defekte Datentraeger koennen nicht mehr gelesen werden, Festplattenkoepfe zerkratzen Informationstraeger.

Besondere Vorsicht ist geboten, soll ein Systemwechsel vorgenommen werden. Die Downsizing-Bewegung hatte automatisch einen Datentraegerwechsel zur Folge, mit dem Effekt, dass die alten Medien nicht kompatibel zu neuen Anlagen waren. Die Unternehmen nutzten zudem die Gunst der Stunde, um auch die Archive zu modernisieren.

Das ging nicht immer ohne Komplikationen, wie beispielsweise Robert Neumann vom Institut fuer deutsche Sprache in Mannheim feststellte. Er loeste die alte BS2000-Anlage von Siemens ab und installierte ein Unix-System von Data General (DG). Die an den Mainframe angeschlossene Magnetbandstation diente als Speicher fuer die Datensicherung. Anwender nutzten sie bei Engpaessen auch zur voruebergehenden Auslagerung von Daten. Mit dem Hardwarewechsel sollte nun die Information von den alten Baendern auf optische Speichermedien umgesetzt werden. "Probleme gab es in Huelle und Fuelle: am einen Ende die physikalischen Defekte durch falsche Lagerung der Baender, am anderen Ende die uneinheitliche logische Struktur der gespeicherten Daten."

Sechs Monate lang wurden alte und neue Anlage parallel betrieben. Die Mainframe-Daten las ein an den DG-Rechner angeschlossenes Bandgeraet ein und transferierte sie auf das WORM-Laufwerk (WORM = Write Once, Read Multiple). Baender, die das neue System nicht lesen konnte, weil etwa die Formate oder Blockstrukturen nicht passten oder entgegen allen Vorschriften fremde Backup-Formate verwendet wurden, analysierten Spezialisten auf der BS2000. "Da musste maschinennah programmiert werden, um die logische Struktur zu rekonstruieren", so der Manager.

Migrationshilfe der Hersteller gibt es, so Neumann, nur, wenn man "sanften Druck" ausuebt. Und dann beziehen diese kostenpflichtigen Hilfsangebote nur genau spezifizierte Formate ein, fuer deren Umsetzung man eigentlich kein fremdes Know-how benoetige. "Will man alles migrieren, ist das praktisch nicht bezahlbar." Von den urspruenglich 1000 Baendern blieb ein Bodensatz von sechs bis sieben Prozent, der nicht lesbar ist. Ob diese Informationen rekonstruiert werden, haengt davon ab, ob Benutzer sie benoetigen.

Die DV-Verantwortlichen des regionalen Rechenzentrums Niedersachsen der Universitaet Hannover, die ebenfalls eine BS2000- Anlage abloesten, konnten nach der Umstellung immerhin ihr Robotersystem behalten. Das neue Unix-System arbeitet mit dem "mechanischen Arm" der Grau Storage Systems zusammen. Der Grau- Roboter ist nun mit Metrum-Laufwerken fuer Videotapes bestueckt. Bestellt sind ausserdem DLT-4000-Magnetbandlaufwerke von Quantum. "Im Prinzip koennen wir alle Laufwerke einsetzen, nicht nur die, die das 3480-Format unterstuetzen", freut sich Archivspezialist Hans-Juergen Hille.

Speicher wird billiger, trotzdem steigen die Kosten

Allerdings plagen ihn die Softwarekosten. Die Universitaet besitzt derzeit eine Lizenz der Backup-Software "Unitree" fuer 2,5 TB. Ist das Robotersystem voll bestueckt, finden 20 TB Platz. Fuer eine Lizenzausweitung muesse man mit Kosten im sechsstelligen Bereich rechnen.

Tatsaechlich steigen die Gesamtausgaben fuer die Datenspeicherung ueberproportional. So erwartet die Meta Group, dass bereits im kommenden Jahr 75 Prozent der Kosten eines Servers auf die Hard- und Software fuer die Datenspeicherung entfallen - und das bei sinkenden Ausgaben fuer Plattenlaufwerke: Derzeit rechnet man in den USA mit einem Preis von 500 Dollar je GB, 1997 soll er auf 200 Dollar zurueckgehen.

Das Medium fuer Backup- und Archivierungszwecke ist und bleibt das Band beziehungsweise die Bandkassette. Optische Speicher wie WORM- und MOD-Laufwerke (MOD = Magneto-optical Disc) werden fuer Spezialanwendungen eine Nischenposition behaupten koennen, glaubt Analyst Praxmarer. CDs bleiben in diesem Bereich aussen vor. Sie dienen anderen Zwecken, etwa der Softwaredistribution.

Kassettenlaufwerke haben die Nachfolge der alten "losen" Baender angetreten. So verfuegt beispielsweise die Datev ueber einen Bestand an 52 000 Kassetten, die ueber ein Robotsystem automatisch verarbeitet werden. Eingesetzt werden sowohl 36-Spur- Standardkassetten mit einer Kapazitaet von 500 MB als auch rund 10000 E-Kassetten mit einem Fassungsvermoegen von 800 MB.

Datev-Mann Peter Ilg bezeichnet die Verfuegbarkeit des Kassettenpools inklusive des Bandmaterials als sehr gut: Die Stoerungsquote liegt unter einem temporaeren Fehler je 116 GB. Die Hersteller geben auf Magnetbandkassetten eine uneingeschraenkte Garantie von fuenf Jahren. Mindestens zehn Jahre lang soll die Information gelesen werden koennen.

Die IBM beziffert die magnetische Haltbarkeit ihrer 3480- Cartridges auf mehr als 20 Jahre. Allerdings koennten chemische, mechanische oder elektromagnetische Einfluesse zu Fehlern fuehren. Erfahrungen lehrten die Datev-Administratoren, dass auch herstellungsbedingte Materialfehler nicht auszuschliessen sind. Sie unterziehen ihren Bestand deshalb einer permanenten softwaregesteuerten Kontrolle.

Fuer Daten der Finanzbuchhaltung, die aufgrund gesetzlicher Bestimmungen ueber einen Zeitraum von bis zu zehn Jahren aufzubewahren sind, bietet die Datev seit Januar dieses Jahres einen besonderen Dienst an. Der "Fibu-Archiv-Service" kann fuer alle 35000 Datev-Mitglieder und deren rund zwei Millionen Mandanten die elektronische Archivierung der sensiblen Daten uebernehmen.

Durch den hohen Sicherheitsstandard im Datev-Rechenzentrum schliesse man die Vernichtung des Materials durch Wasser oder Feuer aus. Ausserdem muessten sich die Steuerberater bei einer Aenderung der eigenen DV-Anlage keine Sorgen um die Lesbarkeit der Altbestaende machen.

Der Zeitfaktor spielt gerade bei Archivsystemen eine zentrale Rolle: Wird mein System auch in zehn Jahren noch gewartet werden? Koennen Daten auf neue Anlagen migriert werden? Wie gut ist das Speicher-Management? Das Muenchner Leibnitz-Rechenzentrum wechselt derzeit gerade sein Sicherungssystem. Die alte Anlage mit Control- Data-Rechnern, DAT- und Metrum-Laufwerken (DAT = Digital Audio Tape) sowie Unitree-Software wird von einer IBM-Loesung abgeloest. Werner Baur, verantwortlich fuer das Projekt, nennt insbesondere die unsichere Zukunft des Softwareherstellers als Grund fuer den Wechsel.

Ausserdem biete die neue Loesung mit RS/6000-Maschinen und der Archivsoftware "ADSM" von IBM bessere Moeglichkeiten des Managements und der Fehlerverfolgung, obwohl beide Softwarepakete das Hierarchical Storage Management (HSM) unterstuetzen.

Auf Kontinuitaet setzt auch DV-Experte Neumann, der bei der neuen Loesung fuer das Institut fuer deutsche Sprache peinlich darauf achtete, die Daten so zu halten, dass sie auf allen Unix- Plattformen verfuegbar sein werden: "Das war eine der Konditionen, unter denen wir bei Data General eingestiegen sind."

Neumann verzichtet deshalb auch auf Backup-Software, die maschinenspezifische Kompressionsmechanismen hat. Kosten- oder Geschwindigkeitsvorteile durch optimierte Einzelloesungen sieht er nicht, im Gegenteil: "In dem Masse, wie die Rechnerkapazitaet gestiegen ist, macht es wirtschaftlich keinen Sinn mehr, da zu sparen."

Gemaess dem neuen Programmiergrundsatz: Client-Server-Loesungen, egal, auf welchem Host welche Daten liegen, will Neumann die Software "im Griff haben". "Wir benutzen nur noch Software, die auf allen Unix-Plattformen laeuft und die wir auch ueberblicken koennen - also in C geschriebene."