Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

03.02.1984 - 

Strategisches Daten-Management sichert Unternehmenswerte:

Speicherbedarf dupliziert sich alle zwei Jahre

03.02.1984

Steigerungen im Datenmengenbereich von mehr als 40 Prozent pro Jahr werden kaum noch als überraschend angesehen. Marktbeobachter reden bereits von bis zu 70prozentigen Zuwachsraten und berufen sich dabei auf die Umsätze der IBM mit 3380 Platten; sie werden allein in Europa auf über zwei Milliarden Mark pro Jahr geschätzt. Des weiteren fordern die leistungsfähigeren CPUs diesen Zuwachs, damit die Rechnerleistung auch in wirkliche Produktivität umgesetzt werden kann.

Vor diesem Hintergrund, der in der Zwischenzeit die DV-Kosten mehr in die Speichermedien als in die CPUs laufen läßt, erhebt sich zwangsläufig die Frage, wie alle diese Daten gespeichert, verwaltet, benutzt und gesichert werden können. Die Antwort kann nur heißen: Konsequentes, strategisches Daten-Management.

Ein solches strategisches Datenmanagement muß einschließen, daß innerhalb integrierter Lösungen oft auch Rechnersysteme unterschiedlicher Lieferanten installiert sind. Ebenso, daß Datenbestände nicht mehr nur in Online- und Batch-Daten zerfallen, daß automatisierte Datenverwaltung stattfinden muß und hierarchisch geordnete Speichersysteme zum Einsatz kommen. Nicht zuletzt müssen Katastrophenfälle mit abgedeckt sein.

Gerade die Absicherung von Katastrophenfällen wird immer bedeutsamer, je mehr Daten für die reibungslose Funktion eines Unternehmens benötigt werden, oder realistischer gesagt, an deren permanenter Verfügbarkeit ein Unternehmen sich gewöhnt hat und von denen es letztlich vollständig abhängig ist.

Komplexität zieht Spezialisten an

Die steigende Komplexität der Anwendungen hat in vielen Unternehmen bereits dazu geführt, neben der etwa auf IBM-Architekturen implementierten allgemeinen Datenverarbeitung in Teilbereichen die "Spezialisten" einzusetzen. Erinnert sei nur an die DEC-VAX-Systeme im CAD/ CAM und Betriebsrechnerbereich, die CDC-, Cyber- und Cray-Systeme für komplexe mathematische Simulationen und Modellrechnungen, die Univacs in "High-throughput-processing"-Anwendungen sowie die nicht in der Konsolidierung befindlichen Systeme für die Büroautomation.

Alle diese Maschinen produzieren selbst Unternehmensdaten und greifen auf Daten zu, die in den IBM-Rechnern erzeugt und bearbeitet werden. Die dazu notwendigen Verbindungen der Rechner untereinander werden heute noch überwiegend über Netzwerke und Emulationen von IBM-Funktionen hergestellt.

Diese Technik ist aufwendig, fehleranfällig und provoziert meist einen hohen Grad an Datenredundanz.

Wünschenswert wäre ein gemeinsam zu nutzendes, virtuelles, sich selbst automatisch verwaltendes Speichersystem, das sowohl die "Kanal-Kopplung" unterschiedlicher Systeme erlaubt, wie auch transparente Datenaufzeichnung und -Verwaltung in einem eigenständigen, spezialisierten System verfügbar macht.

DV-Großanwender mit insgesamt 20 MIPS und mehr installierter CPU-Leistung haben im Mittel heute rund 45 Gigabyte in Form von Online-Dateien auf Magnetplatten gespeichert. Desgleichen sind dort durchschnittlich etwa 25 000 Magnetrollen verfügbar mit darauf residierenden Datenmengen von zirka 450 Gigabyte. Diese Magnetbänder erfordern wiederum im Mittel bis zu 1000 Aufspannvorgänge pro Tag, wobei diese Verarbeitungsweise fast ausschließlich den Batch-Abläufen zugeordnet ist, da die Verarbeitungsgeschwindigkeit für On-line-Systeme als nicht akzeptabel gilt.

Enorme Steigerungen bei Speicherkapazität

Nimmt man nun nur die konservative Zuwachsrate von 40 Prozent im Online-Datenbestand pro Jahr, so heißt das, daß zirka alle zwei Jahre eine Verdoppelung der Plattenspeicherkapazität stattfinden muß. Selbst unter der Berücksichtigung von Magnetplatten mit doppelter Aufzeichungsdichte ist schnell auszurechnen, ab wann auch das größte vorhandene Rechenzentrum erweitert werden muß.

Ebenfalls unbeantwortet bleibt aus heutiger Sicht die Frage, wie alle diese Plattenlaufwerke mit den notwendigen Verkabelungen zu den CPUs versehen werden sollen, beziehungsweise wie und mit welchen Medien die entsprechenden Sicherungsläufe durchzuführen sind. Diese Tatsachen und Faktoren erzwingen letztlich eindeutig ein Konzept zur Erstellung von Prioritätsklassen der Datenbestände in Abhängigkeit von benötigter Zugriffsgeschwindigkeit, -Häufigkeit, Bedarf an Sicherheit und allgemeiner Verfügbarkeit, sowie benötigte Archivierungsdauer unter Einschluß der Vorsorge für Katastrophenfälle.

Solche Konzepte können sicherlich nicht ausschließlich vom Hauptlieferanten der CPUs erwartet werden. Diese Fragen können nur idealisiert von jedem einzelnen Unternehmen beantwortet und dann auf die Möglichkeiten des Marktes real übertragen werden.

Automatischer Back-up

Unter dem Begriff automatisierte Datenverwaltung sind Systeme wie HSM von IBM, DMS/OS von SMM und ASM2 von CSG' sowie außerhalb der IBM-Welt, auch zum Beispiel Secure von Sperry angesiedelt. Alle diese Systeme dienen dem ausschließlichen Zweck, eine Art von Back-up-Verarbeitung im Zusammenhang mit Kosten- und Performance-Optimierung automatisch zu erreichen. Grundlage für Optimierungskriterien ist dabei das Verteilungsschema von Dateien in typischen Installationen gemäß Bild 1.

Die Dateien im linken schraffierten Drittel sind im allgemeinen sehr oft benutzt und häufig, jedoch nicht immer, auch relativ klein. Diese Dateien mit hohen Zugriffsraten sollten auf Magnetplatten gehalten werden, um die dabei vorhandene hohe Zugriffsgeschwindigkeit nutzbar zu halten. Die Dateien im rechten schraffierten Drittel sind gewöhnlich größer; auf sie wird nicht so häufig zugegriffen. Für diese Dateien kann es also nur wenig vorteilhaft gesehen werden, wenn sie auf anderen Medien als konventionellen Magnetbändern gespeichert werden.

Andererseits zeigt die Grafik aber auch, daß die größere Menge von Dateien weder dem einen noch dem anderen Speichermedium eindeutig zugeordnet werden kann. Damit ist eine Optimierung nach Kosten und Performance nicht möglich.

Funktion über mehrstufige Hierarchie

Ein Dateiverwaltungssystem ist ab einer bestimmten Menge und Größe von Dateien ein unverzichtbares Instrument, da manuell diese Aufgaben nicht mehr bewältigt werden können. Wie sich aus Bild 1 ergibt, muß ein solches System über eine mehrstufige Hierarchie von Speichermedien hinweg automatisch funktionieren. Es muß weiterhin die installationsspezifischen Gesamtkriterien berücksichtigen können. Dazu zählen: Unterschiede in der Tag- und Nachtverarbeitung, Dateien mit häufig benutzten Untermengen und selten benutztem Rest, geforderte Archivierungen, Dokumentation von Veränderungen, gewünschte Verarbeitungseffizienz, bedarfsabhängige Umspeicherung sowie Unempfindlichkeit gegenüber Veränderungen der Hardware-Installation. In jedem Falle und für jede Installation muß unverzichtbar sicherzustellen sein, daß auch mit den gleichen operationalen Installationsparametern eine implizite und absolut zuverlässige Datensicherung für Katastrophenfälle stattfindet.

Soll ein Dateiverwaltungssystem über mehrere Speicherhierarchien hinweg für den Benutzer transparent funktionsfähig sein, sollten die Grundfunktionen gemäß Bild 2 erfüllt sein.

Die Konzeption und die Notwendigkeit von Speicherhierarchien im CPU-Bereich ist mittlerweile unbestritten und wird praktisch von allen Hardware-Anbietern bis an die Grenzen der architektonischen und technischen Möglichkeiten genutzt. Ebenso mangelt es nicht an Startideen, diese Konzeption in der Peripherie auszudehnen, wie die "Buffer Controller" von STC und IBM selbst zeigen. Eine konsequente Strategie unter Einschluß von Data-Management-Systemen ist jedoch bei den Großen am Markt bisher nicht sichtbar.

So ist die Idee von virtuellen Platten unter Benutzung der Massenspeichereinheit 3850 bei IBM im Laufe der Zeit mehr und mehr untergegangen. Dies wahrscheinlich neben technischen Problemen nicht zuletzt durch die Tatsache, daß in dieser Idee letztlich eben doch nur ein Medium, nämlich die Magnetplatte, als Hauptfunktionsträger gesehen und letztlich keine eigenständige Intelligenz zur optimierten Nutzung aller vorhandenen Speicherressourcen implementiert wurde.

Als Speicherressourcen verfügbar sind heute neben den unterschiedlichen Magentplatten und den konventionellen Bändern auch Massenspeicher in modernster Technologie unter Berücksichtigung von Failsafe-Konzeption. Die nahe Zukunft wird zudem auch optische Platten für im wesentlichen Read-only-Daten verfügbar machen.

Alle diese Datenträger müssen unter Berücksichtigung ihrer jeweiligen technischen Gegebenheiten in einem einheitlichen hierarchischen Konzept als ein virtuelles Speichersystem integriert verfügbar gemacht werden. Das ist der Anspruch und die Hauptaufgabe für ein erfolgreiches strategisches Daten-Management Konzept in den nächsten Jahren.

Da MSS Funktionen in der gewünschten Art und Weise in der seit mehr als sieben Jahren produzierten IBM 3850 nur mit Einschränkungen verfügbar waren und IBM den Vertrieb dieses Gerätes aus Gewinngründen wohl auch drastisch eingeschränkt hat, ist es nicht so sehr überraschend, daß die Mehrzahl der Benutzer nur in den Kategorien Disk und Tape organisiert hat und zudem weltweit leicht mehr GBytes auf Platten residieren als auf 3850s. Für die Anwender heißt das letztlich aber eindeutig, daß Performancewerte bezahlt werden, die aus Sicht der Anwendungen überhaupt nicht notwendig sind beziehungsweise daß der Datenmengenzuwachs aus Kosten- und Platzgründen häufig künstlich limitiert wird.

Sieht man die Speicherung der eingangs genannten Wachstumsraten der Daten, die mehr und mehr durchgeführte Terminalisierung und Online-Verarbeitung für den Augenblick als bereits bewältigt und erledigt an, so bleibt ein neues, aber umso schwieriger zu bewältigendes Problem offen: Die Datensicherung bei kleinen und großen Katastrophen.

Die Forderung aus Sicht des Unternehmens muß jedoch eindeutig heißen: hundertprozentige Sicherheit für alle Daten! Nur wenn diese Forderung so scharf gestellt wird, kann eine Datensicherungskonzeption die benötigten Ergebnisse bringen. Elemente zur Erarbeitung einer solchen Konzeption sind:

- Rechnernetzwerke mit Hochgeschwindigkeitskopplung

- Daten-Management-Systeme in Hard- und Software

- Benutzung von Speicherhierarchien

- Automatisierte Daten-Back-up-Verfahren

Alle diese genannten Elemente sind heute bereits verfügbar. Es bleibt die Aufgabe des EDV-Managements, sich der vorhandenen Hilfsmittel strategisch zu bedienen und sich vor allem darüber klar zu werden, welche Verantwortung für den soliden und ungestörten Fortbestand eines Unternehmens in ihrem Handlungsbereich liegt.

* Dietmar Otto ist Marketing-Direktor der Masstor Deutschland GmbH, Frankfurt.