Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Zusätzliche Daten durch Standardsoftware


02.11.1990 - 

Anwender verlangen nach zentraler Datenverwaltung

*Gerhard Schelling ist Systemplaner bei der Hamburger Esso AG

Zwei DV-Trends machen nach Einschätzung von Gerhard Schelling* den Einsatz eines zentralen Datenmanagments unausweichlich: die zunehmende Vernetzung der Rechner untereinander sowie die Verteilung von Daten auf unterschiedlichen Ebenen.

Cicero leitete seine erste Rede gegen Catilina mit den ärgerlichen Worten 'QUO USQUE TANDEM' (Wie lange noch?!) ein. Zwar liegen zwischen dieser Frage und dem immer wieder lesenswerten Artikel von Theodor H. Nelson (Datamation, 15. Dezember 1986) "The tyranny of the file' rund zweitausend Jahre Entwicklungsgeschichte, aber der Unmut beider Personen hat eine Gemeinsamkeit.

In beiden Fällen handelt es sich um die gerechtfertigte Ungeduld von Menschen, die schmerzliche Erfahrungen gemacht haben und einen nicht vertretbaren Zustand verändern wollen. Zur Sache: Wie lange müssen wir noch warten, bis endlich ein Datenmanager entwickelt wird, der uns alle die anscheinend notwendigen, aber überaus lästigen Aufgaben der Datenverwaltung abnimmt und den Anwender aus der Abhängigkeit von den physischen Datenstrukturen entläßt? Was können und sollten wir bis dahin tun?

Die Heterogenität heutiger Systemlandschaften drückt sich auch in dem Nebeneinander verschiedenster Arten der Datenhaltung aus. Historisch gewachsen stehen Dateien, die vor 25 oder mehr Jahren konzipiert wurden, neben solchen, die unter Datenmanagern wie Adabas oder IMS, dann DB2 auf dem Großrechner und dBASE auf Arbeitsplatz-Rechnern erstellt wurden.

Aufgrund des zunehmenden Einsatzes fremder Standardsoftware wächst die Zahl der Dateien, auf deren Struktur wir keinen oder nur beschränkten Einfluß haben. Um die in dieser oder jener Weise gespeicherten Daten verarbeiten zu können, werden je nach Rechnertyp, Datenmanager und Anwendungssoftware zusätzlich Daten in Form von Tabellen und Definitionen von jeweils unterschiedlicher Struktur und Inhalt benötigt.

Die Datenverwaltung folgt bestimmten Regeln

Unabhängig davon, welche Arten von Daten vorhanden sind und auf welche Weise sie verwaltet werden, sind ihre Bestände für ein Unternehmen von steigendem Wert. Daraus ergeben sich für die Datenverwaltung folgende Aufgaben:

- Schützen der Daten gegen unberechtigten Zugriff, Sichern der Datenbestände gegen Verlust,

- Bereitstellen aktueller Daten auf jeder Plattform und für jede Anwendung,

- Sicherstellen der Konsistenz unter den verschiedenen Datenbeständen,

- Anpassen der Datenstrukturen an sich ändernde Anforderungen,

- Überwachen der Redundanz von Dateien und Daten, Abbauen der Abhängigkeit von Datenmanagern und Datenstrukturen,

- Vereinheitlichen von Namen und Definitionen,

- Niedrighalten des Verwaltungsaufwandes.

Neben der allgemeinen und trolle der gängigen Sicherheitssoftware sind Maßnahmen erforderlich, die nicht nur einen Schutz auf Dateiebene, sondern auch auf Satz- oder Feldebene bieten. In bestimmten Fällen sind die Feldinhalte selbst heranzuziehen.

Erforderlich ist die regelmäßige Sicherung all jener Daten, die für ein ordnungsgemäßes Weiterführen des Unternehmens nötig sind. Dies gilt nur, sofern sie gar nicht oder nur mit einem unvertretbar hohen Aufwand aus anderen zu sichernden Datenbeständen abgeleitet werden können. Weiterhin sollten Vorkehrungen getroffen werden, damit im Falle eines Verlustes der vorherige Zustand möglichst rasch und kostengünstig wiederhergestellt werden kann.

Die Daten sind in dem vom Geschäft geforderten Grade an Aktualität bereitzustellen. Für operative Zwecke bedeutet dies in der Regel eine Verfügbarkeit des jeweils neuesten Datenzustands am einzelnen Arbeitsplatz. Für informative Zwecke sind die benötigten Daten zu den vereinbarten Zeiten abzuleiten, zu ergänzen, zu verdichten und in der gewünschten Form zu verteilen. Letzteres ist nur deshalb nötig, weil die Performance der Datenmanager keine annehmbaren Antwortzeiten für die direkte Nutzung der operativen Datenbestände zuläßt.

Um Mißverständnisse und Fehlentscheidungen aufgrund

unterschiedlicher Informationen zu verhindern, sollte der Anwender dafür sorgen, daß Daten des gleichen Aktualitätsgrades inhaltlich übereinstimmen, wo auch immer sie gehalten und genutzt werden.

Wie auf der Verarbeitungsseite die Programme, so müssen auf der Datenseite auch die Dateien ständig den sich ändernden Bedingungen und Regeln angepaßt werden. Hierbei ist gleichgültig, ob dies aufgrund geschäftlicher oder technischer Anforderungen notwendig wird.

Um Speicherplatz zu sparen und weniger Dateien schützen, sichern, aktualisieren, abstimmen und anpassen zu müssen, ist, von temporären Arbeitsdaten abgesehen, jede Art von Mehrfachspeicherung gleicher Daten auf unterschiedlichen Dateien zu vermeiden. Damit Programmierer und Anwendungen entlastet werden, sollten die Befehle für die Ein- und Ausgabe von Daten unabhängig vom jeweil, einzusetzenden Datenmanager und die Definition der Schnittstellen unabhängig von der physischen Darstellung der Daten gestaltet werden.

Die Zeit für das Erstellen eigener Programme sowie das Pflegen fremder Programme läßt sich verkürzen, indem - soweit die verwendeten Sprachen und technischen Einrichtungen dies zulassen - für jede Information nur ein eindeutiger Name vergeben und auch nur eine einheitliche Definition erstellt wird.

Im allgemeinen Bemühen um tragbare Kosten und im Interesse einer produktiven und effizienten Datenverwaltung sind die Aktivitäten organisatorisch zusammenzufassen. Geeignete Methoden, Techniken und Werkzeuge können entwickelt und eingesetzt werden.

Bei, der Wahrnehmung dieser Aufgaben stoßen wir auf folgende Änforderungen:

- Verständnis für die Notwendigkeit einer zentralen Datenverwaltung,

- Unterstützung durch das Management,

- Akzeptanz der Arbeitsteilung durch die Anwendungs programmierung,

- Langfristige Zielsetzung für die Datenverarbeitung,

- Konzept für die Datenverwaltung,

- Anzahl und Struktur der bestehenden Systeme (Altlasten),

- Ausstattung mit Mitarbeitern und Werkzeugen.

Aufgrund der Entwicklung in Richtung dezentraler Datenverarbeitung, drängt sich die Konsequenz auf, auch die Datenverwaltung zu dezentralisieren. Da es sich aber nicht um die Entscheidung "entweder/oder" sondern um ein "sowohl/als auch" handelt, nimmt mit der Vernetzung verschiedener Rechnerebenen und der damit verbundenen Verteilung von Daten und deren Verarbeitung die Notwendigkeit einer zentralen Datenverwaltung nicht ab, sondern zu.

Die Lieferung von Daten (Datenverwaltung) ist dem Bereitstellen von Informationen (Anwendungsprogrammierung) geichzusetzen. Eine gleichwertige Unterstützung durch das Management ist also angebracht. Es gibt keinen Grund, Datenverwaltung und Anwendungsentwicklung ungleich zu behandeln.

Solange Anforderungen, die die Daten betreffen, von der Anwendungsprogrammierung und nicht von der Fachabteilung gestellt werden, bleiben die Informationen für die Datenverwaltung unvollständig.

Erst wenn Arbeitsteilung ernsthaft gewollt wird, wenn also eine klare Trennung von Aufgaben und Verantwortlichkeiten vollzogen ist, wird die Datenverwaltung sinnvoll, selbständig und effizient arbeiten können.

Wie sich aus den Plänen der Fachabteilungen die Ziele der DV-Verantwortlichen ableiten, so beeinflußt die DV-Abteilung wiederum die Datenverwaltung. Bei ungewissen und unsicheren Bedingungen können folglich auch in der Datenverwaltung nur kurzfristige Entscheidungen getroffen werden, obwohl Vorleistungen, Kontinuität und Flexibilität erwartet werden.

Die Definition von Zielen erlaubt und fordert ein Konzept, mit dem systematisch und wirtschaftlich auf die definierten Ziele hingearbeitet werden kann. Erst wenn das 'Was' und 'Warum' festliegt, kann und sollte das 'Wie' und 'Womit' in Angriff genommen. Dann lassen sich Vorstellungen und Richtlinien für Analyse und Design der Daten entwickeln sowie Methoden, Techniken und Werkzeuge ausgewählen.

Unternehmen müssen lernen umzudenken

Solange Datenmanager und Datenstrukturen von gestern

genutzt werden, sind entsprechen des Wissen und technische Einrichtungen ausreichend. Kommen Datenmanager und Daten strukturell von heute hinzu ohne die bestehenden Strukturen zu ersetzen, so werden die Kosten in der Datenverwaltung steigen. Je länger dieser Prozeß anhält, um so schwieriger und teurer wird die Umstellung eine beherrschbare, tragfähige und vertretbare Datenbasis werden.

Auch die Datenverwaltung kann nur dann die von ihr geforderte Leistung erbringe und ihre Aufgaben und effizient erfüllen, wenn mit genügend qualifizierte und motivierten Mitarbeiter sowie mit leistungsfähigen und benutzerfreundlichen Werkzeugen ausgestattet ist.

Kurzfristig und mit geringe Aufwand kann die Datenverwaltung die Situation zwar mildern aber nicht wesentlich verbessern oder gar ändern. Längerfristig hilft folglich nur ein Umdenken und Investieren, um einen entscheidenden Wande herbeiführen und die Grundlagen für die Zukunft schaffen können. Dafür könnte folgend Vorgehensweise gewählt werden:

1. Benennen und Unterstütze einer Driving Force durch da IS-Management.

2. Setzen der Ziele anhand de Anwendungsentwicklungs-Plans und der IS-Strategien.

3. (Fort-)Entwickeln eines Datenmanagement-Konzeptes.

4. Bestimmen der Tätigkeitsfelder nach Vorrang und Ergiebigkeit.

5. Ermitteln der erforderlichen Maßnahmen und Ressourcen

6. Ausführen der konkreten Schritte durch Task Forces.

7. Verwerten der gemachten Erfahrungen und Ergebnisse.

Der Erfolg eines solchen Vorhabens hängt wesentlich davon ab, inwieweit es gelingt, persönliche Erfahrungen Bewußtsein zu schärfen und Gesamtverantwortung zu entwickeln. Aus diesem Grunde möglichst jeder IS-Mitarbeiter wenigstens einmal in einer Task Force tätig sein. Die Folge wäre, daß das Verständis für die Problematik der Datenverwaltung ausbreiten und das Interesse derartigen Tätigkeiten zunehmen würde. Darüber hinaus wäre es sicherlich von Nutz wenn jeder IS-Mitarbeiter eine bestimmte Zeit in der Datenverwaltung tätig wäre.

Werkzeuge rechtzeitig auf rüsten oder ersetzen

In jedem Falle gilt auch daß die Leistungsfähigkeit Mitarbeiter nur durch kontinuierliche Schulung und Erfahrungsaustausch erhalten und gesteigert werden kann. Zudem sind die Werkzeuge rechtzeitig aufzurüsten und gegebenenfalls zu ersetzen.

In folgenden Bereichen Datenverwaltung im genannte Sinne not: Die Dateien sind geprägt durch Eigenschaften, die eine Umstellung erschweren. Aufbau und Inhalt der meisten Dateien orientieren sich an der jeweiligen Anwendung und dem jeweiligen persönlichen Programmstil des Herstellers.

Die Anordnung und Definition von Sätzen und Feldern spiegeln das Alter des Systems sowie den Wissensstand und die Vorlieben des jeweiligen Autors wider. Vielfach können die Daten nur anhand von sich überlagernden Definitionen oder weiteren Feldinhalten identifiziert und mittels spezifischer Logik verarbeitet werden. Durch das Übernehmen abhängiger Daten aus anderen Dateien und die Einrichtung ungenutzter Reservefelder werden die Sätze augeblählt.

Die Verwendung sprechender und kombinierter Verschlüsselungen lassen keine eindeutige Zuordnung und klare Trennung der Informationen zu.

Oft sind die Programme so gestaltet, daß sie ein einfaches und wirtschaftliches Lokalisieren und Auslagern der Befehle verhindern, mit denen die Ein-/Ausgabe der Daten durchgeführt wird: Die meisten Programme sind unstrukturiert und unkommentiert, somit unübersichtlich und wartungsunfreundlich.

Die Befehle für die Ein- und Ausgabe von Daten sind über das ganze Programm verstreut und mit anderen Befehlen verquickt. Jeder verwendete Datenmanager verlangt seine eigenen und zusätzlichen Definitionen und Ein-/Ausgabebefehle.

Die Zusammenfassung zu vieler Funktionen in einem einzigen Programm - monolithisch statt modular - führt nicht nur zu größeren und damit unhandlicheren Einheiten, sondern bedeutet auch eine höhere Anzahl zu bearbeitender Dateien und zu verwendender Datenmanager. Zudem erhöht das individuelle Vergeben von Namen und das Erstellen eigener Definitionen die Abhängigkeit vom jeweiligen Autor.

Die Gefahr der redundanten Datenhaltung

Außer der Vielfalt der angewandten Sprachen schafft das Nebeneinander von eigen- und fremdentwickelter Software weitere Schwierigkeiten: Die Schnittstellen zur Fremdsoftware bedingen zusätzliche Dateien sowie andere Definitionen der Daten. Bei Vorhandensein eines eigenen (integrierten) Data Dictionary bedeutet dies nicht nur eine (weitere) Redundanz der Geschäftsdaten, sondern ebenso eine Redundanz der Informationen über die verwalteten Daten.

Für den Datenverkehr mit Fremdsoftware sind spezifische Brückenprogramme zu entwickeln, die Daten aus eigenen Dateien auswählen und nach fremden Regeln aufbereiten beziehungsweise aus fremden Dateien übernehmen und nach eigenen Regeln aufbereiten. Bestimmte Fremdsoftware verfügt weder über eine Schnittstelle noch über ein irgendwie geartetes Data Dictionary. In solchen Fällen können die Brücken zu den Dateien erst nach oft mühseliger Kenntnisnahme von Strukturen und Ausprägungen geschlagen werden.

Die Nutzung eigenständiger Arbeitsplatzrechner birgt die Gefahr, daß Exklusivität ungewollte Auswüchse zeitigt und Isolation unkontrollierten Wildwuchs begünstigt: Die verfügbaren Datenmanager erleichtern zwar das Anlegen und Ändern von Dateien (Flexibilität), was zu einer leichtfertigen Vervielfältigung von Daten verfuhren kann (Redundanz, Uneinheitlichkeit), aber auch sie kommen nicht ohne Daten aus, die jeweils neu eingegeben werden müssen.

Werden von anderen Stellen Daten oder die auf Arbeitsplatzrechnern erstellten Informationen benötigt, so sind auch hier (Hilfs-)Programme erforderlich, die die Daten jeweils dahin übertragen, wo der Bedarf besteht (Aktualität, Konsistenz).

Schließlich ist es nicht verwunderlich, wenn die Mitarbeiter, und nicht nur die in den Fachabteilungen, nahezu alle Fehler mit allen ihren Folgen wiederholen, welche bisher nur auf dem Großrechner möglich waren - allerdings, dank moderneren Techniken und Werkzeuge, in kürzerer Zeit.

In jedem Bereich gibt es Ansatzmöglichkeiten, um die Probleme zu entschärfen oder zu lösen: Für Systeme, deren Nutzungsebene absehbar ist, ob sie nun ausgemustert oder durch andere Software abgelöst werden, sollte nichts mehr getan werden, sofern sie nicht Dateien bereitstellen, die von anderen Systemen mit längerer Lebensdauer benötigt werden. Im letzteren Fall ist zu prüfen, inwieweit Abläufe vereinfacht und Dateien verringert oder Funktionen und Daten kostengünstig von anderen Systemen übernommen werden können.

In allen anderen Fällen sollten, solange noch das Wissen

bei den Mitarbeitern vorhanden ist, die Verarbeitungsregeln

und Daten in einem Data Dicitionary oder Nachfolgeprodukt (Repository) beschrieben. Gleichzeitig sollte der Anwender versuchen, im Zuge Wartung und Pflege die Ausgabebefehle zusammen fassen, besser noch in Moduln auszulagern, um eine Umstellung zu sichern und erleichtern.

Schnittstellen im Data Dictionory beschreiben

Ferner ist zu untersuchen, inwieweit Brückenprogramme

durch den Einsatz eines allgemeinen Datenaustausch-Systems vereinfacht werden oder entfallen können.

In jedem Falle sollten die Schnittstellen im Data Dictionary oder im Nachfolgeprodukt beschrieben werden, um den Datenverkehr unter Kontrolle zu bekommen.

Der Nutzer sollte vermeiden, daß Daten, die auf bestehenden Dateien vorhanden sind, noch einmal am jeweiligen Arbeitsplatz eingegeben werden. Um den Datenverkehr mit den Arbeitsplatzrechnern in Griff zu bekommen, ist zu erwägen, ob nicht auch dafür ein Datenaustauschsystem, um bestimmte Funktionen ergänzt, eingesetzt werden könnte.

In jedem Falle sind die Daten, die an Arbeitsplatzrechnern übertragen oder von ihm geholt werden, im Data Dictionary zu beschreiben, um unproduktive und unkontrollierte Mehrfachspeicherung und -verarbeitung erkennen und vermeiden zu können.

Falls Organisation, Technik und finanzielle Mittel es zulassen, ist nach so vielen Jahren historischen und mehr oder weniger unkontrollierten Wachstums der Dateien ein Erfassen, Aufräumen und Bereinigen der Daten, in formaler und inhaltlicher Hinsicht sinnvoll und notwendig.

Denn jede Maßnahme, die zur Verringerung, Vereinheitlichung und Vereinfachung der Dateien beiträgt, erspart Laufzeiten, Speicherplatz und Wartungskosten.

Zum Abschluß noch einmal die Vision von Ted Nelson:

'lndeed, what the world needs is a generalized form of storage that will grow and adapt and hold data for every type of application; that may be shared among all applications ... ; that creates a common, clarifying, and universal system of storage. - Each application should be like a door to a world: the user opens doors into applications, with multiple views of materials, each a different context or way