Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

15.11.1985

Dinosaurier-Denke wird von Ameisenmentalität abgelöst:DB-Komplexibilität zeigt Mikro Grenzen auf

Große Datenverarbeitungsanlagen haben einen begrenzten Horizont. Von dieser Einsicht ausgehend, formuliert der Autor des folgenden Artikels. Gerd Eickers, Forderungen an eine dezentrale Datenwelt mit gemeinsam genutzten Datenbanken. Eickers ist Leiter der Abteilung Systementwicklung bei der General Electric Informations GmbH.

Die Grundtendenz ist eindeutig. Auch wenn bestimmte Faktoren das Gegenteil zu belegen scheinen: Die Entwicklung zur Dezentralisierung der Datenverarbeitung und der Datenbestände ist nicht mehr aufzuhalten. Die technischen und wirtschaftlichen Voraussetzungen, unterstützt von psychologischen Beweggründen des Anwenders, machen diese Entwicklung zwangsläufig, so daß sie zwar verlangsamt, aber nicht verhindert werden kann.

Technisch entwickelt sich die Elektronik wesentlich schneller als die Mechanik. Die ehemals sehr aufwendigen, weil elektronischen Zentralprozessoreinheiten werden zunehmend zur Zusatzausstattung der größtenteils mechanischen Peripherie. Diese Entwicklung, die bereits vor Jahren bei den Bandeinheiten und Plattenspeichern eingesetzt hat, erfaßt mit der Entwicklung der PC nunmehr auch die Datenendgeräte der Anwender. Bereits heute besteht kein nennenswerter Preisunterschied mehr zwischen einem Mikro und einem herkömmlichen Bildschirmterminal .

Unter wirtschaftlichen Gesichtspunkten führen die niedrigen und immer noch sinkenden Kosten für dezentrale Hard- und Software zu dermaßen kurzen Amortisationszeiten selbst kleiner Insellösungen, daß mit einer deutlichen Zunahme lokaler Intelligenz auch für die nächsten Jahre gerechnet werden muß. Was liegt näher, als diese vorhandene Intelligenz zu nutzen, um die noch immer weit überdurchschnittlich hohen Kommunikationskosten der Datenverarbeitung zu reduzieren und nur diejenigen Informationen mit einer Zentrale auszutauschen, die unbedingt ausgetauscht werden müssen.

Nicht zu unterschätzen sind auch die psychologischen Gesichtspunkte, die einer Dezentralisierung der Datenverarbeitung Vorschub leisten. Ist es nicht auch das Gefühl der Unabhängigkeit und die Sicherheit, Datenbestände ausschließlich unter eigener Verfügungsgewalt halten zu können, die den Mikros mit Spreadsheet-Programmen zu einem wahren Siegeszug in den Finanzabteilungen der Unternehmen verhelfen? Dafür wird ohne Zögern ein mäßiges Benutzer-Interface, die Doppelerfassung von Daten und eine unzureichende physikalische Datensicherheit in Kauf genommen. Werden die gleichen Tools auf einem Zentralrechner angeboten, ist die Akzeptanz der Anwender ungleich geringer.

Es stellt sich die Frage, wie die Datenverarbeitung, die seit Jahrzehnten auf die Zentralisierung von Hardware, Software und Datenbeständen eingeschworen ist, auf diese Herausforderung reagieren kann.

Der erste Ansatz, der Ausbreitung dezentraler Intelligenz durch zentrale Genehmigungsverfahren sehr restriktiv entgegenzutreten, wurde sehr schnell zugunsten einer Öffnung unter dem Schlagwort der individuellen Datenverarbeitung aufgegeben. Dabei definiert die Datenverarbeitung die einzelnen Standards und berät, schult und unterstützt den Endanwender lokaler Anwendungssysteme. Doch auch diese Vorgehensweise stößt schnell an ihre Grenzen. Zum einen taucht unmittelbar der Wunsch nach Zugriff auf zentral gehaltene Datenbestände auf; zum anderen werden die zu entwickelnden Softwaresysteme zunehmend komplexer.

Der Regelfall ist es heute, daß der Wunsch nach Zugriff auf zentrale Datenbestände zur Zeit auf reine Filetransfer-Schnittstellen reduziert wird. Die Zentrale stellt bestimmte Datentöpfe bereit, die individuell genutzt und weiterverarbeitet werden können, wobei der aktuelle Zugriff und Update auf zentrale Datenbestände ausgeschlossen wird. Damit ergeben sich zwangsläufig Probleme mit der Eindeutigkeit der Datenbestände, wie sie aus Zeiten der reinen Batch-Verarbeitung auf der Grundlage von Listen und zeitversetzter Verarbeitung bekannt sind. Es kann nicht verhindert werden, daß mehrere Anwender unabhängig voneinander Entscheidungen treffen, die sich eigentlich hätten gegenseitig beeinflussen müssen.

Auch die zunehmende Komplexität der Anforderungen zeigt die Grenzen der individuellen Datenverarbeitung auf. Zwar kann man einem Controller mit einem Mikro und einer kurzen Schulung in einem Spreadsheet-Programm ein ideales Instrument für die analytische Auswertung seines Zahlenmaterials an die Hand geben, jedoch kann Programmentwicklung durch den Endanwender nicht bedeuten, daß diese nun in die Lage versetzt werden sollen, zum Beispiel ein neues internationales Finanzberichtssystem aufzubauen.

Um die Möglichkeiten und Chancen verteilter Intelligenz und Speicherkapazität voll nutzen zu können, muß die offensichtlich auf seiten der zentralen Datenverarbeitung unterschwellig bestehende Abneigung gegen dezentralisierte Systeme überwunden werden und das dort vorhandene analytische und Projektmanagement-Know-how in Anwendungsentwicklungen unter Einbeziehung von Mikros eingebracht werden.

Grundsätzlich sollte die gesamte Anwendungssoftware-Entwicklung aus der Blickrichtung des PC und nicht aus der des zentralen Rechners erfolgen. Dies ist notwendig, um die Möglichkeiten der verteilten Intelligenz voll zu nutzen, um eine einheitliche Benutzerschnittstelle auf dem Mikro zu erhalten und um Systeme entwickeln zu können, die innerhalb einer Anwendung Verbindung zu mehreren Großrechnersystemen aufnehmen.

Damit ist gleichzeitig gesagt, daß die Entwicklungsinstrumente derartiger Anwendungen auf Mikros zugeschnitten und nicht miniaturisierte Großrechnertools sein sollten.

Die Entwicklungssoftware sollte frei programmierbar sein, Datenbankfunktionen beinhalten und die einfache Erstellung und Modifikation von Masken ermöglichen. Darüber hinaus muß aus dem Anwendungsprogramm heraus eine Kommunikationsschnittstelle zu den angeschlossenen Großrechnern angesprochen werden können. Idealerweise könnte dies in einer Art "Remote File Access" möglich sein, so daß vom Anwendungsprogrammierer die Großrechnersysteme als eine Erweiterung der lokalen Speichereinheiten (Diskette, Festplatte) gesehen werden können.

Vom Benutzer-Interface her sollte die gesamte Anwendung einheitlich aufgebaut sein und wie eine rein lokale Anwendung erscheinen. Für den User spielt es keine Rolle, ob die Informationen, die ihm angezeigt werden oder die er verändert, auf seiner lokalen Hardware oder einem zentralen System gespeichert sind.

Bereits heute sind umfangreiche verteilte Anwendungen unter Einbeziehung der technischen Möglichkeiten von Mikrocomputern in Verbindung mit Großrechnersystemen realisiert. Dabei kommen gerade im internationalen Bereich die Vorteile der Mikros hinsichtlich einer relativ preisgünstigen Standardisierung von Hard- und Software und der Möglichkeit die Kommunikationskosten deutlich zu reduzieren, besonders zum Tragen.

Im Bereich Auftragsentwicklung lassen sich zum Beispiel lokale Ersatzteilbestände durch Einsatz derartiger dezentralisierter Systeme deutlich reduzieren, ohne den Servicegrad auch nur im geringsten einzuschränken. Dabei läuft auf einem PC eine Auftragsabwicklungssoftware, die lokale, regionale und zentrale Lagerbestände unterscheidet. Während die lokalen Lagerbestände auf dem Mikro geführt werden, werden die regionalen Datenbestände in Rechenzentren verwaltet, die bei Bedarf auf die zentralen Lagerbestände im Großrechner der Hauptverwaltung zugreifen. Der Benutzer hat somit eine einheitliche Schnittstelle für den Zugriff auf drei verschiedene Datenbanken.

Die Kategorisierung der Lagerhaltung in zentrale, regionale und lokale Bestände ist dabei eine Stamminformation in allen drei Datenbanken und kann zentral verwaltet werden. Von daher ist eine volle Flexibilität hinsichtlich der Strukturierung der weltweiten Lagerbestände möglich. Beim nächsten Zugriff auf die Stamminformationen werden Änderungen automatisch an alle beteiligten Datenbanken verteilt.

Von besonderem Vorteil ist es, daß die Regionallager nicht physikalisch vorgehalten werden müssen sondern auf dem Servicerechenzentrum rein logisch als gemeinsamer Pool der angeschlossenen lokalen Systeme gehandhabt werden können.

Die genannten Beispiele zeigen, daß dezentralisierte Datenverarbeitung auch mit dezentralisierten Datenbeständen auf unterschiedlichsten Systemen nicht zum Datenchaos führen müssen. Dies bedeutet aber daß der Datenbankverwalter herkömmlichen Stils nicht die bei derartigen Anwendungen in jeder einzelnen Komponente vorhandene Redundanz und Unvollständigkeit der Information in den Vordergrund stellt sondern sich als Verwalter eines Gesamtinformationssystems betrachtet, welches sich aus vielen einzelnen Bausteinen zu einem einheitlichen Ganzen zusammensetzt.

Die Zeit der Dinosaurier geht zu Ende. Vielleicht läßt sich die Datenverarbeitung der Zukunft eher mit einem Ameisenstaat vergleichen wobei Dinge im Detail vielleicht unkoordiniert erscheinen mögen, als Ganzes aber ein äußerst komplexes Informationssystem höherer Ordnung geschaffen wird.