Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

10.06.1977 - 

Minicomputer-Netz als Distributed Processing-Alternative:

Standardisierte Module logisch teilen

Für Distributed Processing hatten die Mainframer bislang nicht die geeignete Hardware; davon profitierten insbesondere die Minicomputer- und Terminal-Hersteller. So wurden eine Reihe von beispielhaften Netzwerk-Anwendungen mit Minicomputern insbesondere bei Großbanken implementiert - die Citibank-Lösung hat nachgerade einen " Wunderglauben an die unbegrenzten Möglichkeiten dezentraler Intelligenz ausgelöst. Bei aller Euphorie, die auch durch die Fachpresse wachgehalten wurde: Die Anwender sind mit der Zeit klüger geworden; wissen, was sie wollen. Und sehen in einer Minicomputer-Lösung eben nicht mehr das "Alleinseligmachende", sondern allenfalls eine echte Alternative zu anderen dezentralen Verarbeitungsformen - auch das ist schon ein Fortschritt. Um die Vor- und Nachteile von zentralen und dezentralen Informationssystem geht es in dem folgenden Beitrag. de

Bei vielen Firmen und Organisationen besteht der Bedarf, den ständig wachsenden Datenbestand einerseits nach einheitlichen Regeln zu ordnen und aufzubereiten und ihn andererseits dem Benutzer an unterschiedlichen Stellen, die manchmal räumlich weit voneinander entfernt sind, zur direkten und schnellen Information und Verarbeitung zur Verfügung zu stellen.

Oftmals ist die Gliederung des Datenbestandes relativ einfach und die Verarbeitung beschränkt sich hauptsächlich auf wenige überschaubare Zugriffs- und Aufbereitungsmöglichkeiten. Mit dem Fortschritt der Datenverarbeitung auf dem Gebiet der Datei-Organisation sind jedoch Aufbereitung, Verwaltung und Verarbeitung der Datenbestände wesentlich komplexer und vielseitiger geworden.

Mit dem Übergang vom reinen File Management System (FMS) zum Data Base Management System (DBMS) werden die Datenbestände nicht mehr um eine bestimmte Anwendung herum aufgebaut, sondern stehen als zentraler Kern im Mittelpunkt eines Datenverarbeitungs- und Informationssystems. Sicherlich hat jedes Data Base Management System seine anwendungs-spezifischen Besonderheiten; was aber den Inhalt der abgespeicherten Information sowie die Verarbeitungsmöglichkeiten und den Arbeitsablauf betrifft, gibt es jedoch gemeinsame Anforderungen:

- Die Datenbestände müssen aktuell sein;

-Sie müssen immer dort zur Verfügung stehen, wo sie gebraucht werden;

-Gewisse Datenbestände stehen nur bestimmten Benutzern (geschützte Bereiche), andere jedoch allen Interessenten zur Verfügung;

- Die Ausfallsicherheit des Gesamtsystems muß groß sein.

Ein "traditionelles" Datenverarbeitungs- und Informationssystem mit obigen Merkmalen besteht aus einem mittleren oder großen Zentralrechner-System, das über ein Communications-Netzwerk mit einer Vielzahl von Remote-Terminals auf der Benutzerseite verbunden ist.

War ursprünglich ein derartiger Verbund rein batch-orientiert, so erlaubten später Multi-Programming-, Multi-Processing- und Timesharing-Pakete den Benutzern auch in einer weit verzweigten Organisation einen unmittelbaren und gleichzeitigen Datenzugriff sowie eine entsprechende Verarbeitung.

Auf der Hardware-Seite sorgten Datenfernübertragungs-Interfaces, Multiplexer und Front-End-Processoren für den Empfang und das Verteilen der entsprechenden Information.

Dieser traditionelle zentrale Aufbau eines Datenverarbeitungs- und Informationssystems hat sich in einer Reihe von Installationen als erfolgreich erwiesen, jedoch wurden in einigen Punkten auch die Grenzen dieses Konzeptes sichtbar:

Response-Zeit:

- Infolge der begrenzten Leistungsreserve des Zentralrechners oder der Betriebssoftware können in Stoßzeiten merkliche Verarbeitungsverzögerungen auftreten.

Zuverlässigkeit und Ausfallsicherung:

- Ein Ausfall des Zentralrechners trifft meistens das gesamte System. Brand-, Wasser- oder Sabotage-Schäden den können das Netzwerk für längere Zeit lahmlegen.

Flexibilität;.

- Spätere Erweiterungen sind meistens nur sehr schwierig durchführbar und müssen normalerweise von vornherein eingeplant werden (teuer!).

Transparenz:

- Mit der Anzahl der Benutzer wächst auch die Anzahl der Applikationen. Die durchzuführende Verwaltungsarbeit des Betriebssystems wird immer komplexer, Fehler lassen sich teilweise nur sehr schwer lokalisieren.

Der dezentrale Aufbau eines Datenverarbeitungs- und Informationssystems mit Minicomputern bietet dagegen in vielen Fällen eine echte Alternative. Das Konzept besteht darin sowohl die Daten- als auch die Verarbeitungskapazität des Systems in mehrere standardisierte Module, welche später dann nach dem Baukastenprinzip miteinander verbunden werden, zuerst einmal logisch und physikalisch zu teilen.

Diese Module können sowohl an einer zentralen Stelle installiert und über entsprechende Leitungen mit unintelligenten Terminalstationen auf der Benutzerseite verbunden werden als auch ein System bilden, das über dezentrale Intelligenz mit eigener Speicher- und Verarbeitungs-Kapazität vor Ort verfügt.

Es läßt sich keine allgemein gültige Konfiguration angeben, da ja gerade die Modularität sowohl der Hardware als auch der Software kennzeichnend für ein solches Netzwerk ist, und alle verfügbaren Komponenten wie Leitungsinterface-Einheiten, Multiplexer, Terminalstationen und Rechner praktisch beliebig kombiniert werden können.

Spezielle Software-Module sorgen für Vermittlung, Bearbeitung und Aufbereitung der Anfragen, für Datei Aufbau und -Zugriff, für Datensicherung, für Überwachung des gesamten Netzwerkes sowie den Wiederanlauf beim Ausfall eines Netzwerkteiles.

Die Vorteile eines dezentralen Datenverarbeitungs- und Informationssystems lassen sich somit wie folgt zusammenfassen:

- Ein Fehler in einem einzelnen Modul kann das Gesamtsystem nicht lahmlegen. Kritische Stationen können zu einem redundanten Doppelsystem ausgebaut werden.

- Infole des völlig modularen Aufbaues eines Systems mit identischen Standardelementen lassen sich spätere Erweiterungen des Systems ohne Störungen des Netzbetriebes durchführen.

- Aus der klaren Aufgabentrennung für die einzelnen Netzwerkmodule ergibt sich eine bessere Transparenz des Gesamtsystems.

- Die einzelnen Teile eines Netzwerkes können gewartet werden, ohne damit den Arbeitsablauf des übrigen Netzes zu beeinflussen.

- Das System kann den jeweiligen Anforderungen angepaßt werden und mit ihnen wachsen. Spätere Erweiterungen brauchen bei der Anschaffung des Systems kaum berücksichtigt zu werden (günstiger Startpreis!).

- Darüber hinaus dürften bei den augenblicklichen Preisverhältnissen die Kosten für ein Minicomputer-System günstiger liegen als die eines Vergleichbaren Zentralrechnersystems.

* Produktionsleiter bei ERA-General Automation, Aachen