Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

03.09.1976

Warum denn immer gleich aufstocken?

Was tun, wenn die Systemlast die Leistungsgrenze erreicht? Natürlich aufstocken - der übliche, sehr teure Schritt, um Kapazität-Engpässe zu umgehen. Sind es nur Hauptspeicher-Erweiterungen, lassen sich heute die Kosten meist noch verkraften. Wenn es das größere CPU-Modell sein muß, wird es indes sehr teuer. Und dann kommen neue Engpässe hinzu. Bei den Kanälen, für die Speichereinheiten. Diese Erweiterungen kann man bekanntlich nicht in kleinen diskreten Schritten vornehmen. Resignieren? Ist Distributed Processing wirklich eine Alternative?

Wer fragt denn schon, ob die neuen geplanten Anwendungen wirklich auf das zentrale System müssen oder gar, ob nicht laufende Anwendungen vom Hauptrechner wieder herunter genommen werden können, um für andere Platz zu schaffen.

Dedicated Systems als Alternative

Auf dem Markt gibt es dedizierte Systeme, die auf Basis nackter Mini-Hardware und abgespeckter, spezialisierter Betriebssoftware preiswerter als Universalrechner gewisse Einzweck-Applikationen erfüllen auch angesichts des Gesetzes der Kostendegression bei steigender Systemgröße (das im Online-Bereich ohnehin nur mit Einschränkung gilt).

Etwa Dedicated File Management-Systeme, wie das angeblich - so die Werbung - "verkannte Genie" Inforex 5000. Etwa das Programmentwicklungs-Terminalsystem PET/X 1150 als Stand-Alone-System für das Programmieren im Dialog. Etwa plattenorientierte Textverarbeitungssysteme, wie sie zuhauf auf den Markt kommen.

Wird wirklich immer geprüft, ob derlei - computerunterstützte Textverarbeitung, interaktives Programmieren, Auskunftssysteme einzelner Fachabteilungen - auf dem Großrechner gefahren werden muß?

Verteilte Intelligenz und die Datenkommunikation

Die gleiche Analyse wäre nicht nur für solche Einzweck-Applikationen sinnvoll, sondern auch für viele kommerzielle Anwendungen. Lange bevor man von "Verteilter Intelligenz" sprach, hatten einige der großen "sophisticated" Anwender längst herausgefunden, daß es billiger sein kann, in Lagerhäusern, Personalabteilungen und Filialen Kleinsysteme zu installieren als die Zentralen durch mehr und größere Großrechner aufzublähen. Solche Small Business Systems (plattenorientierte MDT-Anlagen oder kommerzielle Minis) sind seither immer preisgünstiger geworden, und zwar mehr so als die Großen.

Neben Preisvorteilen spricht auch mit die erhöhte Betriebssicherheit, also weniger Sorge um den Gesamt-System-Ausfall und die Schnelligkeit, mit der solche Lösungen an der Peripherie einfach zu realisieren waren.

Natürlich hat das auch Nachteile. Da ja auch die Zentrale die Daten der "Inseln" benötigt, entstehen hohe Kosten für die Datenkommunikation, einmal durch DFÜ-Hardware, zum anderen durch Leitungsgebühren. Erstere Kosten werden immer geringer, letztere leider nicht, indes Polling zu Nachtzeiten, Übertragung nur logisch verdichteter und physisch hochkomprimierter Daten könnte möglicherweise Abhilfe schaffen.

Nachteil 2 wäre die redundante Auslegung von Peripheriegeräten. Eine "Shared Data Base" in der Zentrale weist vielleicht den Ausweg.

Sicherlich "möglicherweise" und "vielleicht" sind keine eindeutigen Aussagen. Man muß diese Fragen eben prüfen, und die Antwort wird keineswegs überall gleich ausfallen.