Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

04.04.1976 - 

Grundsätzliches über Computernetze - Nicht immer spricht ein Hersteller nur von sich:

"Distributed Processing Networks sind im Kommen"

Wenn der Begriff "Computer-Netzwerk" fällt, denken viele an etwas Kompliziertes. Das ist eigentlich nicht notwendig. Die Grundbestandteile eines Netzwerkes -so banal das klingen mag - sind Computer und Leitungen, die sie verbinden. Zum Bespiele: Ein Rechner "verkehrt" mit einem zweiten. Das ist bereits ein Basis-Netzwerk. Es werden zwischen beiden Maschinen Daten hin und zurück übertragen. Programme, die auf dem einen Rechner entwickelt wurden, können auf dem anderen ausgeführt werden.

Der Zweck eines Netzwerkes ist es, jedem Anwender den Zugriff auf die Maschinenkapazitäten, Dateien und Programme, Speicher und Datenbanken jedes anderen Systems des Verbunds zu ermöglichen.

Ein typisches "Communications Network (Nachrichtenübertragungs - Netzwerk) kann aus mehreren großen Verarbeitungsanlagen, den "host machines", bestehen sowie aus einer Reihe von Konzentratoren, an die wiederum verhältnismäßig langsame Terminals angeschlossen sind. Das können Dialog- oder Batch-Terminals sein. Deshalb werden verschiedene Hard- und Software-Techniken verwendet, um zahlreiche solcher Terminals an eine einzelne Leitung anzuschließen. Der Hauptgrund dafür ist, daß auf einer Fernsprechleitung umfangreiche Transmissionen mit niedriger Übertragungsrate abgewickelt werden können.

Peripherie ist teuer

Mit Communications Networks lassen sich installierte Systeme entscheidend aufwerten. Wenn nämlich ein "Host"-Rechner zusammenbricht, kann über einen angeschlossenen "Front End"-Prozessor die gesamte Datenübertragung zu einem anderen Host innerhalb eines Netzwerkes umgeleitet werden. Es ist zwar möglich, daß die Benutzer dann eine geringfügig verringerte Leistung bemerken, aber schließlich wird ja keine Funktion eingestellt und der gleiche Service gewährleistet.

Die zweite Art von Netzwerken ist jene, in der die gesamten Elemente eines zentralen Rechnersystems allen Anwendern gleichmäßig zur Verfügung gestellt werden (Resource Sharing Networks), wobei die Teilnehmer danach trachten, ihre Hardware-Kosten zu minimieren. Dabei zeigt sich, daß die teuren Einheiten die Peripheriegeräte sind: Platten, Drucker, Bandeinheiten. Dazu ein Beispiel: Digital Equipment kündigte kürzlich einen Minicomputer mit 4 K-Hauptspeicher 4 an, der für rund 3000 Mark verkauft wird. Wenn man nun an diesen Minicomputer eine Platte anschließt, dann belaufen sich' die Kosten für die Platte zwischen 12 000 und 38 000 Mark. Diese Konstellation hat mit Nachdruck den Trend in Richtung Resource Sharing Networks beeinflußt.

Jumbo dichtgemacht

Wenn vor einigen Jahren ein Anwender Multiprogramming oder Timesharing fahren wollte, dann war er gezwungen, Speicher, Rechner und die gesamte Peripherie aufzuteilen. Heute sind die Rechner so preiswert geworden, daß sich das nicht mehr lohnt. Die Anwender ziehen es heute vielmehr vor, viele kleine Rechner zu einem großen System zusammenzuschließen, das die gesamte Peripherie benutzen kann.

Üblicherweise werden dazu private Leitungsverbindungen gewählt. Die als

Satelliten eingesetzten Minicomputer besitzen Terminals und Analog-Eingänge und können relativ unabhängig vom "Host"-Rechner operieren. Das gibt dem Benutzer den Vorteil der Echtzeit-Reaktion. Er verfügt somit über eine Reihe von Minicomputern, von denen jeder sich zu einer bestimmten Zeit voll und ganz einem bestimmten Problem widmen kann.

Zweitinstallation nicht sinnvoll

Die dritte Form der Netzwerktechnik ist das "Distributed Processing System". Die Ziele sind hier eine vermehrte Flexibilität und Modularität sowie eine verbesserte Zuverlässigkeit P des gesamten Systems. Vor einigen 9 Jahren noch implementierten die Anwender komplizierte Abwendungen auf einem Rechner. Stellte man nun besonders hohe Ansprüche an die Einsatzbereitschaft des Systems, so wurde einfach das gesamte System, einschließlich der kompletten Peripherie ein zweites Mal installiert (Backup). Fiel nun einmal ein System aus, so konnte man sehr schnell auf das andere überwechseln. Diese Vorgehensweise führte jedoch dazu, daß das System mit der Zeit nach allen Seiten hin ausuferte.

Arbeitspferd BYSINC

Heute bevorzugen viele Anwender deshalb eine zweckmäßigere Vorgehensweise beim Aufbau und bei der Installation komplexer Systeme: Sie nehmen einen Minicomputer und übergeben ihm die Kontrolle über eine Teilaufgabe, wie etwa die Steuerung eines Material-Ausgabesystems. Ein zweiter Computer übernimmt dann die Prozeßsteuerung, ein dritter überwacht die Inventur und führt den Lagerbestand. Jetzt, da die Kapazitäten für den Datenaustausch im Echtzeit-Modus existieren, gibt es viele Möglichkeiten, ein Problem von verschiedenen Seiten gleichzeitig anzupacken.

Im Gegensatz zum Communications Network ist es beim Distributed Network einfach, anwendungsbezogene Codes und Daten auf irgendeiner Stufe in das Netzwerk einfließen zu lassen.

Nun zu den Übertragungsverfahren:

Die heute wohl bekanntesten Prozeduren sind BISYNC, SDLC und DDCMP. Die Prozedur von Digital Equipment ist DDCMP (Digital Data Communication Message Protocol). IBM nennt seine neue Prozedur SDLC (Synchronous Data Link Control). Beide, SDLC und DDCMP, sind "high level"-Prozeduren mit vielen Gemeinsamkeiten. BISYNC ist das gegenwärtige Arbeitspferd im Geschäft der Datenübertragung. Diese Prozedur wurde Mitte der 60er Jahre entwickelt und ist ein Produkt dieser Zeit. Das Handicap von BISYNC ist bekanntlich, daß es erst einige Daten überträgt und dann auf den Eingang der Quittung wartet, bevor erneut gesendet wird.

DDCMP kontra SDLC

SDLC wird unzweifelhaft die Prozedur sein, die die meisten Anwender in der Zukunft einsetzen werden.

Der Grund, warum DEC eine eigene. von SDLC unterschiedliche Prozedur entwickelte, ist, daß DDCMP mit mehreren Übertragungsverfahren arbeitet: Synchron, asynchron und parallel. Eine der Einschränkungen in SDLC ist nämlich die Beschränkung auf die synchrone Datenübertragung. Wenn nun ein Anwender daran interessiert ist ein kostengünstiges Netzwerk ? asynchronen Einheiten aufzubauen und er eine hohe Leistung erwartet, dann verlangt das Netzwerk nach parallelen Interfaces. Hier ist SDLC zweifellos nicht die geeignete Prozedur. Digital Equipment will - von diesem Punkt ausgehend t e-. weitergehen: DDCMP arbeitet mit der vorhandenen Hardware, die auch BISYNC unterstützt.

Das Neunfache fürs gleiche Geld

Die Trends in der Computer-Technologie unterstützen das Argument daß sich Netzwerke zukünftig verstärkt durchsetzen werden. Ein Beispiel mag dies hinreichend erläutern: Die Kosten für die elektronischen Teile einschließlich der Rechner, Speicher und Bildschirm-Terminals ermäßigen sich pro Jahr um rund 30 Prozent. Die Preise für elektrotechnische Peripheriegeräte wie Platten und Drucker dagegen haben sich in der Vergangenheit kaum verringert, weil die Innovations-Kurve der mechanischen-Technologie wesentlich flacher verläuft als die der elektronischen. So kostete vor einigen Jahren eine Platte mit 10 Millionen Bytes rund 50000 Mark. Für das gleiche Geld bekam man dann 20 MB, später 40 MB und heute 88 MB.

In anderen technologischen Bereichen - namentlich in der Papierindustrie, aber auch im Verbrauchsgütersektor, - nehmen die Kosten ständig zu. Die Preise für Zeilendruckerpapier haben sich in den letzten Jahren verdoppelt. Auch der körperliche Datentransport mit der Post ist teuer geworden und auch hier weist die Tendenz weiter nach oben.

Teilen mit Kollegen

Es wird auch verstärkt der Druck zunehmen, die umfangreiche Skala der Peripherie wie große Platten, schnelle Drucker und leistungsstarke CPUs unter möglichst viele Anwender aufzuteilen. Wenn sich zehn Anwender mit zehn eigenen Systemen in eine 88 Millionen Bytes Platte teilen würden, so erhielte jeder mehr als 8 Millionen Bytes. Das ist eine respektable Größe für die meisten Anwendungen.

Wie auch immer, die Nachrichten - Netzwerke sind im Kommen und Distributed Processing wird in zunehmendem Maße einfacher und wirtschaftlicher.

*Helmut Peröbner ist Marketing Manager Zentraleuropa, Bereich kommerzielle Datenverarbeitung.

Digital Equipment GmbH, München.