Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

19.10.1984 - 

Datenkommunikation im Betrieb möglichst optimal gerecht werdenLAN versus Mehrplatzsysteme:

Die Kommunikation bringt's

PCs sind ideale Einzelarbeitsplätze, wenn es darum geht kleine bis mittlere Datenmengen zu verarbeiten und zu speichern. Ein Mikrocomputer ist heute kaum noch wesentlich teurer als ein intelligentes Terminal. Ihre Grenze - die heute praktisch erreicht ist - liegt jedoch in der Information die ihnen ad hoc zur Verfügung steht: Was nützt der schnellste und stärkste PC, wenn er über die für eine Problemlösung nötigen Daten einfach nicht verfügt oder ihre Eingabe unerschwinglich ist? Über diese Rentabilitätsschwelle hilft die Datenkommunikation hinweg.

Für die überwiegende Anzahl nützlicher Anwendungen gelten die folgenden Thesen:

- Die meisten Informationen werden ausschließlich oder auch an räumlich anderen Stellen benötigt als an denen wo sie anfallen.

- Die meisten Informationen werden von mehreren Benutzern an verschiedenen Stellen benötigt.

- Viele Informationen müssen im gleichen Augenblick an unterschiedlichen Orten in gleicher Form greifbar sein.

- Die Informationsübermittlung in dezentralisierten On-Line-Systemen ist rasch, preiswert und sicher.

- Teure, spezialisierte und in den einzelnen Anwendungen besonders interessante Peripheriegeräte können nur dann lohnend eingesetzt werden, wenn sie von mehreren Computern aus parallel genutzt werden können.

In der Vergangenheit behalf man sich zur Lösung dieser Problematik mit Mehrbenutzer- ("Multiuser"-) Anlagen und mit Punkt-zu-Punkt-Datenfernübertragung über das Telefonnetz oder eigenen Standleitungen.

Dabei kommunizieren im typischen Anwendungsfeld eine Reihe lokal oder entfernt aufgestellte ("remote")-Terminals über festverdrahtete oder gewählte Leitungen mit einem großen, zentralen Computer. Damit war zwar die Übertragungsentfernung überbrückt und der Zugriff mehrerer Benutzer auf einen Datenbestand möglich, aber die brennendsten Probleme blieben ungelöst;

- Ein Datenaustausch war dabei nur im Rahmen eines geschlossenen Systems unter Teilnehmern möglich, die spezifisch aufeinander abgestimmt waren.

- Die Verwaltung vieler Benutzer ist so aufwendig, daß ein Großteil der Computerkapazität allein dafür aufgewendet werden mußte und die Antwortzeiten für den Benutzer unakzeptabel lang wurden.

- Bei Ausfall des Zentralsystems oder kritischer Teile davon ist der gesamte assoziierte Datenverarbeitungskomplex lahmgelegt "Sorry, our Computer is down"?).

- Umfassende öffentliche Dienste und Datenbanken waren im Allgemeinen nicht erreichbar.

Die Investitionen (Großanlage) und laufenden Kosten (Gebühren) einer solchen Konfiguration ließen sich in nur verhältnismäßig wenigen Anwendungen rechtfertigen.

Die Fortschritte in der Halbleitertechnologie, die immer komplexere Funktionen zu stetig sinkendem Preis zu realisieren erlaubt, und neue Erkenntnisse in System- und Netzwerkarchitektur erlauben es heute, zusammen mit einer Reihe weltweiter Standards hierfür befriedigende Lösungen und geeignete Produkte zu finden.

- Optimale Nutzung preiswerter Personal Computer

Der überwiegende Anteil von Computeraktivitäten läßt sich mit einem Personal Computer direkt am Arbeitsplatz erledigen. Es verbleibt jedoch immer eine gewisse kleine

Menge von Aufgaben, die nur von einem größeren Computer oder aber auf Basis einer an anderer Stelle verfügbaren großen Datenmenge zu erledigen ist. In der Datenkommunikation kombiniert man daher kommunikationsfähige Personal Computer und ihre Fähigkeiten über ein lokales oder öffentliches Netz mit den Möglichkeiten zentraler Großcomputer, Datenbanken oder anderer Personal Computer als Kommunikationspartner. Dadurch wirkt der lokale Personal Computer als ein intelligentes, vorverarbeitendes Terminal.

- Organisationsvorteil durch zentralen Programmabstand

Die Datenkommunikation erlaubt eine Kombination aus dezentraler und dezentralisierter EDV. Dies trifft auch für Funktions- oder Programmbibliotheken zu, die in einem offenen oder geschlossenen Netzwerk nicht mehr in jedem einzelnen Computer getrennt gespeichert sein müssen, sondern in einem oder mehreren Speicherpools angelegt sein können. Dadurch ergibt sich eine wesentlich verbesserte Pflegemöglichkeit für die so abgelegten und eine leichte Beherrschbarkeit der Variantenvielfalt, was insbesondere in Programmentwicklungsumgebungen ein unschätzbarer Vorteil sein kann.

- Peripheriekosten-Minimierung

In vielen Anwendungen ist es wünschenswert, daß einzelne Benutzer gelegentlich auf Funktionen zugreifen, die komplexe und teure Peripheriegeräte brauchen (man denke an Plotter, Lichtsatzmaschinen, Schnelldrucker). In einem Rechnerverbund können solche Peripheriegeräte in Form eines Service (Print-Server, Plott-Server und so weiter) zentralverfügbar gehalten und von allen dezentralen Benutzern ohne Zeitverzögerung verwendet werden.

- Zugriff von beliebigen Arbeitsplätzen auf spezialisierte Computer

Häufig sind Computer aufgrund ihrer Größe, der an sie angeschlossenen Spezialperipherie oder einfach aufgrund der auf ihnen ablauffähigen Anwendungsprogramme bestimmten Aufgaben fest zugeordnet. Da andererseits die Kapazität dieser Anlagen naturgemäß beschränkt ist, um eine Benutzung möglichst ohne mechanische Transportwege möglich sein sollte, bindet man derartige Spezial-Computersysteme gern in einen Rechnerverbund ein.

- Kapazitätsoptimierung

Sind mehrere Computer untereinander zusammen mit einer Reihe von Terminals verbunden, wobei jedes Terminal sich wahlfrei mit einer dieser Maschinen verbinden kann, so lassen sich in dieser Form leicht Belastungsspitzen der Computer abfangen und damit unnötige Wartezeiten vermeiden.

- Zuverlässigkeit des Gesamtsystems

Gegen das hardwaremäßige Versagen von Maschinen kann nur in Grenzen etwas getan werden, wobei der Aufwand hierfür mit erhöhten Sicherheitsanforderungen überproportional steigt. Ein Computernetzwerk dagegen hat von vornherein eine sehr große Verfügbarkeit bei vernünftigem Aufwand, solange eine entsprechende Netzwerk-Topologie wie zum Beispiel die Bus-Topologie gewählt wurde. In solchen Konfigurationen bleiben einfach die einzelnen Kommunikationspartner voneinander unabhängig, was zur Folge hat, daß bei Ausfall einzelner Teile des Gesamtnetzes die übrigen Netzteilnehmer oder Bestandteile funktionstüchtig bleiben.

Zentralisierte Lösungen mit mehrplatzfähigen Computern

Die Großrechner haben mit ihrer Dialogfähigkeit einen ersten Schritt in Richtung Benutzerfreundlichkeit und Datenaktualität gemacht: Moderne Datenbanksysteme ermöglichen schnellen Zugriff auf vielfältige Datenkombinationen. Trotz der Möglichkeit direkter Schreib- und Lesezugriffe im Dialogbetrieb kann mit einem einzigen Datenbestand gearbeitet werden. Sperrmechanismen ("Locking") verhindern, daß Daten von zwei Anwendern gleichzeitig verändert werden.

Die hohe Verarbeitungsgeschwindigkeit von mehreren Millionen Instruktionen pro Sekunde und die großen internen und externen Speicherkapazitäten ermöglichen es, auch umfangreiche Aufgaben in akzeptabler Zeit zu lösen.

Durch die zentralen Einrichtungen und das geschulte Fachpersonal im Rechenzentrum sind Sicherheitsaspekte wie Datensicherung und Zugangskontrolle verhältnismäßig einfach zu berücksichtigen.

Zentrale Systeme haben den Vorteil, daß alles auf einer Maschine durchgeführt wird. Dies ist jedoch bei einem Ausfall dieser Maschine gleichzeitig ein enormes Handikap. Vielfach wird versucht, dies mit Backup-Einrichtungen zu kompensieren, das aber geht automatisch wieder in die Kosten ein. Um die vielen parallel gestellten Aufgaben (= "Jobs" ) zu verwalten, ist ein Overhead nötig, der um so größer ist, je mehr Jobs zu bearbeiten sind.

Gerade die Zunahme der Anwendung von Textverarbeitung, Kalkulation und Graphik führt zu solchen vielen, kleinen Jobs. Sind die Antwortzeilen des Systems nicht kurz genug (von der jeweiligen Anwendung abhängig; aber sinnvollerweise unter zwei Sekunden) oder die Fehlermitteilungen nicht aussagekräftig, so empfindet der Anwender Frustration und Ohnmacht gegenüber dem System. Zusätzliche Indikatoren wie Statusanzeigen, Zugriffsgeräusche auf Massenspeicher, geben ihm dagegen bei seiner persönlichen Maschine nützliche Hinweise und das handgreifliche Verständnis, was aktuell in seinem "Werkzeug" vorgeht. Das Fehlen solcher Indikatoren dagegen schafft besagte Akzeptanzprobleme.

Die ausschließlich zentrale Verarbeitung verlangt einen hohen Datendurchsatz, da grundsätzlich die Bruttodaten übertragen werden müssen, zum Beispiel Daten plus Bildschirmmasken beim Bildschirmdialog.

Da inzwischen auch auf dem PC-Sektor genügend starke Hardware ("Super-Micros") auf Basis von l6- und 32-Bit Mikroprozessoren und geeignete Multiuser/Multitask-Software zur Verfügung stehen (als Beispiele seien hier das neue "Concurrent DOS" von Digital Research und "Unix" von Bell Laboratories/AT&T genannt), sind heute auch professionelle PC-Lösungen für typische (also zentralorientierte) Mehrbenutzeranwendungen möglich. Die Preisgrößenordnungen liegen dabei um die 40 000 Mark für das Grundgerät 5000 bis 10 000 Mark für die Backup-Einrichtung, 2000 bis 4000 Mark pro Terminal und 10 000 bis 20 000 Mark für einen leistungsfähigen Drucker (zum Beispiel Laserprinter).

Man sollte allerdings beachten daß diese Anlagen für höchstens 16 Benutzer ausgelegt sind, auch wenn die Herstellerprospekte von 32 oder gar 256 anschließbaren Terminals (..)rechen - bei mehr als vier aktiven Benutzern gehen die Wartezeiten vor dem Bildschirm so rasch hoch, daß von einer rationellen Datenverarbeitung kaum mehr die Rede sein kann, sondern man sich besser darüber Gedanken macht, welche Tips man den Sachbearbeitern geben soll, wie sie ihre Wartezeiten vor dem Bildschirm am angenehmsten "totschlagen" können.

Lokals Netzwerke mit PCs

Für Anwendungen, die hohe Rechenleistungen und intensiven Datenverkehr zwischen Benutzer und Computer erfordern, wird man daher bis zu dem Punkt , wo sich eine Großanlage lohnt, vernetzte PCs verwenden. Diese bieten dann auf der einen Seite Rechenleistung und Speicherfähigkeit "vor Ort" zu niedrigem Preis, auf der anderen Seite können sie sogar über ihrem Anschluß an ein lokales Netzwerk (LAN) untereinander oder mit angeschlossenen "Minis" kommunizieren. Beispiele hierfür sind vor allem grafische Datenverarbeitung (Business Grafik, CAD) und Textverarbeitung.

Generell gilt, daß verteilte Systeme besser an die Organisationsstruktur eines Unternehmens anzupassen sind. So wird beispielsweise beim Verkauf eines einzelnen Artikels in einem Finalgeschäft vom Verkäufer auch nicht in der Zentrale angerufen und angefragt, ob dieser Artikel in seiner eigenen Filiale vorhanden ist und dann der Abverkauf gemeldet sondern lokal der Bestand solange

fortgeschrieben bis der Mindestbestand erreicht ist. Erst dann setzt man sich mit der Zentrale in Verbindung, um eine Nachbestellung zu veranlassen.

Entspechend können lokal orientierte Aufgaben an einen dezentralen Rechner ausgelagert werden.

Den Vorteilen auf Systemseite stehen oftmals organisatorische Hürden gegenüber. So sind die vielen Einflußfaktoren (Kompetenzen) bei solchen Netzwerken nicht unterzubewerten. Hier sei nur an den häufig auftretenden Konflikt Rechenzentrum und Anwender erinnert. Nur durch klare organisatorische Schnittstellendefinition sind hier Pannen zu vermeiden.

Die stärkere Eigenverantwortlichkeit für die eigenen Daten führt zu einer leichteren Bereinigung von Datenfriedhofen.

Daten sollten sinnvollerweise dort gespeichert werden, wo sie am meisten gebraucht werden. Nur so kann man unwirtschaftlichen Datentransport und damit unnötige Kosten ebenso wie die zugehörigen Risiken (zum Beispiel Übertragungsfehler), vermeiden.

Mit jedem dezentralen System werden nicht nur ein oder mehrere Arbeitsplätze eingerichtet, sondern auch zusätzliche Prozessorleitungen in das System eingeführt. Sicherlich muß auch die Zentrale mitwachsen, jedoch bei weitem nicht in dem bei rein zentralen Lösungen gewohntem Umfang.

Verteilte Systeme erhöhen übrigens auch die Ausfallsicherheit da nur Teile und nie das Gesamtsystem ausfallen können.

So kann beim Ausfall der Zentrale in den dezentralen Rechnern die Dateneingabe weiterlaufen. Selbst Plausibilitätskontollen können noch durchgeführt werden.

Nur kommt nichts auf der Welt in reiner Form vor, so daß die Frage nahe liegt, wie man den diversen Mischformen der Datenkommunikation im Betrieb in optimaler Weise gerecht wird.

Die Antwort hierauf ist daß sich Mehrbenutzersysteme und LAN's recht gut miteinander kombinieren lassen - vor allem die Hersteller Unix-basierender Systeme tendieren in letzter Zeit stark dazu, ihre Anlagen Ethernet-kommunikationsfähig zu machen.

In einer derartigen Konfiguration und mehrere Mehrbenutzer-PC's mit drei bis acht Terminals Aber Ethernet miteinander und mit einem zentralen Datenbankrechner verbunden. Diese Lösung erlaubt ein optimales Aufteilen der einzelnen Aufgaben auf Einzelplatz- und Mehrplatzrechner in einer Weise, daß der Datenaustausch der Computer untereinander minimal wird, wodurch gleichzeitig höchster Bedienkomfort und niedrigste Reaktionszeiten erzielt werden; Peripherie- und Datenfernübertragungskosten können leicht minimiert werden.

Besonders reizvoll an diesem Konzept ist seine totale Flexibilität: Es ist kaum eine innerbetriebliche oder datentechnische Änderung vorstellbar, an die ein solches System nicht zu geringen Kosten anzupassen wäre.

*Hans-Peter Blomeyer-Bartenstein,Unternehmensberatung UBBB,München