Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

10.06.1977 - 

IDC legt Studie vor:

Netzwerk-Optimierug mit Distributed Processing

10.06.1977

"Distributed Processing, ein Phänomen der achtziger Jahre", so leitet die IDC Deutschland GmbH eine Untersuchung über diese Technik der Netzwerk-Optimierung ein, in der sich die Marktforscher zugleich für eine Vereinheitlichung der Begriffe stark machen. Die wesentlichen Teile der lDC-Studie geben wir auf dieser Seite wieder.

Wie entwickelt sich ein verteiltes Netzwerk?

Die Initialzündung für die bestehenden Anwendungen des Distributed Processing kam durch verschiedene Komponenten in den herkömmlichen DV-Organisationen zustande:

- die Notwendigkeit einer größeren neuen Anwendung, die einen eher operationellen als administrativen Charakter hat,

- die bestehenden Computer-Ressourcen sind nahezu ausgelastet, die neue Anwendung würde also einen Ausbau bedeuten,

- bei der vorgesehenen Anwendung sind 80% der gewünschten Verarbeitungs- und Zugriffsmöglichkeiten örtlich verteilt, meistens dort, wo die Daten anfallen. IDC nennt dies die 8020-Regel,

- ein von Pioniergeist erfüllter, zum Risiko bereiter DV-Mann macht sich für das neue Konzept stark und impIementiert die Anwendung oft sogar gegen den Willen seines Managements.

Von diesen 4 Punkten sind die drei ersten unbedingt notwendig. Nur wenn diese Bedingungen erfüllt sind, ist der neue Weg gerechtfertigt.

Vorher haben die meisten Unternehmen jedoch intensive Studien getrieben, in einigen Fällen über 5 Jahre hinweg, um festzustellen, welche die beste Lösung ist. Pilotimplementierungen halfen manchmal, die Konzepte zu konsolidieren und die Machbarkeit zu beweisen. Während der Pilotimplementierung oder auch danach kann die Auswahl des Herstellers noch einmal ein halbes bis ein ganzes Jahr erfordern. Die Systementwicklung selber dauert oft zwei bis drei Jahre, daran schließt sich eine längere Testzeit an. Die Dauer der Schulung und Installation sollte nicht unterschätzt werden. Die Implantation eines Computers mitten in eine bestehende Organisation hinein kann nicht auf die leichte Schulter genommen werden. Zwei Alternativen haben sich da bewährt:

- Eine Mehrphasenentwicklung ermöglicht es den bisher nicht computergeschulten Angestellten, sich dem System langsam anzupassen und sogar noch Verbesserungsvorschläge zu machen.

- Die Realisierung eines Netzknotens nach dem anderen bietet die Möglichkeit, die Besonderheiten jedes Knotens besser zu berücksichtigen, auch kommt ein bedeutender Lerneffekt zum Tragen.

In allen Fällen lohnt es sich, behutsam vorzugehen, da Kosten- und Zeitaufwand in der Entwicklungsphase laut Aussage aller Beteiligten sehr hoch sind.

Welches sind die richtigen Anwendungen?

- Die erste Phase umfaßt die Neuprogrammierung von existierenden Batch-Programmen, diese Programme sollen anschließend in einer DFV-Umgebung laufen. Neu installierte Terminals beginnen mit der Verarbeitung von Daten, die aus den kundennächsten Anwendungen stammen, d. h. aus Gebieten wie Auftragsabwicklung, Mahnwesen.

- In der zweiten Phase werden weitere Terminals installiert, ferner kleinere dezentrale Prozessoren. Jetzt werden solche Anwendungen implementiert, die mit Kosten zu tun haben, vor allem die Lagerbestandsfortschreibung. Die Phase-1-Anwendungen werden erweitert (Abfragen, Belege drucken,Informationen für das Management). In diesem Stadium erledigt der zentrale Computer soviel Arbeit wie nur möglich. Um Belastungsspitzen abzubauen, könnte man sogar ein hauseigenes Timesharing-Netz aufziehen, um nicht auf Servicerechenzentren ausweichen zu müssen.

- Die dritte Phase umfaßt die Bereitstellung von Entscheidungshilfen für das Management. Die enormen Datenbanken, die in den beiden ersten Phasen aufgebaut wurden, werden als Basis für Simulationen benutzt. Die Verarbeitungslast der dezentralen Prozessoren wird erhöht, weitere Terminals werden angeschlossen. Das Netzwerk hat seinen Bestimmungszweck erreicht: die Benutzung als Werkzeug nicht als Produktionsmittel.

Zurückblickend können die wichtigsten Anwendungen in jeder Phase als verkaufsbezogen, lagerbezogen und managementbezogen charakterisiert werden. Die Pioniere sind heute in Phase 3, und die fortschreitende Technologie hat es ihnen erlaubt, die gewählten Losungen weiter zu verfeinern. Diese laufen nicht darauf hinaus, in wichtigen Filialen system-3-ähnliche Computer aufzustellen, sondern jeweils Hardware zu installieren, die speziell auf die transaktionsorientierten Anwendungen zugeschnitten ist.

Welche Hardware wird zur Zeit eingesetzt?

Die heutigen Anwender implementieren ihre dezentralen Anwendungen meistens mit traditionellen Minicomputern wie die von DEC und DATA GENERAL. Zum Teil werden auch intelligente Terminalsysteme wie Datapoint benutzt. AlIen gemeinsam ist, daß sie keine IBM-Produkte verwenden. Schaut man sich die Bedarfs-Checkliste der Anwender an, so wird klar, warum die Hardwarenöglichkeiten bisher sehr eingeschränkt waren:

Lokale Verarbeitungsfähigkeit ist Trumpf, diese Fähigkeit sollte transaktionsorientiert sein;

Lokale Abfragen erfordern Bildschirmterminals und interaktive Software? Bedienerführung für die ungeübten Mitarbeiter ist von Vorteil;

Verteilte Datenbanken erfordern lokale Datenbank-Management-Software inklusive Software zur Kommunikation mit der zentralen Datenbank-Software;

Datenerfassung verlangt nach einer speziellen Hochsprache;

Das Netzwerk benötigt DFÜ-Software, um die Kommunikation zwischen Knoten und Zentrale zu ermöglichen;

Die zentrale KontrolIe ist am stärksten, wenn Cross-Compiler existieren und die Möglichkeit des Down-Line-Load vorhanden ist; als Alternative kann COBOL verwendet werden,

Eine breite Produktpalette und die Möglichkeit der Miete (statt Kauf) geben dem Anwender gute Wachstumsund Upgradechancen sowie die Möglichkeit, lokale Anwendungen auch für kleinere Anwendungen und Datenmengen zu implementieren.

Die Komplexität all dieser Forderungen führt zu einer weiteren Forderung, nämlich der Unterstützung durch den Hersteller.

Was ist Distributed Processing?

- Zum Distributed Processing ist ein Netzwerk mit verarbeitungsfähigen Netzknoten erforderlich. Diese Knoten können entsprechend ihrer Funktionalität oder auch regional verteilt sein, jedoch gehört jeder Knoten zu einer ganz bestimmten organisatorischen Einheit des Unternehmens. Die Verbindungen zwischen diesen Knoten - ein Knoten kann z.B. die Zentrale sein - ist durch DFÜ-Leitungen hergestellt, doch kann die Datenübertragung in einigen Fällen auch auf andere Art und Weise gelöst werden, z. B. durch Datenträgeraustausch.

- Die Elemente einer einzigen Datenbank sind über das Netzwerk verteilt. Diese Elemente werden in bestimmten Netzknoten gespeichert, upgedated, und dort wird auch darauf zugegriffen. Das alles geschieht mit einem Minimum an Redundanz. Distributed Processing bedingt also physikalisch verteilte Datenbanken, deren Verteilung logisch einheitlich organisiert ist.

- Ein bestimmtes Ausmaß an zentraler Kontrolle ist erforderlich, um diese halbautonomen Netzknoten sinnvoll arbeiten zu lassen. Im allgemeinen wird diese Kontrolle mindestens die Koordinierung des Systemkonzeptes umfassen, insbesondere die Definition und Hierarchie gemeinsamer Datenbanken und die Spezifikation von netzwerkkompatiblen Hardwareschnittstellern.

Es ist dabei völlig unwichtig, ob das Netzwerk die Form eines Sterns, einer Hierarchie oder eines Ringes hat. Wichtig ist, daß die Verarbeitungsleistung und die Datenbanken dort sind, wo sie am meisten gebraucht werden.

Schluß mit dem Begriffs-Wirrwarr

Zur Zeit gibt es mindestens drei weitere Arten des Distributed Processing, wie es von Herstellern und Anwendern verstanden wird.

-Lastverteilung

Die Lastverteilung sorgt dafür, daß eine anfallende Verarbeitung an demjenigen Punkt eines Netzes erledigt wird, wo die geringste Belastung vorliegt. Diese Art des Herumschiebens von Aufgaben ermöglicht eine optimale Nutzung aller Ressourcen. IDC schlägt heirfür die Bezeichnung "Verteilte Lastuerarbeitung" vor (distributed load proecssing).

- Verteilte Datenerfassung

Die verteilte intetligente Datenerfassung umfaßt nur die lokale Vorverarbeitung von Daten am Entstehungsort. Später werden die Daten von der Zentrale mit einem Minimum an Fehlerkorrekturen verarbeitet. Diese Methode stellt keine Abkehr von der bisher praktizierten Methode der zentralen Datenverarbeitung dar, da die Datenbank weiterhin zentral geführt wird. Viele Anwender benutzen bereits diese intelligente Art der Datenerfassung, und IDC schlägt dafür den Namen "Verteilte intelligente Datenerfassung" wor (distnbuted data entry processing).

- Dedizierte Verarbeitung

Unabhängige, dedizierte Verarbeitung von Daten für bestimmte Problemkreise stellt nur eine Entlastung des zentralen Rechners dar und bezieht sich nur auf bestimmte Anwendungen, die unabhängig von allen anderen Anwendungen stattfinden. Minicomputer- und Terminalhersteller haben eine Reihe von solchen Anwendungen realisiert, doch sind diese Anwendungen unabhängig von Netzen und verteilten Datenbanken. IDC wird diese Art der Verarbeitung "Verteilte dedizierte Verarbeitung" nennen (distributed dedicated processing).