Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

16.12.1977

Hersteller sehen bei Netzwerk-Konzepten keine Probleme

Alle reden von "Distributed Intelligence" und "Network Design" - doch dabei bleibt es meistens Praktische Einsatzbeispiele gibt es bisher kaum Viele der lautstark angekündigten Netzwerk-Konzepte existieren - so behaupten jedenfalls neutrale Experten - lediglich auf dem Papier, befänden sich noch im Entwicklungsstadium An der Hardware kann es nicht liegen; Terminals, Konzentratoren, Front-End-Prozessoren etc. für den Aufbau von Netzwerken werden von einer ganz n Reihe von Herstellern angeboten Es fehlt vorerst jedoch ausgereifte Software, die eine unkomplizierte Kommunikation aller Netzwerk-Elemente miteinander ermöglicht Diese Software-"Krankheit" kennzeichnet die Situation auf dem Distributed Processing-Markt. Zu diesen Problempunkten äußerten sich DEC, HP, IBM, Siemens, Sperry Univac und SEL wie folgt:

Digital Equipment GmbH München

- Arbeiten Sie mit einem soliden Hersteller zusammen, der

- eine kompatible Computerfamilie anbietet,

- ein weitverzweigtes Software-Unterstützungsnetz hat,

- über ein leistungsfähiges und umfassendes Servicenetz verfugt,

- jahrelange Erfahrungen auf den Gebieten Echtzeitverarbeitung und Datenfernverarbeitung hat,

- und detaillierte Informationen über Geräte und Software bereitstellt.

- Sind Sie sich darüber im klaren daß ein Distributed Processing-Konzept aus folgenden "Building Blocks" bestehen muß: Aufwärtskompatible Minicomputerfamilie, Echtzeit-Software, Netzwerk-Software, Standardprozeduren für die Kommunikation mit Großrechnern, ausführliche Dokumentation, zuverlässige Produkte - hardware- und softwaremäßig - ausgezeichneter Service - hardware- und softwaremäßig - und die Sicherheit, daß der Hersteller auch "morgen" noch am Markt ist.

- Beginnen Sie klein, versuchen Sie zunächst einfache Lösungen mit Distributed Processing zu realisieren. Verfahren Sie nach dem "kiss"-Prinzip (= keep it simple/stupid).

- Versuchen Sie nicht, als ersten Schritt laufende Anwendungen umzustellen, sondern realisieren Sie i neue, autarke Aufgabenstellungen.

- Machen Sie nicht den Fehler, durch Distributed Processing einen Mainframe-Rechner ablösen zu wollen.

- Überzeugen Sie sich davon, daß Distributed Processing eine Ergänzung zu Ihrem Mainframe ist.

- Setzen Sie für Ihre ersten Distributed Processing-Projekte möglichst keine Mainframe-Spezialisten ein, ihre Denkweise ist grundverschieden von Echtzeitverarbeitung und Distributed Processing.

- Vermeiden Sie "Mixed Hardware" auf der Inselebene.

- Kaufen Sie die Erfahrung in der Konzeption und Programmierung von DP-Systemen vom Hersteller, also Hardware- und Softwareerfahrung.

- Stellen Sie sicher, daß das Management in Ihrem Unternehmen Distributed Processing als ein neues EDV-Konzept versteht und akzeptiert.

Hewlett Packard GmbH Frankfurt

Es ist auch unsere Erfahrung, daß potentielle Anwender von Distributed Processing-Netzwerken auf eine Darstellung von Leistungsmerkmalen unseres "Distributed Systems Network" zunächst skeptisch reagieren. Zu sehr wurde in den letzten Jahren über

diese Dinge geredet, zuwenig wurde realisiert.

Tatsächlich scheint jedoch mehr Leistungsfähigkeit in dem zu stecken, was der Anwender heute käuflich erwerben kann, als er zunächst zu glauben bereit ist.

Wir können daher allen potentiellen Anwendern von Distributed Processing nur dringend empfehlen, einen qualifizierten Mitarbeiter damit zu beauftragen, sich nicht nur die 4-Farben-Broschüre des Anbieters durchzulesen, sondern sich auch über eine

Vorführung hinausgehend mit einem Systemhandbuch an die Anlage eines Distributed Processing-Netzwerkes eines Anbieters zu setzen und selbst mit den verfügbaren Tools zu arbeiten. Hierbei wird sich sehr rasch zeigen, was Realität ist.

IBM Deutschland GmbH Stuttgart

Es scheint beinahe so, daß es genauso viel Vorstellungen zu Distributed Data Processing gibt wie Leute, die darüber sprechen. Auf jeden Fall handelt es sich um ein komplexes Thema. Grundlage für Hard- und Software ist aus unserer Sieht, daß Einheitlichkeit und Sicherheit - der Organisation gewahrt bleiben. Voraussetzung dazu ist ein logisch zentrales Steuerungs- und Datenbanksystem mit direkter Verbindung zu den operativen Funktionen. Höherer Nutzungsgrad der einmal vom System erfaßten Daten, intensivere Kommunikation zwischen den Funktionen, höhere Steuerbarkeit und Sicherheit des Gesamtzusammenhangs sind die Folge.

In diesem Zusammenhang möchten wir auf ein System von Regeln hinweisen, unter denen Distributed Data Processing oder die Verteilung von Intelligenz stattfinden kann. Dies ist die Systems Network Architecture (SNA), die l974 von IBM veröffentlicht wurde. Unter SNA können sowohl einfache Datenfernverarbeitungssysteme als auch komplexe Netzwerke arbeiten.

Wir unterscheiden SNA 2 und SNA 3.

SNA 2 ist charakterisiert durch die Kommunikation zwischen zentralem (Host-) System und dezentralen (Leit-) Rechnern (Controller) sowie den mit ihnen verbundenen Datenstationen. Hierzu gibt es eine ganze Reihe von Einsatzbeispielen, Wie die Stadtsparkasse München oder die Bayerische Vereinsbank.

Die Bezeichnung SNA 3 bezieht sich auf Mehrsystem-Netze. Im Oktober 1976 hat IBM eine Reihe von Programmprodukten angekündigt, die es ermöglichen, eine beliebige Anzahl von Computersystemen /370 und die m hörigen Terminal-Netze in über netter Netzen zusammenzuschließen. In den Mehrsystem-Netzen, die so entstehen, können von einer Datenstation oder von einem Anwendungsprogramm aus Systemfunktionen und Anwendungsprogramme in anderen Netzen erreicht und in Anspruch genommen werden. Die Implementierung von Mehrsystem-Netzen erfordert aufgrund der ihnen zugrundeliegenden organisatorischen Komplexität entsprechend viel Zeit

Ohne auf Details weiter eingehen zu können, möchten wir nur noch auf sogenannte Subsystemverbunde hinweisen. IBM Software- und Hardwarekomponenten sind vorhanden, werden zunehmend eingesetzt und gemäß den steigenden Anforderungen erweitert.

Siemens AG München

Schon heute arbeitet weit mehr als jede zweite Siemens-DVA mit dem Datenfernverarbeitungs-System Transdata.

Siemens hat heute hervorragende Anwendungsbeispiele für Computerleistung am Arbeitsplatz (Distributed Processing, Verteilte Intelligenz) realisiert.

Ein aktuelles Beispiel ist die Hamburger Sparkasse. Hier arbeiten in einem besonders sicheren, für minimierte Übertragungskosten konzipierten sternförmigen Netz zirka 500 "intelligente" Datenstationen.

Die Computerleistung ist über das gesamte Netz verteilt - sowohl im Verarbeitungsrechner, im Datenübertragungs-Vorrechner, im Datenstationsrechner, in der Datenstation. Ein anderes bemerkenswertes Beispiel ist das bundesweite Datennetz für die integrierte Transportsteuerung der Deutschen Bundesbahn, das die Rechnerleistung von über 20 DVA an 5000 Datenstationen bereitstellt Das Projekt befindet sich kurz vor der ersten Inbetriebnahme im Feld.

Das in beiden Fällen eingesetzte Transdata-System ist ein auf langfristigen Einsatz angelegtes Datenfernverarbeitungs- und Netzwerksystem. Es wird evolutionär weiterentwickelt um Anwendern nicht nur den nahtlosen Übergang auf zukünftige Rechnerlinien, sondern auch die Benutzung heutiger und zukünftiger öffentlicher Datennetze zu gewährleisten.

Gerade vor dem Hintergrund des umfangreichen Hardware-Angebots das nicht immer von hinreichenden Software-Lösungen begleitet wird, möchten wir noch einmal auf den von Siemens stets forcierten Gleichschritt der Hard- und Software-Entwicklung verweisen.

Damit hat Transdata alle Voraussetzungen, um "Distributed Processing" mit Erfolg in die Praxis umzusetzen. Es bietet unter anderem Hardware für unterschiedlichste Datennetzformen - das bedeutet wirtschaftlich und technisch optimale Datennetzgestaltung. Transdata bietet eine einheitliche Kommunikations-Software für unterschiedliche Betriebsarten - vom interaktiven Dialog bis zum Fernstapelbetrieb -, die individuellen Anwenderanforderungen gleichermaßen in zentral wie dezentral orientierten Unternehmen gerecht werden. Durch die klare Trennung von Verarbeitungsfunktionen und Kommunikationsaufgaben kann sich der Anwender voll auf seine spezifische Anwenderaufgabe konzentrieren.

Sperry Univac Sulzbach/Taunus

Unter dem Begriff Distributed Processing sind drei wesentliche Komplexe zu verstehen:

- Das Organisations-Konzept des Anwenders.

- Das Netzwerk-Konzept und die Software des Herstellers.

- Die Hardware zur Realisierung.

Distributed Processing ermöglicht in besonders starkem Maße die Anpassung der EDV-Struktur an die betrieblichen Erfordernisse des Benutzers. Ihre Einführung greift tief in die bestehenden organisatorischen Abläufe ein, eine reibungslose Realisierung erfordert eine sorgfältige Planung und wird daher in aller Regel nur schrittweise erfolgen, um unnötige Risiken zu vermeiden. Aus diesen Gründen befinden sich viele Unternehmen derzeit bei der Einführung des Distributed Processing erst im Planungs-,

aber noch nicht im Realisierungsstadium. Dies deckt sieh mit den Erfahrungen der Vergangenheit, wo bei Einsatz neuer Methoden stets eine gewisse Zurückhaltung und Ausschau nach Pionieranwendern zu erkennen war. Sperry Univac liefert mit DCA (Distributed

Communications Architecture) die Netzwerk-Konzeption, die Hardware-Elemente und Software-Module zur Realisierung derartiger neuer Organisationsformen.

Die Markteinführung als ein umfassendes und integriertes Gesamtkonzept erfolgt stufenweise, wobei vorrangig die Hardware-Komponenten und die Grundfunktionen der Software zur Verfügung gestellt werden. Dies deckt sich, wie oben gezeigt, mit den Erfordernissen der Praxis, da erfahrungsgemäß der Einsatz von Distributed Processing einen längeren Zeitraum für Planungs- und Testeinführung erforderlich macht.

Distributed Processing ist kein Patentrezept und enthebt den Anwender nicht von einer sorgfältigen- Planung und auf die Organisationserfordernisse abgestellten Anwendungsprogrammierung. Der Hersteller liefert hierfür das Rahmenkonzept, die Hardware-Komponenten und die Software-Hilfsmittel.

Die Einführung von Distributed Processing im Unternehmen setzt in jedem Fall ein enges Zusammenwirken zwischen Anwender und Hersteller voraus.

Standard Elektrik Lorenz AG Stuttgart

Erzeugnisgebiet Datensysteme

Wir sind der Meinung, daß es zur Zeit auf dem Markt des Distributed Processing eine Vielzahl von Konzepten und Lösungsabsichten gibt, die praktische Realisierbarkeit aber vielfach erheblich hinterherhinkt. Dabei sehen wir auch die Notwendigkeit einer wirtschaftlichen Einsatzweise von Distributed Intelligence. Voraussetzung für ein solches Konzept ist in unseren Augen jedoch eine Host-unabhängige und flexible Netzverbundtechnik .

So ist die SEL heute in der Lage, mit ihrem Datenkommunikationskonzept CNA und dessen Datenkommunikations-Rechner ITT 3805, 3807 und 3809 zusammen mit der Netzverbundsoftware Communications Network System (CNS) die Voraussetzungen für eine Implementierung von Distributed-Processing-Funktionen zu schaffen. Inzwischen ist CNS bei mehreren Installationen erfolgreich im Einsatz.

Der "Softwarekrankheit" werden wir im zweiten Sehritt, ab Anfang 1979, mit dem Data Communications Management System (DCMS) zu Leibe rücken. DCMS erlaubt den Aufbau Hostunabhängiger Netzwerke, wobei die Pfadsteuerung, das Message-Handling und die Vorverarbeitung der Transaktionen in unseren Datenkommunikationsrechnern erledigt werden. Terminals, Peripherieeinheiten und Host-Anwendungsprogramme werden hierbei als "Endbenutzer" gesehen. Unter DCMS ist der Datenaustausch zwischen jedem Endbenutzer

möglich. Der Anwender löst die ihm vorgegebene Problemstellung im Dialog zwischen seinem Terminal und dem ihm nächstgelegenen Datenkommunikationsrechner, wobei DCMS die Steuerung der Transaktionsverarbeitung und des optimalen Einsatzes der verschiedenen

Netzwerk-Resourcen übernimmt.