Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

21.06.1991 - 

Mainframes als Komponenten offener Umgebungen

Unix-Systeme bilden künftig den Kern der DV-Vernetzung

In Zukunft werden die Unternehmen ihre Datenverarbeitung am Client-Server-Konzept ausrichten. In den so entstehenden offenen Netzumgebungen behalten Großrechner zwar, so Rüdiger Buck-Emden*, ihre Bedeutung als Datenserver, doch das Rückgrat der neuen DV-Organisation bilden dann Workstations unter dem Unix-Betriebssystem, die über offene Schnittstellen verbunden sind.

Viele Unternehmen arbeiten auch heute noch mit zentralistisch orientierten Lösungen für ihre kommerzielle Datenverarbeitung. Großrechner bedienen eine Vielzahl "dummer", alphanumerischer Terminals, mit denen sie entweder lokal oder über Remote-Strecken verbunden sind.

Die Integration leistungsstarker PCs und Workstations mit der Verteilung von Daten und Anwendungen auf die verschiedenen Systeme ist bei diesen traditionellen Konzepten nicht vorgesehen. Statt dessen werden Arbeitsplatz-Systeme isoliert für spezielle Anwendungen wie zum Beispiel Text-, Grafik- und CAD-Verarbeitung eingesetzt und bestenfalls lose über Emulations- und Filetransfer-Software an den Großrechner angebunden.

Transparente Verteilung von Daten und Anwendungen

Moderne Konzepte der kommerziellen Datenverarbeitung realisieren dagegen schon heute eine enge Integration der im Unternehmen installierten Rechner auf Basis des Client-Server-Ansatzes. Ziel ist, eine für Anwender möglichst transparente Verteilung von Daten und Anwendungen auf die unternehmensweit vernetzten Systeme zu erreichen Dabei soll jeder Rechner nur die Teile der Anwendungslast tragen, für deren Bearbeitung er besonders geeignet ist.

Neben PCs und Workstations haben auch zentrale Host-Systeme in diesem Konzept ihren Platz als Datenbankserver oder für das Netzwerk-Management. Die Aufgaben eines solchen Host-Systems können je nach Anforderung sowohl von einem klassischen Mainframe oder auch von einem leistungsstarken Unix-System wahrgenommen werden.

Unix wurde vor über 20 Jahren in den Bell Laboratories als dialogorientiertes Betriebssystem speziell zur Unterstützung von Entwicklungsaufgaben konzipiert und verbreitete sich zunächst stark im Hochschul- und Wissenschaftsbereich. Bedingt durch die offene Lizenzpolitik von AT&T und die weitgehende Hardware-Unabhängigkeit, zeigten auch die Software-Anbieter Interesse an dem Betriebssystem. Hinzu kam, daß die Arbeitsplatz-Rechner immer kleiner, leistungsfähiger und zugleich preisgünstiger wurden.

Für die Systemanbieter, die immer mehr auch zu Software-Anbietern werden, schafft Unix heute die Voraussetzung, Anwendungssoftware auf sich schnell wandelnden Hardwareplattformen zeitgerecht bereitzustellen. Kommerzielle Anwender schätzen Unix besonders deshalb, weil es sich hier um ein standardisiertes, hardware- und herstellerunabhängiges Betriebssystem handelt, das auch leistungsfähige Systemarchitekturen, zum Beispiel auf RISC-Basis, unterstützt. Außerdem können Unix-Anwender aufgrund größeren Wettbewerbs bei der Beschaffung häufig ein besseres Preis-Leistungs-Verhältnis als bei proprietären Systemen erzielen.

Neben dem strategischen Nutzen zeichnen sich Unix-Systeme im Unterschied zur klassischen Mainframe-Welt durch eine Reihe von Eigenschaften aus, die im Bereich der kommerziellen Datenverarbeitung zukünftig zunehmend an Bedeutung gewinnen werden.

1. Grafikunterstützung: Unix-Systeme sind heute häufig mit leistungsfähigen Farb-Grafikschirmen oder X-Terminals ausgestattet. Zusammen mit einem geeigneten Window-System bieten sie die Grundlage für die Realisierung objektorientierter Benutzeroberflächen mit entsprechenden Formen der Benutzerführung und -interaktion. Das bekannteste Window-System ist heute das nach dem Client-Server-Modell konzipierte X-Windows vom MIT (Massachusetts Institute of Technologie), auf das die Motif-Oberfläche der OSF (Open Software Foundation) aufsetzt.

Die Grafikfähigkeiten moderner Unix-Systeme können nicht nur für die Gestaltung der Benutzeroberfläche, sondern auch direkt für neue Anwendungen genutzt werden. Beispiele im kommerziellen Bereich sind Präsentations- und Hierarchiegrafik zur Visualisierung von Daten und Strukturen (Management-Informationssysteme), die grafische Darstellung komplexer Fertigungsprozesse (Fertigungsleitstand) sowie CAD-Anwendungen.

2. Lokale Verarbeitungs- und Speicherungskapazitäten: Unix-Workstations bieten mit ihren leistungsfähigen Prozessoren sowie mit den hohen Haupt- und Plattenspeicherkapazitäten die Möglichkeit zur Bereitstellung von DV-Ressourcen an der Stelle im Unternehmen, an der sie benötigt werden. Im Zusammenspiel mit geeigneter Software lassen sich dadurch eine Entlastung von Zentralsystem und Übertragungsleitungen, ein bedarfsgerechter Ausbau der DV-Infrastruktur im Unternehmen sowie eine weitgehende Unabhängigkeit der Benutzer vom Zentralsystem und dessen Antwortzeiten erreichen.

3. Vernetzungs- und Kommunikationsmöglichkeiten: Unix-Systeme bieten eine Reihe von Kommunikations- und Vernetzungsmöglichkeiten sowohl untereinander als auch mit der Großrechner-Welt. Verbindungen können über LANs, WANs und Punkt-zu-Punkt-Leitungen auf der Basis unterschiedlicher Verkabelungssysteme realisiert werden.

Für die Kommunikation innerhalb der Unix-Welt hat sich der herstellerunabhängige Quasi-Standard TCP/IP weitgehend durchgesetzt. Daneben werden in Zukunft die ISO/OSI-Protokolle an Bedeutung gewinnen.

Leistungsunterschiede bei den Unix-Systemen

Mit dem Transport Interface XTI von X/Open steht eine Programmierschnittstelle zur Schicht 4 des OSI-Modells zur Verfügung, die es Anwendungen erlaubt, unterschiedliche Transportprotokolle wie TCP/IP oder TP4 (OSI) ohne Modifikation zu nutzen. Diese und zukünftige Schnittstellendefinitionen zu weiteren OSI-Schichten bieten Anwendungen, die auf TCP/IP und OSI-basieren, die Möglichkeit zum Aufbau von gegenseitigen Kommunikationsbeziehungen.

Die Vernetzungs- und Kommunikationsmöglichkeiten von PCs, Workstations und Host-Systemen sind Grundlage einer jeden Client-Server- und Workstation-Host-Integration. Allerdings muß gerade bei der Mainframe-Anbindung berücksichtigt werden, daß die verschiedenen Unix-Systeme hier noch erhebliche Leistungsunterschiede aufweisen (zum Beispiel Programm-zu-Programm-Kommunikation nach LU6.2/APPC beziehungsweise der X/Open-Spezifikation CPI-C).

Vorteil des Client-Server-Systems

Client-Server-Systeme bieten den Vorteil, daß nicht jede benötigte Hard- und Softwareressource auf jedem System im Netz vorgehalten werden muß, sondern nur auf speziellen, entsprechend ausgestatteten Servern. Kostenersparnisse lassen sich sowohl durch gezielte Hardware-Investitionen in den Ausbau der Server als auch durch den Erwerb von Netzwerk-Softwarelizenzen erzielen.

Speziell dann, wenn eine 24-Stunden-Verfügbarkeit verlangt wird, können Workstations aufgrund ihrer geringen Anforderungen an das Operating und die Umgebungsbedingungen als Server für zentrale Mainframes eingesetzt werden. Mögliche Anwendungen sind zum Beispiel die Meßwerterfassung, die Steuerung von Fertigungsprozessen oder die Bereitstellung von Kommunikationsdiensten.

Entscheidend für den Nutzen solcher Serveranwendungen ist deren enge Zusammenarbeit mit dem Host und den dort vorhandenen Datenbeständen und Applikationen.

4. Software-Angebot: Im PC- und Workstation-Bereich finden wir heute ein umfangreiches Software-Angebot. Beispiele sind Office-Produkte wie Präsentationsgrafik, Textverarbeitung und Tabellenkalkulation, Kommunikationsprodukte zum Beispiel für die Bereiche EDI, X.400 und Host-Kommunikation sowie CAD- und CIM-Produkte. Wichtig beim Einsatz dieser Software ist es, daß keine Insellösungen, sondern eine enge Zusammenarbeit mit dem nach wie vor notwendigen Zentralsystem und den dort vorhandenen Daten und Anwendungen realisiert wird.

Workstations und zentrale Systeme

Vielfach wird die Erwartung ausgesprochen, daß leistungsfähige PCs und Workstations im Rahmen vernetzter Client-Server-Architekturen die zentralen Host-Systeme überflüssig machen könnten. Dagegen sprechen aber sowohl technische als auch organisatorisch/administrative Gründe.

Host-Systeme sind auf absehbare Zeit weiter für spezielle Aufgaben notwendig, so zum Beispiel für die Verarbeitung sehr großer Datenmengen mit intensivem Platten-I/O oder für Transaktionsverarbeitung mit mehreren hundert Benutzern. Sicherheitsempfindliche Daten sind auf einem zentralen, leichter zu überwachenden System in der Regel besser aufgehoben als in einer verteilten Umgebung.

Außerdem erfordert der Betrieb eines großen, heterogenen Netzwerkes selbst einen hohen administrativen Aufwand mit den entsprechenden Rechnerressourcen. Schließlich muß berücksichtigt werden, daß viele Anwender hohe Summen in den Aufbau ihrer Mainframeorientierten Datenverarbeitung investiert haben und daher für sie nur ein schrittweiser Übergang in die Welt der offenen Systeme in Frage kommt.

Zu erwarten ist, daß auf absehbare Zeit vernetzte PCs und Workstations auf der einen und große Zentralsysteme auf der anderer Seite koexistieren, wobei als Zentralsystem zukünftig durchaus auch ein Unix-System denkbar ist. Grundsätzlich wird dabei die enge Workstation-Host-Integration mit direkter Programm-zu-Programm-Kommunikation an Bedeutung gewinnen. Welche Möglichkeiten zur Integration von PCs und Workstations sowie zentralen Host-Systemen heute bestehen, zeigt die folgende Übersicht:

- Die Insellösung ist die einfachste Form der Koexistenz von PCs oder Workstations und zentralen Host-Systemen. Auf den Arbeitsplatz-Systemen laufen isolierte Anwendungen wie Text- oder Grafikverarbeitung ab, eine Kommunikation oder ein Datenaustausch mit dem Zentralrechner erfolgt nicht.

- Bei der Terminal-Emulation verhalten sich die Arbeitsplatz-Rechner wie Terminals (zum Beispiel 3270, 9750, VT100) am Zentralsystem.

- Verschiedene Filetransfer-Produkte ermöglichen heute den Datenaustausch zwischen Arbeitsplätzen und dem Zentralsystem. Übertragen werden immer vollständige Dateien. Notwendige Konvertierungen (zum Beispiel von ASCII nach EBCDIC) können gleichzeitig dabei durchgeführt werden. Die Anwendungen auf den beteiligten Systemen bleiben in jedem Fall unabdingbar voneinander ohne direkte Kommunikationsmöglichkeiten.

- Eine Reihe von marktgängigen Produkten ermöglicht bereits heute die gegenseitige Nutzung von Hosts und PCs beziehungsweise Workstations als Peripherieserver. So kann der Host zum Beispiel Speicherdienste (File/Disk-Server) oder Druckerdienste (Print-Server) bereitstellen. Workstations können dem Host die Präsentation von Daten auf einem Grafikschirm ermöglichen (Presentation-Server).

- Hosts und PCs oder Workstations können sich auch als Server für Standarddienste und Anwendungen (Application-Server) gegenseitig ergänzen. So ist es möglich daß der Host als Datenbank-Server eingesetzt wird, auf den die PCs und Workstations transparent über eine Remote-Schnittstelle (Remote SQL) zugreifen. Interessant wird dabei in Zukunft unter dem Aspekt der Performance auch die Kommunikation zwischen Datenbanksystemen auf verschiedenen Rechnern und die Realisierung verteilter Datenbanken sein.

Im Kommunikationsbereich können Workstations bestimmte Dienste bereitstellen, zum Beispiel als Server für EDI, Mail,

Telex, Teletex, Telefax und Btx. Voraussetzung für die notwendige enge Form der Workstation-Host-Integration sind Anwendungsschnittstellen, die eine direkte Kommunikation zwischen der eigentlichen Anwendung und dem Standarddienst auf dem Server ermöglichen (zum Beispiel SQL-API).

- Der Verarbeitungsserver verallgemeinert das Konzept des Application-Servers für Standarddienste. Beliebige vom Anwender erstellte Programme kommunizieren über eine allgemeine Schnittstelle (Programm-zu-Programm-Kommunikation) über Rechnergrenzen hinweg. Solche Schnittstellen werden heute zum Beispiel durch die verschiedenen RPC-Produkte (von Sun, Netwise, OSF/DCE etc.), APPC/LU6.2 (IBM) und CPI-C (X/Open) bereitgestellt. Auf einer niedrigeren Abstraktionsebene stehen weitere Mechanismen, etwa die Sockets-Schnittstelle, zur Verfügung.

Alle genannten Schnittstellen ermöglichen es dem Anwendungsprogrammierer, Front- und Back-end seiner Anwendung so zu gestalten, daß die zur Verfügung stehenden Ressourcen optimal ausgenutzt werden. So werden Module mit hohem Interaktionsaufkommen auf dem PC beziehungsweise der Workstation installiert, während Komponenten mit hoher Verarbeitungs- und Kanallast auf dem Host ablaufen.

Vielfältige Synergie-Effekte

Neben dieser statischen Verteilung der einzelnen Anwendungsmodule wird auch die Möglichkeit zur dynamischen Verteilung der gesamten Anwendungslast auf alle im Netzwerk zur Verfügung stehenden Systeme an Bedeutung gewinnen. Voraussetzung dafür ist eine hochgradig modulare Software zusammen mit geeigneten Mechanismen, diese Module zur Laufzeit auf unterschiedliche Rechner zu laden und zum Ablauf zu bringen.

Moderne Konzepte der kommerziellen Datenverarbeitung überwinden die strikte Trennung von PCs und Workstations auf der einen sowie zentralen Großrechnern auf der anderen Seite. Statt dessen wird es zu rechnerübergreifenden Client-Server-Systemen mit der Verteilung von Daten, Anwendungen und Funktionen auf die im Unternehmen installierten Rechner kommen.

Bei sorgfältiger Abstimmung zwischen betrieblichen Notwendigkeiten und technischen Möglichkeiten lassen sich dadurch auch im Bereich der kommerziellen Datenverarbeitung vielfältige Synergie-Effekte erzielen. Andererseits muß auch auf die Gefahren bei einem allzu leichtfertigen Umgang mit dieser neuen Technologie hingewiesen werden.

So dürfen sich integrierte Client-Server- und Workstation. Host-Konzepte häufig nicht über eine reine Kostenargumentation, sondern nur unter Berücksichtigung des erzielbaren Zusatznutzens rechtfertigen lassen. Administration, Operating und Beratung werden bei großen, heterogenen Netzen eher teurer als billiger.

Kostspielige Fehlentscheidungen drohen, wenn bei langfristigen Investitionen, wie zum Beispiel der Unternehmensverkabelung, nur die aktuellen und nicht auch die zukünftigen Anforderungen Berücksichtigung finden. Außerdem muß beachtet werden, daß auch in der offenen Welt längst nicht alle Systeme und Komponenten so kompatibel sind, wie es die Hersteller glauben machen.

Einen Weg aus diesem Dilemma kann der Anwender nur durch sorgfältige Analyse der eigenen Anforderungen, durch gute Kenntnis des Marktes sowie durch intensiven Dialog mit Herstellern und unabhängigen Beratern finden.

*Dr. Rüdiger Buck-Emden leitet bei der SAP AG in Walldorf eine Projektgruppe zur strategischen Planung im Bereich "Workstation- und Kommunikationssoftware".