Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

15.02.1991

Das Client-Server-Konzept: Bewährungsprobe für Mainframes

Peter Page, Vorstand der Software AG, Darmstadt

Was ist los mit der Datenverarbeitung? Bisher schien doch alles klar geordnet: Da gab es die strategische "Groß-EDV", die ihren Status entweder aus dem Betrieb für das Unternehmen wichtiger Anwendungen oder großer Mainframe-Anlagen ableitete, hinzu kam eine lösungsorientierte "mittlere Datenverarbeitung", die sich weniger auf Maschinen als auf die Schaffung praktischer Lösungen konzentrierte, und es existierte schließlich die benutzerorientierte "persönliche Datenverarbeitung", bei der jeder auf dem PC seine eigenen Daten und Programme zu Lösungen zusammenstellen konnte.

Diese verschiedenen Weiten lebten getrennt mehr oder weniger friedlich nebeneinander, und es gab gute Gründe, sie getrennt zu halten. Jeder verschanzte sich mit der Überzeugung in seiner "proprietären" Welt, daß die anderen sowieso nichts von seinen Problemen verstanden und damit auch nichts zu einer Lösung beizutragen hätten.

Nun plötzlich rissen die Unix-Anhänger die DV-Verantwortlichen aus diese Idylle, indem sie behaupteten, sie hätten die universelle Lösung für alle Probleme gefunden: offen, anpaßbar, vernetzbar, ungeheuer leistungsfähig und extrem günstig im Preis-Leistungs-Verhältnis. Mit ihrer Client-Server-Technologie seien sie über kurz oder lang in der Lage, auch das Leistungsniveau größter Mainframes zu erreichen. Damit sei die Unix-Lösung die bessere Alternative für die Zukunft. Auch sei der "offene" Standard sowieso nicht zu umgehen.

Als Einstandspreis in diese neue Technologie müßten allerdings, so räumten die Unix-Anhänger ein, alle bestehenden Lösungen neu implementiert werden - was aber letztlich doch unvermeidbar sei, da ohnehin alles moderner werden müsse.

Sollen also bereits jetzt alle Mainframes "aufgegeben" werden, um an der versprochenen Kostensenkung teilzunehmen? Oder ist die neue Unix-Technologie vielleicht doch noch nicht so weit, daß sie schon jetzt alle Anforderungen einer kommerziellen EDV abdeckt? Können wir Unix ignorieren und unsere "proprietäre" Welt auch für die Zukunft abschotten - womit wir allerdings auf Dauer dem Preisniveau der Groß-EDV ausgeliefert wären? Oder müssen wir alles bisher Gewesene vergessen und uns konsequent auf die "neue Welt" einstellen womit wir dann aber für dringend zu lösende Probleme nicht auf bewährten Technologien aufbauen könnten und der "Einstiegspreis" unkalkulierbar hoch würde?

Bei aller Unix-Euphorie ist unbestreitbar, daß diese neue Technologie noch nicht unmittelbar alle Anforderungen einer kommerziellen Groß-EDV abdecken kann. Sie ist nur unzureichend in der Lage transaktionsverarbeitende Anwendungen mit einer großen Zahl von Benutzern zu betreiben, komplexe Netze zu handhaben und automatische Prozeduren für die Abwicklung von Routineabläufen aufzubauen. Die Lücken sind so groß, daß eine sofortige Umstellung nicht machbar ist. Der Mainframe ist heute für den Betrieb großer Anwendungen mit vielen Benutzern praktisch nicht zu ersetzen.

Da auf der anderen Seite aber auch die "monolithische" Groß-EDV mehr und mehr einen dezentralen "Abteilungsbetrieb" unterstützen muß - wofür die neue Technologie bereits jetzt gut geeignet ist - wird man hier um Unix nicht herumkommen. Für den Aufbau von dezentralen "Abteilungsanwendungen" ist Unix bereits heute unumgänglich.

Die Devise heißt also: sich auf neue Technologien vorbereiten, eine Migrations- und Koexistenzstrategie entwickeln und dann abwarten, wann sich die Neuerungen wirklich für alle Bereiche eignen. Hat denn aber der Mainframe aus heutiger Sicht langfristig überhaupt die Aussicht auf einen dauerhaften Platz in der neuen Client-Server-Welt, die häufig als Synonym für Unix benutzt wird?

Client-Server bedeutet mehr als ein Datenbank-System, das als Server in einem Netz fungiert. Vielmehr müssen verschiedene Dienste von der Datenverarbeitung über die Systemsteuerung und die Kommunikation bis zu den Anwendungsdiensten als Server im Netz implementiert und damit allgemein verfügbar werden.

Auch hat das Client-Server-Prinzip absolut nichts mit Unix zu tun, sondern wird nur unter diesem Begriff "vereinnahmt". Im Gegenteil: Viele Prinzipien der Client-Server-Welt wie Transaktionsmonitore, Mehrbenutzer-Datenbanken und logische Mehrbenutzer-Kommunikationsstrecken sind bereits heute in der Mainframe-Welt verfügbar, nur tragen sie das Odium der "Geschlossenheit". Das heißt, der Mainframe ist heute nicht "strategisch" auf eine Öffnung in Richtung Unix-Welt positioniert.

Das Ziel der Client-Server-Technologie ist es, ein Netzwerk von Rechnern aufzubauen, von denen jeder eine bestimmte Funktion übernimmt und sie dem Benutzer so anbietet, als seien alle zusammen einziger großer Rechner. Auch ein Mainframe könnte in ein solches Netzwerk eingefügt werden und zum Beispiel Aufgaben übernehmen, bei denen große Datenvolumen bewegt oder eine große Anzahl von Benutzern unterstützt werden muß.

Die Mainframe-Welt ist in ihren Ansätzen trotz IBMs SAA-Konzept noch sehr heterogen. Neben der /370-Welt mit ihren verschiedenen Betriebssystemen muß auch die OS/2- und OS/400-Umgebung als Teil der Mainframe-Welt betrachtet werden. Es ist festzustellen, daß Initiativen wie X/Open und OSF für Unix wesentlich schneller Vereinheitlichungen erreicht haben als die "proprietäre" SAA-Architektur.

Kann es also sein, daß die offene Unix-Welt, in der mehrere Anbieter zusammenarbeiten müssen, mehr Gemeinsamkeit entwickeln kann als ein einzelner Hersteller innerhalb seiner Angebotspalette? Es sieht so aus, und damit kann als sicher angenommen werden, daß herstellerspezifische Betriebssysteme keine Chance mehr haben, als "lndustriestandards" die Entwicklung der DV in der Zukunft wesentlich zu bestimmen - die Entwicklung von OS/2 im Vergleich zu Unix unterstreicht diese Aussage.

Der Mainframe wird sich also darauf einrichten müssen, eine Komponente in einer "offenen" Client-Server-Umgebung zu werden. Das muß nicht bedeuten, daß bestehende Betriebssysteme aufgegeben werden. Eine solche Entwicklung setzt aber voraus, daß "offene" Kommmunikationsstandards wie OSI in vollem Umfang unterstützt werden und daß für die Implementierung von Anwendungen Funktionsschnittstellen angeboten werden, die sich über die verschiedenen Welten gleichartig abbilden lassen. Heute ist dies trotz SAA in der Mainframe, Welt weder für die "moderne" SQL-Schnittstelle noch für Kommunikationsschnittstellen noch für die Benutzerkommunikation gegeben.

Was also ist nötig, um zum einen Anwendungen über Mainframe- und Unix-Umgebungen hinweg portierbar zu machen und zum anderen Kommunikations-Schnittstellen zur Verfügung zu stellen, die eine Verbindung der beiden Welten ohne Änderung der Anwendung ermöglichen?

Aus heutiger Sicht ist das nur möglich, wenn der Anwender sich Schnittstellen auf entsprechend hohem Abstraktionsniveau beschafft, die dann die Portierung der Anwendung und die Verbindung über verschiedene Welten erlauben. Für solche Schnittstellen gibt es heute leider keinen Standard - weder in der Welt der SAA-Mainframes noch in Unix-Umgebungen. Der Anwender kann sie sich jedoch entweder - bei entsprechendem Design - mit einigem Aufwand selbst schaffen, oder sie auf der Basis von herstellerunabhängigen Softwarelösungen kaufen.

Die Vergangenheit hat gezeigt, daß Anwendungen dann leicht portierbar waren, wenn sie auf einer "hohen" Schnittstellen-Ebene aufsetzten. Schwierigkeiten setzten - sogar innerhalb einer Betriebssystem-Welt - immer dann ein, wenn nur "Standard-Schnittstellen" in der Anwendungslogik eingebettet waren.

Die Rolle des Mainframes in einer Client-Server-Umgebung wird es also künftig sein, als "Transaktions-Server" zu dienen. Zunehmend wird er seine Existenzberechtigung in der Konkurrenz zu kostengünstiger und leistungsstarker Unix-Hardware beweisen müssen. Zu erwarten ist, daß der Mainframe seine bisherige Sonderstellung noch etwa fünf Jahre lang halten kann. Dann jedoch wird sie mehr und mehr in Frage gestellt.

Mittelfristig wird sich der Großrechner als gleichberechtigter Partner in "offene" Client-Server-Netze einigen müssen. Das bedeutet, daß er nicht mehr nur als "Master" auftritt, während alle anderen Rechner nur "Slaves" sind, wie es das SAA-Konzept für das Verhältnis von Mainframe (Server) und OS/2-Workstation (Client) suggeriert. Langfristig kann der Großrechner nur bestehen, wenn er eine besondere Leistung bietet - und nicht, weil seine Existenz eine strategische Bedeutung hat.

Kurz: Innerhalb der nächsten zwei Jahre wird der Mainframe sich im "offenen" Wettbewerb bewähren müssen - ob seine Befürworter das wollen oder nicht.