Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

15.05.1992 - 

PC-HOST-KOMMUNIKATION:

Die alte Mainframe-Dominanz geht unwiderruflich zu Ende

Kritisch mit der zukünftigen Rolle der Großrechner in der unternehmensweiten

DV setzt sich Uwe Tempelmann* auseinander. Unstrittig ist dabei nach

Auffassung des Autors der Verlust der alten Mainframe-Vorherrschaft. Trotz

aller Downsizing-Diskussionen müssen die Unix- und Host-Welten jedoch keine

unüberbrückbaren Gegensätze darstellen. Entsprechende Cluster- und

Multiprocessing-Systeme tragen mit dazu bei, die neuen "Machtverhältnisse" im

Netz zu zementieren.

Im Spannungsfeld des immer schnelleren Technologiewandels im Hardware-Bereich unterliegen die Mainframes einem äußerst starken Konkurrenzdruck. Funktionen, die noch vor wenigen Jahren nur zentrale Großrechner ausüben konnten, werden mehr und mehr auf kleineren Rechner mit Mainframe-Funktionalität und Mainframe-Leistung ausgelagert. So werden oder wurden nach Angaben von IDC derzeit bereits rund 40 Prozent aller Host-Installationen auf kostengünstigere Client-Server-Konzeptionen umgestellt. Weitere 40 Prozent der Anwender ziehen einen vergleichbaren Schritt in Erwägung.

Downsizing, Rightsizing und Smartsizing sind auf dem Vormarsch-auch wenn es einige noch immer nicht wahrhaben wollen. Erst kürzlich hat-erstaunlicherweise durch eine Initiative des Marktführers-die schon seit längerem kontrovers geführte Diskussion um die Zukunft der Großrechner eine bemerkenswerte Wende erfahren: " IBM", hieß es in einer Meldung, "gibt die bisherige SNA-Philosophie auf und degradiert seine Mainframes zu High-End-Servern" (Siehe CW Nr. 13 vom 27. März 1992). Angesichts dieser Entwicklung hat die Diskussion um die genannten Begriffe eine ganz neue Qualität erfahren: Mainframes und Server, werden auf eine Ebene gestellt.

Konsequenterweise muß man sich nun fragen, wofür überhaupt ein Mainframe im Netz noch gut ist und ob nicht der Einsatz eines wesentlich billigeren Servers, der die klassischen Host-Aufgaben übernimmt, zweckmäßiger ist? Was zeichnet den Großrechner eigentlich aus? Warum halten so viele Leute an diesen proprietären Dinosauriern fest, die für einen Anwender, der mit Unix aufgewachsen ist, nur noch eines sind -nämlich teuer? Immerhin kosten Mainframe-Lösungen das bis zu Zehnfache von Client-Server-Installationen mit nahezu identischer Leistung.

Host-lnstallation muß sich amortisieren

Ein Mainframe verfügt in der Regel über eine oder mehrere leistungsstarke proprietäre CPUs, einen mehrere GByte umfassenden Hauptspeicher, über einige hundert GByte Massenspeicher sowie eine Vielzahl von I/O-Kanälen. Da die Datenverwaltung meist immer noch zentral organisiert ist, dient der Host also primär dazu, die unternehmensweiten Daten zentral in einer Datenbank zu halten, wobei sowohl die Daten als auch die Rechenleistung zentral abgerufen werden.

Aufgrund der zentralen Organisation und der damit verbundenen Merkmale ist die Installation eines Mainframes bekanntlich sehr teuer. Um sich zu amortisieren, muß ein Großrechner in der täglichen Praxis möglichst 24 Stunden laufen. Vorteilhaft für einen Mainframe ist daher die Stapelverarbeitung, hingegen können Online-Dienste meist nur mit sehr großen Aufwendungen realisiert und angeboten werden. Konsequenz: Der Anwender bekommt durch den Großrechner seine Anfragen nur selten in Echtzeit beantwortet.

Im kommerziellen Umfeld werden Online-Dienste jedoch immer weniger entbehrlich. Bei Banken, Fluggesellschaften oder großen Hotelketten sind beispielsweise Online-Bu- chungssysteme inzwischen unverzichtbar. Kritiker werden hier einwenden, das diese Forderung nun wirklich nicht neu ist; immerhin gibt es Online-Systeme mit an Großrechner angeschlossen "dummen" Terminals seit über zehn Jahren.

Dieser Einwand ist sicherlich richtig. Genauso steht aber fest, daß nicht jede Applikation, die Online-Transaktionen erfordert, gleich einen teuren Mainframe benötigt. Vielmehr ist es heute fast wirtschaftlicher Selbstmord, einen klassischen Mainframe allein für diese Aufgaben zu installieren. Dies würde zumindest das amerikanische Systemhaus Integris behaupten, das zu den größten und renommiertesten Unternehmen dieser Art zählt.

Integris hat den Begriff des "Smartsizings" geprägt und als Markennamen schützen lassen. Smartsizing heißt ebenso wie Downsizing oder Rightsizing letztlich nichts anderes, als daß man für jede sich stellende Aufgabe ein System einsetzt, das ein vernünftiges Preis-Leistungs-Verhältnis bietet und mit den Anforderungen des Kunden schritthalten kann. Ein System also, das flexibel aufgebaut und erweitert werden kann.

Betrachtet man den Mainframe-Markt, ist dieser aus zwei Gründen in Bewegung geraten: wegen den flexibler gewordenen Anforderungen des Wettbewerbs und dem technologischen Fortschritt. Vor allem der Faktor Zeit ist in unserer heutigen Marktwirtschaft das ausschlaggebende Kriterium, egal in welcher Branche. Zeit bringt entscheidende Vorteile gegenüber der Konkurrenz. Der Druck, möglichst schnell auf eine neue Wettbewerbssituation reagieren zu müssen, lastet auf allen Unternehmen. Als Reaktion auf diesen Druck reicht Automatisierung allein nicht mehr aus. Zur Anpassung des Geschäftsablaufes an die Wettbewerbssituation werden zunehmend auch strategische Anwendungen benötigt.

Der zweite Grund, weshalb die Großrechner immer mehr ihre Dominanz im Netz verlieren, ist wie gesagt der technologische Fortschritt. Neben den fast halbjährlichen Innovationszyklen im Mikroprozessor-Bereich ist vor allem die Multiprozessor-Technik, das Zusammenschalten mehrerer CPUs, zu nennen.

Die ermöglicht es, mit Standard- beziehungsweise Massentechnologie Systeme zu bauen, die die Rechenleistung von Hosts erreichen und sogar über treffen. Auch im Bereich der I/O-Systeme stehen die mit Disk-Array-Technologie ausgestatteten Server-Generationen den klassischen Mainframes in nichts mehr nach.

Weiterer Druck auf die Mainframes geht von der Software aus. Vor allem das Betriebssystem Unix hat einen immer größeren Reifegrad erreicht und ist inzwischen stabil für den Einsatz in Rechenzentren. Wichtigstes Argument für Unix und gegen ein proprietäres Betriebssystems ist die freie Wahl der Hardware-Plattform; ein Wechsel der Hardware aus technologischen oder Kostengründen bedeutet nicht zugleich einen Wechsel des Betriebssystems und somit einen Verlust der getätigten Software-Investitionen. Außerdem stehen dem Anwender unter Unix ausgereifte relationale Datenbanken aller führenden Datenbank-Anbieter zur Verfügung.

Noch vor nicht allzu langer Zeit hätte der Vorschlag, Unix im Mainframe-Bereich zu implementieren, bei so manchen EDV-Experten größere Heiterkeit ausgelöst. Heute ist das Betriebssystem Standard in fast allen öffentlichen Institutionen und Behörden-vom PC über die Workstation bis hin zum leistungsstarken OLTP-Server. Erst kürzlich hat der in Mountain View, Kalifornien, ansässige OLTP-Spezialist Pyramid Technology gemeinsam mit AT&T von der US-Finanzbehörde einen Auftrag im Gesamtwert von 1,4 Milliarden Dollar für die Installation von 3200 MIServern und 50 000 Workstations erhalten; mit ihnen soll die gesamte Datenhaltung und Kommunikation der Behörde abgewickelt werden.

Client-Server-Installationen waren schon immer flexibler und preisgünstiger als Mainframe-Lösungen. Jedoch hat man lange Zeit geglaubt, sich mit einer klassischen Lösung auf der "sichereren Seite" zu befinden. Käufe von Behörden und renommierten Unternehmen zeigen nunmehr, daß das Vertrauen in die neue, aber schon seit Jahren erprobte Technologie gewachsen ist.

Neuere Client-Server-Architekturen sind nicht nur geeignet für den Einsatz in Rechenzentren, sondern erfüllen die geforderten Funktionen in vollem Umfang.

Einer der Spezialisten auf diesem Gebiet ist das bereits erwähnte Unternehmen Pyramid Technology, das im OLTP-Bereich Systeme jeder Größenordnung anbietet. Dabei handelt es sich um Rechner mit symmetrischer Multiprozessor-Architektur und einer Leistung von über

300 MIPS. Die Unix-Rechner verfügen über eine Mainframe-ähnliche Kanalarchitektur und werden überwiegend als Server für große Datenbank-Anwendungen oder Online-Transactions-Processing eingesetzt. Sie basieren auf RISC-Prozessoren und laufen unter dem symmetrischen Multiprozessor-Unix V.4.

Die MIServer von Pyramid dienen auch als hochverfügbare Rechner, die eine Ausfallsicherheit von 99,975 Prozent, gewährleisten. Das Design dieser Systeme beruht auf einem Cluster aus zwei MIServern. Fällt ein Cluster-Rechner aus, übernimmt automatisch der zweite Server die Anwendung vom ersten System. Die Datensicherheit und -integrität wird dabei physisch durch Spiegelung auf dual-ported-Disk-Subsystemen gewährleistet.

Gemeinsame LAN- und WAN-Nutzung

Die Systeme, die um das Client-Server-Verbundmodell aufgebaut wurden, ermöglichen vielen Anwendern, Informationen über LANs und WANs gemeinsam zu nutzen. Dabei wird die gesamte Bandbreite an Rechnergrößen vom PC bis hin zu anderen Mainframes abgedeckt. Die Protokoll-Verarbeitung erfolgt getrennt über intelligente Kommunikations-Controller (ICC), so daß die CPU-Ressourcen für andere Tasks verfügbar sind.

Der offene, herstellerunabhängige Standard für die transparente, gemeinsame Nutzung von Dateien in einer gemischten Rechnerumgebung, das von Sun Microsystems entwickelte Network File System (NFS), wird von Pyramid mit einer Reihe von Erweiterungen angeboten. Wird beispielsweise NFS verwendet, um ein Pyramid-System mit einem anderen Pyramid- System zu verbinden, dann wird sowohl das att- als auch das ucb-Universum unterstützt

Client-Server übernimmt die Netzsteuerung

Darüber hinaus ermöglichen Sicherheitsvorkehrungen dem Systemverwalter, einen unberechtigten Zugriff auf das Dateisystem eines Servers zu unterbinden oder nur einen Lesezugriff zuzulassen. Zudem versetzen Quoten den Systemverwalter in die Lage, die Größe des Plattenbereichs, den ein Benutzer auf dem Server-System belegen kann, einzuschränken. Fällt ein Server oder das gesamte Netz aus, wird die Steuerung wieder dem Client-System übertragen.

All diese Kommunikationsstrukturen zusammen mit der Client-Server-Architektur und dem symmetrischen Multiprocessing zeigen: Unix und der Mainframe sind kein Gegensatz mehr. Unix ist vielmehr die ideale Grundvoraussetzung - eines offenen Systems der Mainframe-Leistungsklasse für große kommerzielle Anwendungen. Vor allem aber ermöglicht die Flexibilität der symmetrischen Multiprozessor-Rechner eine genaue Anpassung der Systeme an die Anforderungen der Anwender. Die heftige Diskussion um Downsizing, Smartsizing oder Rightsizing ist damit eigentlich gegenstandslos geworden.

*Uwe Tempelmann ist freier Journalist in München.