Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

28.02.1992 - 

SUPERSERVER

"Meine Herren, ich habe den Mainframe geschrumpft"

MÜNCHEN (jm) - Bislang galten die Systeme von DEC, HP, Wang, Unisys, Siemens, IBM oder Data General als klassische Midrange-Rechner. In dieses Leistungssegment drängten spätestens seit Sommer 1989 Anbieter, deren Produkte eigentlich nicht mehr als PCs bezeichnet werden können. Da sie jedoch neben einem starken proprietären Entwicklungsanteil auch PC-Technologie und Industriestandard-Komponenten nutzen, leistungsmäßig jedoch weit über die erst elf Jahre alte PC-Rechnerkategorie hinausreichen, stellen sie eine attraktive Alternative zu den angestammten - und oft mit proprietärer Technologie befrachteten - Minisystemen dar.

Die normative Kraft des Faktischen

Anwender, die wissen wollen, ob auf PC-Technologiegestützte Client-Server-Topologien in Zukunft die klassische Midrange- und Mainframe-DV ablösen können, sollten sich für zukünftige Investitionen tunlichst nicht bei den Systemherstellern Rat einholen.

Bis dato als proprietär geltende Systeme sind über Nacht offen wie ein Scheunentor. Diese wunderbare Wandlung ist an sich schon erstaunlich genug - ärgerlich wird es hingegen, wenn man den Eindruck gewinnen muß, daß Hersteller erst unter konstantem Druck der Anwender in der Lage zu sein scheinen, an Anwenderbedürfnissen orientierte Entwicklungsarbeit zu betreiben.

Daß DEC und HP erst jetzt mehr oder weniger zeitgleich ihre proprietären Welten über Posix-Schnittstellen öffnen, sollte der User nicht als generelles Unvermögen der Software-Entwickler verstehen, sondern als Absicherung der herstellereigenen Systemwelten, also der Unternehmensprofite. IBM sah sich bekanntlich bislang trotz unentwegter Ankündigungen nicht gezwungen, die versprochene Öffnung ihrer AS/400-Systeme zu vollziehen. Mißtrauen sollte der DV-Verantwortliche auch gegenüber den Argumenten der Midrange- und Großrechneranbieter hegen, geht es um die Leistungsfähigkeit PC-basierter Server-Systeme, die sich anschicken, Minicomputer in den Ruhestand zu schicken.

Branchenanalysten rechnen vor, daß die auf einem Compaq-486/33-Rechner erzielten 5 sogenannten Mainframe-MIPS noch vor zehn Jahren das Leistungslimit des größten IBM-Großrechners, einer 3081, darstellten. Seitdem sei die Power von Mainframe-CPUs pro Jahr um 20 Prozent gestiegen, die von PCs jedoch um über 50 Prozent. Fazit der Branchenkenner: Die Kluft zwischen PC-basierten und Großrechnersystemen in Sachen CPU-Power schließt sich sehr schnell.

Auch mit ihren teils ausgefeilten Multi-Bus-Strukturen und extensiven Speicherperipherie-Optionen reichen PC-Superserver an Großrechner und Mini-Computer heran. Bleibt der Preis: Spätestens bei diesem Argument müssen die klassischen Anbieter von Back-end-Systemen passen, sind die Mikro-Emporkömmlinge konkurrenzlos preiswert.

Ist also der Anwender immun gegen die Versprechungen der Hersteller, dann wird sich auch in der DV-Welt die normative Kraft des Faktischen durchsetzen. jm

Mainframe im PC

Superserver zeichnen sich vor allem dadurch aus, daß sie die Vorteile der PC-Technologie (Standardkomponenten) mit Leistungsmerkmalen der Großrechnerwelt (I/O- und Peripheriespeicher-Systeme) zu verquicken versuchen. Die Tricord-Architektur ist ein Beispiel hierfür: An den Systembus werden nicht nur die maximal zwei Intel-CPUs und der Arbeitsspeicher angeklinkt, auch die zu XT- und AT-Bussen kompatiblen EISA-I/O-Kanäle nutzen am Markt verbreitete PC-Entwicklungen. SCSI-Festplatten und Netzwerkkarten nach Industriestandards können in diesen Hochleistungs-Servern in der Regel ebenso zum Einsatz kommen (eine Ausnahme ist allerdings Netframe). Hinsichtlich der ausgefeilten Multi-Bus-Architekturen haben Superserver hingegen mit herkömmlichen PCs nichts mehr gemeinsam.

"Mit einem Mainframe wäre Ihnen das garantiert nicht passiert", witzelt Theodore P. Klein unter dem Gelächter der anwesenden MIS-Manager im dichtbesetzten Vortragsraum. Der President der Boston Systems Group, der als Unternehmensberater DV-Verantwortlichen Wege weg vom Großrechner aufzeigt, hat gerade die Geschichte einer New Yorker Bank erzählt, die die DV eines ihrer Geschäftsbereiche auf PC-Server-Systeme umstellte - eine Geschichte ohne Happy-End.

Einer der zwei Verantwortlichen für die Installation der Netztopologie fühlte sich nämlich bei der hausinternen Karriereplanung übergangen. Rachelüstern mietete er am Wochenende einen Kleintransporter, fuhr bei der Bank vor, lud das Herz der Installation, den Server, eigenhändig ein, vergaß - unnötigerweise - nicht, seinem Vorgesetzten die Kündigung auf den Tisch zu legen und steuerte den Hudson-River an. Was sonst nur Mafiageschädigten widerfährt, erlebten nun die - zu allem Überfluß nicht einmal anderweitig gesicherten - Daten. Kleins nicht ganz ernst gemeintes Resümee: "Waterproof sind Client-Server-Topologien noch nicht."

Trotz des denkbar ungünstigen Ausgangs für die Datenhaltung dieser amerikanischen Kleinbank verdient Klein eine ganze Menge Geld damit, seinen Kunden zu erklären, warum sich um Mainframe-Charakteristika erweiterte PC-basierte Maschinen mittlerweile als Alternative in Abteilungsumgebungen durchaus rechnen.

Downsizing in jedem vierten US-Unternehmen

Das Interesse der US-Unternehmen, zumindest einige ihrer IT-Applikationen (Informationstechnologie) auf kleinere Rechnersysteme auszulagern, ist jedenfalls weitverbreitet. Nach einer Studie von Kleins Institut, zitiert in der Wirtschaftszeitung "Financial Times" vom 27. Juni 1991, engagiert sich jedes vierte der befragten großen US-Unternehmen in Downsizing-Aktivitäten.

Mit seiner Meinung über die Zukunft von PC-basierten Client-Server-Netzen steht Klein nicht allein.

George Schussel, Herausgeber des von der Digital Consulting Inc. in Andover, Massachusetts, publizierten und monatlich erscheinenden "Downsizing Journal", ist fest davon überzeugt, daß "Downsizing in den 90er Jahren der dominante Trend in der DV-Branche sein wird", er betont: "Das gilt besonders für MIS-Organisationen", also eben nicht nur für die oft als PC-"Freaks" titulierten Abteilungsmitarbeiter, die von den RZ-Angehörigen mit Mißtrauen beäugt werden.

Barbara Bochenski, seit 30 Jahren im DV-Geschäft und momentan für ein Fortune-100-Unternehmen als Beraterin in Sachen Interoperabilität heterogener Systeme und Migration herkömmlicher Rechner in neue Topologien zuständig, formuliert es noch drastischer und plakativ: "Der Downsizing Trend ist unvermeidlich. Egal, ob man nur in Teilbereichen damit beginnt oder - ganz brutal - eine komplette Firmen-DV umorganisiert: Wer nicht heute damit anfängt, ist in den 90ern nicht mehr wettbewerbsfähig".

Besonders interessant für die Neuausrichtung der DV auf PC-Server-basierte MIS-Strukturen sind die Anbieter sogenannter Superserver: Netframe Compaq, Tricord und Parallan. Daneben widmen sich mittlerweile auch immer mehr Hersteller genuiner PC-Systeme diesem Thema: AST, ALR, Wyse AT&T, DEC und Everex etwa gehören zu den Clonern, die mit Multiprozessor-Maschinen den Markt der Hochleistungs-Server auf PC-Basis erweitern wollen.

Hilfreich ist allen diesen Anbietern, daß einige in Mainframe- und Minikreisen gerne präsentierten Vorurteile gegen die Emporkömmlinge mittlerweile in der Branche nicht mehr aufrechterhalten werden: Bereits 1990 - also schon zu einem Zeitpunkt, da nur Netframe und Compaq mit Superservern schon länger am Markt agierten, Tricord und Parallan waren seinerzeit völlige Neulinge - bestand auf der Comdex in Las Vegas unter Branchenkennern Übereinstimmung darüber, daß einige aus dem Großrechnerbereich gewohnten Leistungscharakteristika auch von Super-PCs erfüllt werden.

Fünf Entscheidungskriterien sind es dabei, die Anwender für den Kauf eines Rechnersystems ins Feld führen: I/O-Verhalten, Flexibilität, also Ausbauoptionen der Systeme, technologisches Design der Maschinen, Herstellerreputation und der zu zahlende Preis.

Anwender von Systempro- oder Netframe-Systemen äußerten sich zufrieden über die Möglichkeiten, ihre Systeme bei wachsendem Bedarf mit zusätzlichen Arbeitsstationen oder mehr Speicherplatz ausbauen zu können. Wie eine Forrester-Research-Studie zeigt (vgl. Seite 54, "Schulnoten für Superserver..."), können alle vier Server-Systeme zwischen 150 und 200 Arbeitsstationen bedienen, bis sie an ihre Leistungsgrenzen stoßen. Peripheriespeicherkapazitäten reichen bis zu 89,6 GB (Netframe = 56 Festplatten Ó 1600 MB).

Bei DB-Anwendungen Hochleistungserver nötig

Besonders in Deutschland tun sich allerdings vor allem die drei Spezialisten Netframe, Parallan und Tricord schwer, wenn es ums Image geht: Netframe kann sich zumindest mit Olivetti für das Marketing, den Vertrieb und auch den Support auf einen Partner mit bekanntem Namen stützen. Tricord arbeitet seit der CeBIT 1991 mit der

deutschen Tochter der US-amerikanischen CPT, der Kölner Computer Partner Team GmbH

(CPT), zusammen. Parallan zeigte auf der CeBIT '91 durch Nokia sein Superserver-System,

war auf der Systems '91 jedoch nicht mehr präsent. So hat sich in der Bundesrepublik bislang vor allem Compaq durch seine PC-Produkte ein Renommee aufbauen können.

Von entscheidender Bedeutung für Server-Systeme sind aber vor allem die I/O-Leistung und die Bus-Architektur, hier scheidet sich in der Regel schnell die Spreu vom Weizen: Als für Netze geeignet deklarierte PC-Server, die eigentlich nur mit einer leistungsfähigen CPU ausgestattet sind, aber weder von der Bus-Struktur noch von der Speicherperipherie als Back-end für größere Client-Server-Topologien geeignet sind, können in der Tat bei aufwendigen Datenbankapplikationen oder zeitkritischen Anwendungen mit herkömmlichen Midrange-Rechnern nicht mithalten.

Gerade bei Datenbankanwendungen bietet es sich wegen des aus der zentralen Datenhaltung resultierenden Vorteils auch bei vielen anzuschließenden Arbeitsstationen nicht an, mit Netzwerk-Bridges zu arbeiten. Hier ist nur ein Server sinnvoll. Voraussetzung hierfür ist allerdings eine extrem leistungsstarke Hardware, wie sie die vier auf solche Aufgaben spezialisierten Superserver-Systeme von Netframe, Compaq, Tricord und Parallan in unterschiedlichem Maße bieten.

Hat der Anwender nämlich sein Netz nach dem Client-Server-Prinzip eingerichtet, werden also etwa Datenbankanfragen des einzelnen Clients (Front-end-Rechner oder Arbeitsstation) auf dem Server (Back-end-System) bearbeitet und lediglich die Ergebnisse über das relativ langsame Netz geschickt, so bremst das weder die Datenanfragen anderer Arbeitsstationen signifikant, noch zwingt unnötiger Datentransfer von kompletten Datensätzen die Speicherperipherie des Servers oder die Netzleitungen an sich so schnell in die Knie.

Um die I/O-Problematik zu beseitigen, haben sich die vier Hersteller unterschiedliche Bus-Konzepte ausgedacht: Tricord etwa hängt seine (maximal 2) 486-Prozessoren, den Arbeitsspeicher und die SCSI-Speicherperipherie (maximal 42 GB Kapazität) - die wiederum über einen I/O-EISA-Kanal von bis zu zwei "intelligenten" 386-I/O-Prozessoren gesteuert wird - an einen 32 Bit breiten proprietären "Powerbus" (Weiterentwicklung des C-Busses von Corollary), der eine Transferrate von 132 MB/s erlaubt.

Tricords "IDA"-Speichersubsystem-Technologie (Intelligent Disk Array) gewährt zudem hohe Fehlertoleranz: Nach dem Raid-Prinzip (Redundant Array of Inexpensive Disks) unterstützt IDA bis zu fünf synchronisierte Festplatten, die als ein logisches Subsystem (vier Speicher- und ein Korrekturmedium) angesprochen werden. Eine sechste Platte wird im Falle der Havarie einer der anderen automatisch in dieses Speichersystem eingebunden (Hot sparing). Außerdem können Platten bei Bedarf auch gespiegelt werden.

Eine ähnliche Bus-Architektur wie Tricord bietet Parallan: Bis zu zwei CPUs kommunizieren über den 64 Bit breiten "Interprocessor"-Bus (Eigenentwicklung) mit vier "intelligenten" SCSI-Disk-Array-Controllern, die jeweils bis zu sieben Speichersubsysteme auf 5 MB/s schnellen Kanälen bedienen können. Am 64-Bit-IP-Bus des Parallan-"Server 290" hängt ferner ein 8 bis maximal 128 MB großer Arbeitsspeicher, der nach der ECC-Technologie (Error Correcting Code) funktioniert.

Die Server-290-Series-II von Parallan dürften in Sachen Fehlertoleranz der Speicherperipherie führend sein: Ihre am Raid-Level-5 ausgerichteten Platten-Arrays funktionieren im orthogonalen Sinn. Das heißt, daß Daten bei der Speicherung horizontal über Platten Arrays der vier SCSI-Kanäle verteilt werden. Das bedeutet auch, daß sogar beim Ausfall eines kompletten I/O-Bus-Subsystems oder bei fehlerhafter Funktion eines Controllers noch nicht aller Tage Abend ist.

Neben der Hot-sparing-Option - also dem Stand-by-Modus von Ersatzspeicherplatten - lassen sich havarierte Speichersysteme während des Betriebs (Hot swap) austauschen. Die Mass-Software (Maximum Availibility and Support Subsystem) stellt in Verbindung mit einer RMP-CPU (Remote Maintenance Processor) sicher, daß das System ohne Aufsicht Fehler bemerkt, diese diagnostiziert und das System gegebenenfalls automatisch herunterfährt. Zudem kann es sich selbsttätig in ein Service-Center einwählen. Größter Nachteil der Parallan-Superserver: Sie laufen bislang ausschließlich unter OS/2.

Erheblicher Systemoverhead bei Multiprocessing ...

Compaqs "Flex/MP"-Bus-Architektur weist die Leute aus Houston in gewissem Sinne noch als genuine PC-Vertreter aus: In Compaqs Dual-Bus-System greifen eine oder zwei CPUs über einen 32-Bit-Prozessor-Bus auf einen Arbeitsspeicher zu. Dieses symmetrische Multiprocessing hat den Nachteil, daß bei der dynamischen Lastaufteilung von System- und Anwendungsaufgaben die jeweiligen CPUs auf dem gleichen Datenpfad den gemeinsamen Speicher ansprechen. Um den hieraus resultierenden Flaschenhals zu vermeiden, ist intensives Caching notwendig. Zudem resultiert aus der notwendigen Speicherzugriffsverwaltung ein großer System-Overhead. Symmetrische Multiprozessor-Architekturen sind in der Anzahl der einsetzbaren Prozessoren deshalb auch stark begrenzt, zusätzliche CPUs schaffen vor allem mehr System-Overhead und nicht linear gesteigerte Systemleistung.

Um diese durch Verwaltungsaufgaben entstehende Kopflastigkeit zu umgehen, ordnet man beim asymmetrischen Multiprocessing jeder CPU einen eigenen Speicherbereich zu. Allerdings ist bei diesem Verfahren keine Lastverteilung auf mehrere CPUs möglich, es kann bei diesem Konzept passieren, daß wegen der Zuweisung von bestimmten Aufgaben einzelne Prozessoren untätig sind und andere CPUs aufgabenteilig nicht entlasten können.

Auch bei der Netzsoftware gibt es die Auslegung nach symmetrischer beziehungsweise asymmetrischer Implementierung, wobei die asymmetrisch angelegte auch auf einer symmetrischen Hardware ablauffähig ist: Banyan Vines etwa ist eine symmetrische, der LAN Manager eine asymmetrische Netz-Betriebssystem-Implementierung.

Der System- oder Cache-Bus (Compaq-Bezeichnung) des Systempro steht über einen EISA-Bus-Controller mit dem 32 Bit breiten - zu den 8-Bit-XT- und 16-Bit-AT-Kanälen kompatiblen - EISA-Bus in Verbindung, an dem die gesamte Peripherie hängt. Hierzu gehören auch die Festplatten-Arrays, die ähnlich wie bei Tricord von einem proprietären 32-Bit-IDA-Controller angesprochen werden, der die Daten beim Speichern gleichzeitig über zwei beziehungsweise bis zu acht Platten (Plattenspiegelung möglich) verteilt. Die Speichertechnologie und Fehlertoleranzcharakteristika des Systempro sind nach der in einer Studie von Forrester Research geäußerten Meinung die am wenigsten subtilen der vier Superserver.

Um die Nachteile der jeweiligen Multiprocessing-Varianten zu umgehen, wählte man bei Netframe eine Zwitterlösung: Die von den Entwicklern aus Milpitas bevorzugte Variante kombiniert asymmetrisches Design mit aus der DEC-VAX-Welt bekannten Cluster-Konzepten.

... Cluster-Mehrprocessing als Lösung des Problems

Der proprietäre MPSA-Bus (Multiprocessing-Server Architecture) unterstützt dabei bis zu vier unabhängig voneinander arbeitende I/O-Bus-Systeme. Das momentan wohl aufwendigste technologische Konzept auf dem Superserver-Markt (das allerdings auch am teuersten ist) bedient neben einem Zentral-Intel-Prozessor weitere 386SX-CPUs, die als sogenannte I/O- beziehungsweise Applikations-Server fungieren. Alle verfügen über einen dedizierten Arbeits- und Cache-Speicher, kommunizieren untereinander aber über einen verteilten Speicher.

Netframes Sicherheitskonzept bietet neben ECC- und Parity-Checking-Funktionen, Hot swap und Plattenspiegelung ebenso wie Parallans Ferndiagnose- und -Kontroll- sowie Remote-Administrations-Optionen. Noch in der Entwicklung sind bei Netframe Application Processor Boards. Auf diesen sollen - unabhängig von der System-CPU oder den I/O-Prozessoren - Anwendungen wie Datenbanken ablaufen können.