Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

21.06.1996 - 

Thema der Woche/

Intel und Microsoft krempeln den Server-Markt um

DENN DER FEIND SITZT - hier irrte Platt - längst nicht mehr im Osten der USA. Nicht in Armonk, von wo die IBM auszog, die Rechenzentren der Welt mit ihren proprietären Großrechnern zu erobern. Die Gefahr auch für HP lauert an der Westküste der Vereinigten Staaten, sie kommt aus Redmond und dem Silicon Valley.

Dort schicken sich Microsoft und vor allem Intel an, die DV- Landschaften der Unternehmen umzukrempeln. Daß dies eher en passant passiert, ist, bei dem gewaltigen Interesse der Medien an den beiden Vorzeigefirmen, fast schon als Treppenwitz der DV- Geschichte zu bezeichnen.

Der Spannungsabfall des alten Amdahl-1400-Hosts war zwar durchaus ein Feierstündchen und eine Schlagzeile wert. Immerhin wollte HP damit vor den Augen von Journalisten aus aller Herren Länder dokumentieren, daß auch hausintern die Kehrtwende zu sogenannten offenen Computersystemen vollzogen sei. 5600 Unix- und 1600 Web- Server verbinden jetzt 84000 PCs und 23000 Workstations weltweit zu dem, was HP als größtes privates Computernetz der Welt bezeichnet.

Ein lupenreines Argument mithin für die eigene Hardware. Eine vermeintlich bestechende Werbung für die Welt offener Computersysteme, die bei HP mit PA-RISC-Prozessoren und Unix gleichgesetzt wird.

Genau hier aber beginnt möglicherweise der kapitale Denkfehler von Systemanbietern wie HP, IBM oder Digital Equipment: Ehedem Verfechter proprietärer Rechnerwelten, sehen sie sich nichtsdestotrotz heute gerne als Musketiere eines neuen DV- Zeitalters. Sie glauben, Unix und RISC im Schilde zu führen, reiche aus, um wie versprochen portable, skalierbare, flexible, mit einem Wort: offene Hardware zu bieten.

Was den Schwergewichten der DV-Branche zunehmend Kopfzerbrechen bereiten dürfte, ist die Innovationskraft des vergleichsweise jungen Unternehmens Intel. Ohne besondere Aufmerksamkeit in der Öffentlichkeit zu erregen, hatte der Halbleitermarktführer 1994 mit Nachdruck begonnen, Systemplatinen für PC-Hersteller zu entwerfen und zu vertreiben.

Mit der Vorstellung des P6 beziehungsweise Pentium Pro kündigte Intel 1995 darüber hinaus an, Prozessorkarten für den Pentium- Nachfolger zu entwickeln. Auf diesen ursprünglich Hercules- und später Adler-Boards genannten Erweiterungskarten sind bereits zwei P6-CPUs samt Cache-Speicher und der Intel-eigene "Orion"-Chipsatz für die I/O-Anbindungen aufgebracht. Sie stellen ein vollwertiges symmetrisches Multiprozessor- (SMP-)System dar. Zwei dieser Prozessorkarten können maximal auf eine sogenannte Standard-High- Volume- (SHV-)Systemplatine gesteckt werden: ein kompletter, hochleistungsfähiger Server mithin.

Es war diese Ankündigung, die im Trubel der Pentium-Pro- Vorstellung fast unterging, die Analysten der Paine Webber Inc. jedoch von "der wichtigsten Entwicklung der DV-Industrie" sprechen ließen, seit Compaq begonnen habe, den IBM-PC nachzubauen. Auch die Experten der Meta Group sehen Intels Platinendesign, mittlerweile als "Quad"-Boards bekannt, als wesentliche Komponente zukünftiger Server-Generationen an.

Systemanbieter wie Sequent, NCR oder Data General machen sich beim Entwurf ihrer Server neben der Intel- zudem eine andere innovative Technologie zunutze, die Speicher-Hochgeschwindigkeitsverbindung cc:Numa (cache coherent non unified memory access). Ursprünglich stammt diese Entwicklung aus den Labors der Dolphin Interconnect Solutions Inc. Numa verbindet die Speicher mehrerer geclusterter Rechnerknoten so miteinander, daß sie für den Anwender wie ein einziger großer Datenraum aussehen.

Bestechender Vorteil der Numa-Technologie im Vergleich etwa zu Systemen für massiv-paralleles Processing (MPP): Auf Applikationsebene müssen keine Veränderungen vorgenommen werden, um die Leistungsfähigkeit von Server-Komplexen voll zu nutzen. Diese können in Zukunft aus Hunderten von Prozessoren bestehen. Sequent beispielsweise plant auf Basis des stark verbesserten Prozessorplatinen-Designs von Intel - auf den Sequent-CPU-Boards stecken vier P6-Chips - Systeme mit bis zu 252 Prozessoren.

Mit solchen Entwicklungen wird, so die vorherrschende Meinung von Industriebeobachtern, einem neuen Trend in der Server-Szene Vorschub geleistet: Dieser ist gekennzeichnet durch die Verwendung von Standardkomponenten möglichst auf Basis einer einheitlichen Betriebssystem-Umgebung.

Besondere Bedeutung hat der neue Technologietrend vor allem deshalb, weil er das bislang gewohnte Preis-Leistungs-Gefüge für Server-Systeme erheblich durcheinanderbringen dürfte. Die Experten von Paine Webber haben ausgerechnet, daß mit Intels Prozessortechnologie ausgestattete Maschinen nur mehr halb so teuer sein werden wie hochleistungsfähige RISC-Server etwa von HP oder Sun.

Da in die Gesamtsystemkosten Komponenten wie Festplatten oder Arbeitsspeicher hineingerechnet werden, die sowohl in RISC- als auch in Intel-basierten Servern zum Einsatz kommen, verfälscht sich das Preisgefälle sogar noch: Tatsächlich seien "nackte" RISC- Server, so die Analysten von Paine Webber, bis um den Faktor zehn teurer als zukünftige Quad-Board-Systeme.

Solche Hochrechnungen werden gestützt von ersten Ergebnissen, die das TPC-C-Konsortium Mitte Juni 1996 veröffentlichte und die auch erste Aussagen über die enorme Leistungsfähigkeit von Intel- basierten Hosts zulassen: Danach erzielte ein "Proliant-5000"- Server von Compaq mit vier Pentium-Pro-CPUs (166 Megahertz Taktrate) ein Ergebnis von 5676,93 Transaktionen pro Minute (Tpm- C).

Wichtiger noch für den DV-Verantwortlichen sind die Kosten, die er je nach Rechner pro Transaktion ansetzen muß: bei der Compaq- Maschine 136 Dollar. Mit Ausnahme eines Ein-Prozessor-Modells von Intergraph (P6 mit 200 Megahertz Taktrate) wies kein anderes System im TPC-C-Vergleich einen ähnlich niedrigen Wert auf.

Abgesehen von DECs "Alpha-Servern" mit der Alpha-RISC-CPU 21164, die allerdings mit 350 beziehungsweise 400 Megahertz mehr als doppelt so hoch getaktet ist, übertraf das Compaq-System leistungsmäßig zudem sämtliche vergleichbaren Server, also auch alle RISC-Maschinen.

Vor dem Hintergrund solcher Ergebnisse ist die Entscheidung von Herstellern wie Data General, Netpower, Stratus oder Intergraph zu verstehen, die trotz der damit verbundenen Risiken den Architekturwechsel auf die Intel-Plattform vollzogen haben.

Mittlerweile hat ein regelrechter Run auf die Intel-Technologie eingesetzt: Alle marktbedeutenden Hersteller wollen mit mehr oder weniger optimierten SHV-Board-Designs Flagge zeigen: HP, DEC und Compaq haben entsprechende Systeme vorgestellt, die alle mit vier P6-Prozessoren ausgestattet sind.

Darüber hinaus unternehmen Hersteller wie DEC, HP, Compaq, Tandem, Stratus oder Amdahl allein oder in Kooperation mit Microsoft alle Anstrengungen, ihre SMP-Rechnerknoten zu Großsystemen zu clustern.

Microsoft macht sich im Cluster-Geschäft breit

HP macht Anleihen bei seinem aus dem HP-UX-Umfeld stammenden "MC/Serviceguard"-Tool, das es als Middleware-Layer für Windows NT vorstellen wird. Ebenfalls zwischen die Hardware und das NT- Betriebssystem zieht DEC seine "Digital-Cluster"-Software, Version 1.0, ein. Beide Werkzeuge sollen einfache Fail-over-Funktionen garantieren, das heißt, fällt ein als Knoten konzipierter Server aus, übernimmt automatisch ein zweiter dessen Aufgaben.

Dick im Cluster-Geschäft ist vor allem Microsoft. Nicht nur haben die Leute aus Redmond eine Kooperation mit DEC dazu genutzt, ihre eigene Cluster-Software "Wolfpack" auf den Stand der Dinge zu bringen. Unter anderem mit HP, DEC, Compaq und NCR arbeitet die Gates-Company auch daran, standardisierte Cluster-Schnittstellen für NT zu entwickeln. Ausgestattet mit solch einem API-Set, könnten NT-Benutzer zukünftig unter verschiedenen Hardwareplattformen auf Basis von NT wählen.

Mit Tandem, dem Marktführer fehlertoleranter Systeme, kooperiert Microsoft, um Tandems auf Routern basierende Verbindungstechnologie "Servernet" und die Middleware "Nonstop Serverware" auf NT zu portieren.

Die Finanzspritze von 30 Millionen Dollar, die Gates in das bilaterale Abkommen mit dem Hardwarehersteller investierte, galt aber insbesondere Tandems "Nonstop-SQL"-Datenbank, die Teil von Serverware ist und die Tandem als Multiplattform-Produkt jetzt auf NT portieren will.

Der Trend ist somit klar vorgezeichnet: Intel und Microsoft marschieren im Gleichschritt Richtung unternehmensweite DV. Geht es nach den Vorstellungen der beiden CEOs Andy Grove und Bill Gates, werden geclusterte P6-Numa-Rechner unter NT in nicht zu ferner Zukunft die wesentlichen Bauelemente alternativer Server- Konzepte sein.

Allerdings zeigen sich Experten eher skeptisch ob der Chancen von NT als Betriebssystem für übergeordnete DV-Aufgaben. Sie sehen das 32-Bit-Betriebssystem lediglich im Segment der Low-end- und Abteilungs-Server.

Restriktionen bei der Skalierbarkeit sind nur ein Grund für die Zweifel der Unternehmensberater und Marktforscher an der Leistungsfähigkeit von NT. Bislang ist bei vier Prozessoren das Ende der Fahnenstange erreicht. Bisherige Benchmark-Läufe seien, so ein Analyst gegenüber der CW, nie mit mehr als drei CPUs gefahren worden. Nicht mehr als ein Versprechen ist, in der Version 4.0 von NT würden sich doppelt so viele CPUs ansprechen lassen. SCO Unixware etwa unterstützt bis zu 32 Prozessoren.

Einen großen zeitlichen Vorsprung besitzen einige Systemanbieter wie Data General oder Sequent ferner bei der Entwicklung von Scheduling-Algorithmen für ihre Unix-Derivate. Nur wenn solche existieren, lassen sich zukünftige Server-Architekturen auf Basis der cc:Numa-Technologie überhaupt voll ausreizen. Für NT werde man solch eine Optimierung wahrscheinlich erst Ende 1997 zur Verfügung stellen können, meinte ein Mitarbeiter von Sequent.

Ein wesentliches Manko von NT ist darüber hinaus, wie auch etliche DV-Manager kritisieren, daß das Microsoft-Betriebssystem lediglich in 32-Bit-Technologie ausgelegt ist. Insbesondere für zukünftige komplexe Anwendungen sei die somit auf 2 GB begrenzte Speicheradressierung ein ausschlaggebendes Kriterium, sich gegen NT zu entscheiden.

Zwar beeilte sich die Gates-Company, ihren Willen zu bekunden, NT auf 64 Bit aufzustocken. Verfügbar sei diese Option für NT, so die etwas geschraubte Ankündigung, im "Windows-NT-Cairo-Zeitplan". Cairo allerdings, so ein Microsoft-Mitarbeiter gegenüber der CW, sei "erst einmal in weite Ferne" gerückt. Die Meta Group glaubt, daß das NT-Nachfolgesystem nicht vor Ende 1997 das Licht der DV- Welt erblickt.

Demgegenüber können DEC und Silicon Graphics bereits heute 64-Bit- Varianten ihrer Unix-Derivate auf ebensolchen Prozessorarchitekturen anbieten. Intel wird seine gemeinsam mit HP entwickelte 64-Bit-CPU "P7" wohl nicht vor Ende 1997 präsentieren. Wie sinnvoll allerdings Speicher mit Größenordnungen im Gigabereich unter Kostenaspekten sind, sei dahingestellt.

Bleibt eine andere Schwachstelle von NT, eine entscheidende allerdings: Während es für Unix eine Menge von Administrations-, System-Management- und Monitoring-Tools gibt, ist dieses Feld bei NT noch schwach bestellt. Zwar bieten Firmen wie Compaq auf ihren Servern Software wie den "Insight Manager" an, die gewisse Überwachungsfunktionen enthalten. In ihrer Leistungsfähigkeit lassen sie sich aber nicht mit Werkzeugen vergleichen, die DV- Manager aus der Großrechnerwelt gewohnt sind. Nicht umsonst arbeitet der ambitionierte Hersteller aus Texas deshalb mit System-Management-Entwicklern wie Tivoli, BMC Software Inc., Boole & Babbage Inc., Cabletron Systems Inc. oder der Seagate Enterprise Management Software Inc. zusammen. Analysten von Dataquest wie von IDC sagen allerdings, daß sich bei ISVs deutlich ein Trend abzeichne, der schieren Marktmacht von Intel und Microsoft nachzugeben. Diesem Sog folgend, portieren immer mehr Unix- Entwickler ihre Tools auch auf die NT-Intel-Plattform.

Noch bleibt, wie eine Dataquest-Studie über die Zahl ausgelieferter Betriebssysteme für die vier Quartale des vergangenen Jahres deutlich belegt, NT das Betriebssystem der Wahl insbesondere in PC-Server-Umgebungen. Unix dominiert demgegenüber deutlich im Segment der sogenannten Midrange- bis Hochleistungs- Server, die bislang klassischerweise aus dem RISC-Unix-Umfeld stammen (vgl. Grafik). Hieran dürfte sich in der nahen Zukunft noch nichts ändern.

Doch schon ziehen, glaubt man der Untersuchung "15th Annual Software Market Survey" des Marktforschungsinstituts Sentry Marketing Research, schwarze Wolken auf am Unix-Himmel. 50 Prozent von 700 befragten Unternehmen wollen danach bis 1999 Windows NT als strategisches Betriebssystem einführen. Das sind zwölf Prozent mehr als noch im Jahr zuvor. 49 Prozent gehen davon aus, daß NT in Zukunft sowohl ihr Computernetz verwaltet als auch auf den Tisch- PCs installiert sein wird.