Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

21.06.2002 - 

IBM P670, HP RP8400 und Sun Fire 12K

Unix-Server mit Highend-Flair

MÜNCHEN (kf) - Mit Highend-verdächtigen Midrange-UnixSystemen versuchen sich IBM, Sun und Hewlett-Packard (HP) derzeit gegenseitig das Wasser abzugraben. Ausgestattet mit ausgefeilten Partitionierungs- und weiteren Hochverfügbarkeitsmerkmalen, sollen sich die "kleineren Geschwister" der jeweiligen Topmodelle zur Konsolidierung von Server-Landschaften eignen und damit Komplexität und Kosten in Firmenrechenzentren reduzieren. Allerdings gibt es zwischen den Hardwareangeboten kleine, aber feine Unterschiede.

Im Ringen um Anteile im Midrange-Segment des ermatteten Unix-Server-Markts liefern sich IBM, Sun und HP seit einiger Zeit einen heftigen Dreikampf. Nutznießer des Marktgerangels sind nach Ansicht von Branchenexperten Unternehmen, die hinsichtlich ihrer Server- und Applikationslandschaft zwar Bedarf an hoher Funktionalität haben, deren finanzieller Rahmen der Erwerb eines Mammutmodells jedoch sprengen würde. Mit ihren Mittelklasse-Maschinen "Regatta P670" (IBM), "Sun Fire 12K" (Sun) beziehungsweise "RP8400" (HP) versprechen die drei Branchenschwergewichte Unix-Server mit dem Highend-Flair ihrer großen Brüder "Regatta P690", "Sun Fire 15K" ("Starcat") respektive "Superdome" - zum günstigen Midrange-Preis.

"Bei den drei Modellen handelt es sich eindeutig um ,Edelmetall''", bewertet Henrik Klagges, Managing-Partner des Beratungsunternehmens TNG Consulting, das Midrange-Angebot der drei Unix-Rivalen. Der Gattungsbegriff "Mittelklasse" bedeute hier praktisch keine Einschränkung mehr in Qualität oder Highend-Features, sondern beziehe sich nur auf Preis und absolute Kapazität beziehungsweise die maximale Anzahl integrierbarer CPUs, so der Consultant.

Kostengünstige Highend-Technik

Hinter den Diätvarianten der Topmodelle verbergen sich nach Meinung von Marktexperten nicht zuletzt die akuten Absatznöte der Unix-Anbieter: Angesichts der Investitionszurückhaltung der Unternehmen sei es für die Hersteller zunehmend schwieriger, genügend Kunden zu finden, die ein Minimum von rund einer Million Dollar für den Einstieg in anspruchsvolle Plattformen à la Regatta, Starcat oder Superdome ausgeben wollen. "Um ihre Highend-Techniken dennoch an den Anwender zu bringen, haben sie diese kurzerhand auf Midrange-Maschinen heruntergebrochen und preislich zurechtgestutzt", interpretiert Andrew Butler, VP und Research Group Director bei Gartner. "Merkmale wie die Partitionierung waren bis vor kurzem in Midrange-Unix-Servern nicht zu finden", bestätigt auch IDC-Analyst Jean Bozman.

Marktexperten betrachten die Mittelklasse-Angebote der Server-Hersteller mit grundsätzlichem Wohlwollen. "Wir sehen interessantes Potenzial für IBMs P670, HPs RP8400 und Suns 12K", so Butler. Angesichts ausgefeilter Funktionen wie logischer oder physischer Partitionierung und anderer Hochverfügbarkeitsmerkmale, die bislang ausschließlich dem obersten Highend vorbehalten waren, prognostiziert der Analyst allen drei Plattformen Markterfolge.

Vor dem Hintergrund, dass es sich bei den drei Modellen um "Multidomain"-Maschinen handelt, die in der Lage sind, auf einem Server mehrere Betriebssystem-Instanzen ablaufen zu lassen, sieht Gartner-Analyst Butler die Angebote der Unix-Konkurrenten als dedizierte Umgebung für heterogene Arbeitslasten, sprich "Mixed Workloads". Dabei handelt es sich um Applikationen, die - sowohl grundsätzlich als auch temporär - unterschiedliche Anforderungen an die Rechenleistung stellen. Die Art der Partitionierung, nach der ein symmetrischer Multiprozessor-Rechner (SMP) in mehrere eigenständige Einheiten unterteilt wird, hält der Server-Experte daher für ein Differenzierungsmerkmal, das es zu beachten gilt. "Es besteht ein deutlicher Unterschied zwischen der logisch partitionierten IBM-Plattform und den Systemen von HP und Sun, die physisch partitioniert sind", differenziert der Gartner-Mann.

Die logische Partitionierung ist grundsätzlich softwaregestützt oder findet - wie bei IBM - auf Firmware-Ebene statt. Big Blues seit April verfügbarer P670, der sich mit vier bis 16 Prozessoren bestücken lässt (siehe CW 15/02, Seite 6), hat das aus dem Mainframe-Bereich entlehnte Prinzip der logischen Partitionierung (LPARs) seines großen Regatta-Bruders P690 geerbt: Dabei rechnet ein "Hypervisor", der sich im Systemspeicher befindet, die physischen Memory-Blöcke jeweils in logische Einheiten für die einzelnen LPARs um.

Vorteile durch logische Partitionierung

Als deren Vorteil sieht Butler die im Vergleich zur reinen Hardwarepartitionierung höhere Granularität - ein nach Angaben des Experten gerade für die Flexibilität in Mixed-Workload-Szenarien wichtiges Merkmal. Dabei kann sich diesbezüglicher Spielraum auch vorteilhaft auf die Kosten auswirken. Der Grund: Je feiner sich Systeme unterteilen beziehungsweise je flexibler sich die Rechnerressourcen auf die einzelnen Einheiten verteilen lassen, desto eher ist zu vermeiden, dass wertvolle und teure Ressourcen in Partitionen mitwandern, die dort keine unmittelbare Funktion haben.

Bei IBMs P670 lassen sich bis zu 16 Partitionen - darunter auch kosteneffektive Single-Prozessor-Einheiten - erstellen, was eine höhere Anzahl "virtueller Server" als bei den Konkurrenzprodukten von Sun und HP ermöglicht. Letztere erlauben keine Partitionen unter zwei (HP) beziehungsweise vier (Sun) Prozessoren.

Auswirkungen auf Verfügbarkeit

Schwächen weist ein logisch partitioniertes System wie Big Blues jüngster Regatta-Server aus Gartner-Sicht allerdings in Sachen Hochverfügbarkeit auf: So geht die höhere granulare Kontrolle des jüngsten Regatta-Sprosses nach Meinung von Butler auf Kosten der elektrischen Isolierung zwischen den einzelnen Server-Einheiten. "Bei den hardware-partitionierten Systemen von Sun oder HP ist die Wahrscheinlichkeit, dass ein Fehler in einer Einheit die Nachbarpartition in Mitleidenschaft zieht, praktisch gleich null", so der Spezialist. Im Fall etwa von IBM sei hingegen nicht ganz auszuschließen, dass ein schwerwiegendes Problem in einer logischen Einheit weitere, im schlimmsten Fall sogar alle anderen Partitionen mit in die Knie zwinge. Im Zusammenspiel mit Big Blues Mainframe-Betriebssystem hält Butler den LPAR-Ansatz zwar für ein nahezu unzerstörbares Design. "Wir bezweifeln jedoch, dass irgendein bisheriges Unix diesen Grad an Robustheit innerhalb des Betriebssystems bietet", gibt der Analyst zu bedenken.

"Indem wir die Systeme nicht mehr physisch unterteilen, lässt sich natürlich auch keine Partition reparieren, während eine andere läuft", stimmt Peter Pötschulat, IT-Architekt für IBMs Unix-Server der "P-Series", dem Gartner-Experten zu. Dennoch handle es sich auch bei IBMs LPARs um logisch separate, abgegrenzte Einheiten, die sich in keinster Weise gegenseitig beeinflussen würden. Grundsätzlich, so Pötschulat, wolle IBM mit der Regatta-Server-Reihe aber eine ganz neue Richtung einschlagen. So sollen innerhalb der nächsten fünf Jahre Selbstheilungskräfte aus Big Blues "Eliza"-Schmiede im Team mit den LPARs gerade vermeiden, dass ein "autonomer" Server überhaupt noch repariert werden muss: Im Defektfall werde die Maschine integrierte Ersatzteile automatisch nutzen - folglich gelte es dann auch keine physischen Partitionen mehr abzuschalten.

Die Hardware-Alternative

Anders als bei IBMs LPAR-Prinzip besteht bei der Hardwarepartitionierung eine physische Barriere zwischen den einzelnen System-Units, die durch "Building-Blocks" mit einer bestimmten Anzahl von Prozessoren, Speichereinheiten sowie I/O-Adaptern festgelegt sind. Suns hardwarepartitionierter, mit vier bis 52 CPUs ausgestatteter Server Sun Fire 12K (siehe CW 16/02, Seite 17), der seit diesem Frühjahr auf dem Markt ist, erlaubt die Einrichtung von maximal neun System-Domains. Zwar bietet Sun wie IBM und HP innerhalb der Partitionen rein softwarebasiertes Workload-Management, laut Butler handelt es sich dabei jedoch um ein Merkmal, das häufig "irreführend als ''Partitionierung'' bezeichnet wird".

HP verfolgt mit dem seit September 2001 erhältlichen RP8400, der zwei bis 16 CPUs beherbergen kann, bei der Partitionierung eine Art Mischkonzept: Lässt sich der "kleine Superdome" derzeit hardwareseitig in zwei Server-Einheiten aufteilen (siehe CW 39/01, Seite 24), soll HPs Midrange-Bolide ab Herbst zusätzlich auf Softwarebasis in bis zu 16 Units zu unterteilen sein.

Die virtuellen Partitionen (VPARs), die innerhalb einer SMP-Einheit erstellt werden können und seit gut acht Monaten bei den "RP7400"- und "RP5400"-Servern (ehemals N- beziehungsweise L-Klasse) zum Einsatz kommen, sind laut Frédéric Glaser, Marketing-Leiter für HP-UX-Server, im laufenden Betrieb dynamisch veränderbar und können ebenfalls aus nur einer CPU bestehen. "Indem man einer Partition Prozessoren hinzufügt oder wegnimmt, lässt sich die Leistung an den jeweiligen Workload anpassen", erklärt der HP-Marketier. Die derzeitige Granulariät des RP8400 betrage zwei bis acht CPUs pro Partition. Aus Gartner-Sicht ist HPs Softwarepartitionierung im Prinzip mit demselben Problem einer mangelnden elektrischen Isolierung verbunden wie der Firmware-basierende IBM-Ansatz. "Bei HP kann dieses Manko jedoch wenigstens keine Auswirkungen auf die Betriebssysteme in den anderen Hard-Partitions haben", räumt Analyst Butler ein.

Mehr oder weniger statische Partitionen sind besser als gar keine, noch besser sind jedoch dynamische Partitionen mit virtualisiertem Prozessor, Speicher und I/O-Komponenten. "Bislang wurde lediglich konfigurierbare Partitionierung angeboten, mit deren Hilfe sich die Systemeinheiten zwar verändern lassen - allerdings nicht im laufenden Betrieb", bemängelt Butler. Sun hat hier allerdings mittlerweile seine Hausaufgaben gemacht: So spendierte der Hersteller vor einigen Wochen auch seinen Sunfire-Servern 15K und 12K die Fähigkeit, Partitionen dynamisch umzukonfigurieren - eine Funktion, die die "E10 000"-Server der McNealy-Company bereits seit geraumer Zeit bieten. Dadurch lässt sich Ressourcenzuteilung modifizieren, ohne dass das System neu gebootet werden muss. Nach Angaben von Ingo Frobenius, Produkt-Manager Highend-Server bei Sun-Deutschland, werden sich in einem nächsten Schritt auch alle I/O-Komponenten dynamisch bewegen lassen.

Laut IBM-IT-Architekt Pötschulat ist auch für den P690 sowie den P670 ein Firmware-Update geplant, das die dynamische Konfiguration der logischen Partitionen ermöglichen soll und voraussichtlich im vierten Quartal dieses Jahres erhältlich sein wird. HPs RP8400 wiederum wird die dynamische Partitionierung laut Marketier Glaser ab Herbst 2002 im Zusammenspiel mit den VPARs unterstützen.

Anzahl der CPUs - Quantität oder Qualität?

An der maximalen CPU-Anzahl lässt sich die Überlegenheit eines Systems laut Gartner nicht eindeutig ablesen. IBM, das bei seinen Regatta-Servern auf wenige, aber leistungsstarke Prozessoren setzt, propagiert derzeit recht erfolgreich den Performance-Vorteil seiner Power-4-Technologie (siehe CW 42/01, Seite 18). "HP und Sun haben technologisch angesichts des Power-4-Prozessors keine Chance, auch nur annähernd vergleichbare Leistungsdaten zu liefern", ist sich Pötschulat sicher. Auch in Sachen Preis-Leistungs-Verhältnis wähnt sich IBM im Vorteil - insbesondere angesichts der Lizenzpolitik zahlreicher Softwarehersteller wie des Datenbankanbieters Oracle, nach der sich der Preis proportional zur Anzahl der CPUs verhält. "Bei uns bekommt der Anwender eine 16-Wege-Maschine mit der gleichen Leistung wie andere Systeme mit der doppelten Anzahl von CPUs - und zahlt darüber hinaus etwa zwei Millionen Dollar weniger für seine Oracle-Datenbank", behauptet der IBM-Mann.

Big Blue positioniert seine P670 mit 16 Prozessoren in Sachen Leistung dort, wo eine 32-Wege-Sun-Fire-12K steht - nach Ansicht Gartners eine mutige Behauptung, die anzuzweifeln sei. "Eine realistische Leistungsbemessung gestaltet sich weit komplexer als jeder Benchmark", erläutert Analyst Butler. So gebe es nach wie vor eine Reihe von Anwendungen - beispielsweise Applikationen, die sich nicht so leicht aufteilen ("threaden") lassen -, die von der hohen CPU-Anzahl etwa eines Sun-Modells durchaus profitierten. "Spätestens dann könnte der Anwender mit einer IBM-Maschine im Nachteil sein", so der Gartner-Experte.

Die Qual der Wahl

Alle drei Systeme liefern nach Ansicht von Analysten außerordentlich gute Leistungen verglichen mit dem, was die besten Unix-Modelle noch vor einem oder zwei Jahren zu bieten hatten. Die Frage, welches System für welchen Einsatzzweck am besten geeignet ist, ist jedoch selbst für Server-Experten nicht leicht zu beantworten. In jedem Fall rät Gartner jedoch davon ab, allgemeinen Benchmark-Ergebnissen blind zu vertrauen. "Für Anwender gilt es genau zu ermitteln, wie es um die Performance für die Anwendungen steht, die sie tatsächlich auf dem Modell ihrer Wahl betreiben wollen", erläutert Butler. Wenn irgend möglich, sollten Kaufinteressenten von IBM, HP und Sun verlangen, das in Frage kommende System mit ihren eigenen Applikationen einem Benchmark-Test zu unterziehen.

Berater Klagges geht hier noch einen Schritt weiter: Ratsam sei es, sich vor einer Kaufentscheidung die Frage zu stellen, ob es tatsächlich ein zwar sehr leistungsfähiger, aber auch sehr teurer Unix-Risc-Server sein muss. "Gerade, wenn viel mit Partitionen - also logischen Mini-Servern - gearbeitet wird, kommen auch Racks mit Zwei- und Vierfach-x86-Systemen unter Linux oder Windows 2000 in Frage", meint der Consultant. Zu bedenken sei außerdem, wie es um die langfristige Marktpräsenz kompatibler Systeme der einzelnen Hersteller bestellt ist. Klagges vertraut hier insbesondere auf die Haltbarkeit der IBM-Plattform - nicht zuletzt angesichts Big Blues "leistungsfähiger Prozessortechnologie" sowie der "vernünftigen Unix- beziehungsweise Chip-Roadmap" der Armonker. "Aber gut im Rennen sind die anderen auch", so der Berater.

Eckdaten der Midrange-Boliden im Überblick

Hersteller/System / Anzahl der CPUs / Maximaler Hauptspeicher / Maximale Anzahl an Partitionen / Maximale Festplattenkapazität / Upgrade-Optionen / Betriebssystem/e / Einstiegspreise

IBM Regatta P670 / 4 bis 16 Power- 4-CPUs (1,1 Gigahertz) / 128 GB / 16 logische Partitionen / 3,5 TB / Kein Upgrade auf P690; Aufrüstung per CuoD* - auch einzelne CPUs lassen sich freischalten / AIX 5L/Linux / ab 175000 Dollar

Sun Sun Fire 12 K / 4 bis 52 Ultrasparc-III+- CPUs (900 Megahertz) / 288 GB / 9 physische Partitionen / 120 TB / Upgrade auf Sun Fire 15K; lässt sich auf Letztere im laufenden Betrieb aufrüsten; CPU-Aufrüstung per CoD* ab Sommer 2002 / Solaris 8 / ab 1483300 Euro

HP RP8400 / 2 bis 16 PA- 8700-CPUs (650/750 Megahertz) / 64 GB / 2 physische Partitionen / 144 GB / Kein Upgrade auf Superdome; CPU- Aufrüstung per Icod* / HP-UX 11i / ab 133020 Euro

*Die Option der schrittweisen Freischaltung von zusätzlichen, jedoch noch nicht bezahlten CPUs je nach Bedarf an Rechenleistung: CuoD = Capacity Upgrade on Demand (IBM); CoD = Capacity on Demand (Sun); IcoD = Instant Capacity on Demand (HP).