Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Plattformen für SAP im Vergleich (Teil 2)

Stabilität bleibt die Achillesferse von NT-Servern

20.08.1999
MÜNCHEN (CW) - In puncto Skalierverhalten und Verfügbarkeit liegen NT-basierte Server weit hinter den konkurrierenden R/3-Plattformen zurück, schreiben Analysten von Strategy Partners in einer Studie, die von IT Research in Höhenkirchen veröffentlicht wurde. Neben den Unix-Maschinen sehen die Autoren insbesondere IBMs AS/400 als stabile Plattform an.

In der Untersuchung "R/3-Plattformen: Windows NT und die Alternativen" bewertet die Analystenvereinigung Strategy Partners Server-Systeme für SAPs Software R/3 anhand verschiedener Kriterien. Neben Kosten- und Leistungsbetrachtungen, wo die Wintel-Server relativ gut abschneiden, gehören dazu auch Verfügbarkeit, Cluster-Fähigkeiten und Skalierbarkeit der Systeme.

"Unix skaliert durchweg besser als Windows NT und kann daher im Multiprozessing-Sektor deutliche Leistungsvorteile gegenüber NT ausspielen", so die Autoren. Selbst mit älteren RISC-Unix-Rechnern wurde beispielsweise bei einem Vergleich von Vier- und Acht-Wege-Konfigurationen eine Zuwachseffizienz von mehr als 80 Prozent gemessen. Dieser Wert ergibt sich als Quotient aus realem und idealem Zuwachs bei steigender Prozessorzahl. Sehr gute Skalierungswerte erreichen laut der Studie auch AS/400- und Großrechnerinstallationen.

NT-Rechner skalieren nur mäßig

Beim ebenfalls gemessenen Acht-Wege-Server mit Pentium-Pro-CPUs unter NT liegt die Zuwachseffizienz bei mäßigen 44 Prozent. Anders ausgedrückt, erreicht ein NT-Rechner mit acht Pentium-Pro-Prozessoren nur knapp die Hälfte der mit acht multiplizierten Einzelprozessorleistung.

In puncto Hochverfügbarkeit liegen die Großrechner vorn. Die S/390-Mainframes zählten zu den ausfallsichersten Computersystemen überhaupt, so die Studie. Die IBM-Technik erlaube sowohl eine Verfügbarkeit bis 99,999 Prozent als auch ein auf Hochleistung zielendes Clustering mit guten Skalierungsfaktoren beim Betrieb von "Parallel-Sysplex"-Rechnerverbünden. RISC-Unix-basierte Mehrprozessor-Server erreichen inzwischen beinahe das Verfügbarkeitsniveau von Mainframes, schreiben die Analysten. Hinsichtlich der Qualität des auf Leistung ausgerichteten Clusterings hätten die Unix-Maschinen mit den Big Irons gleichgezogen.

NT-basierte Rechner machen in dieser Kategorie eine schlechte Figur. "Sie erreichen nicht die extreme Verfügbarkeit von Mainframes und Unix-SMPs, sondern bestenfalls 99 Prozent", so die Studie (SMP = symmetrisches Multiprocessing). Deshalb könnten sie in einigen besonders kritischen Bereichen nicht eingesetzt werden. Trotz Microsofts Bemühungen ("Clustering Services") sei NT zum Zeitpunkt der Erhebung (Mai 1999) nicht als gut Cluster-fähiges Betriebssystem zu sehen. Die angekündigte NT-Version 5.0 ("Windows 2000") werde daran kaum etwas ändern.

Eine Schlüsseltechnik in künftigen High-end-Servern sehen die Analysten in der Multiprozessorarchitektur Numa (Non Uniform Memory Access Architecture). Von besonderem Interesse im R/3-Umfeld seien aktuelle Numa-Server insbesondere deshalb, weil sie etwa Unix- und NT-Anwendungen in einem Rechner, zum Teil sogar gleichzeitig, fahren könnten. Die Möglichkeit, solche Maschinen in mehrere virtuelle Computer aufzuteilen, gestatte es Anwendern unter anderem, individuelle Cluster zur Steigerung der Performance oder der Verfügbarkeit bestimmter Applikationen zu konfigurieren.