Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

06.08.2004 - 

Server-Trends/Umgestaltung der Rechenzentren ermöglicht kostengünstigere IT

Modulare Server verdrängen Boliden

Nicht Sparsamkeit, aber Kosteneffizienz ist angesagt. Als Instrument, um Kosten zu ermitteln und in den Griff zu bekommen, bietet sich das von der Gartner Group entwickelte Verfahren zur Ermittlung der Total Cost of Ownership (TCO) an. Gemeint sind damit die kompletten Kosten eines bestimmten IT-Bereichs, etwa einer Server-Infrastruktur, im Laufe ihres gesamten Lebenszyklus. In Anlehnung an die Gartner Group lassen sich in einem stark vereinfachten Modell, das allerdings explizit auf die separate Ermittlung von Personalkosten und einen getrennten Ausweis der Hard- und Softwarekosten verzichtet, die TCO für eine Server-Infrastruktur auf vier primäre Faktoren zurückführen:

Vier Kostenfaktoren der IT

- Die interne Administration der IT-Abteilung verursacht fünf Prozent der TCO. Die umfasst Lieferanten-Management, Verwaltungsaufwand zur Beschaffung von Hard- und Software und gegebenenfalls Verrechnung der Kosten im Umlageverfahren auf Fachabteilungen etc.

- Hard- und Software stehen für 15 Prozent der TCO. Hierunter fallen Anschaffungskosten und Wertverlust, Upgrades und Ersatzteile.

- Der Betrieb der IT-Infrastruktur trägt 40 Prozent zu den TCO bei. Berechnet werden hier Deployment, technischer Support, Server, Netzwerk- und Datenbank-Management, Planungs- und Prozess-Management.

- Ebenso erheblich sind mit 40 Prozent der TCO die indirekten Kosten wie Ausfallzeiten und End-User Operations. Darunter fallen geplante und ungeplante Downtime sowie die Schulung von Endbenutzern.

Standardsysteme für Standardanwendungen

Die Ermittlung der IT-Kosten in den genannten vier Segmenten ist der erste Schritt, der zweite besteht darin, geeignete Maßnahmen zur Kostenreduktion zu ergreifen. Interessante Hinweise auf das Verhalten von Anwendern liefern fortlaufende Markterhebungen von IDC. Der Trend ist klar: Vor zehn Jahren machten Standardsysteme nur ein Drittel aller Server-Verkäufe aus - heute beträgt ihr Anteil 85 Prozent. Eingesetzt werden auf solchen Systemen typische betriebswirtschaftliche Standardanwendungen, Warenwirtschaftslösungen, Datenbanken sowie Messaging-Systeme und andere gängige Büroanwendungen.

Ein kurzer Blick auf die Geschichte des Rechenzentrums verdeutlicht den Trend zu Standards. Bis weit in die 90er Jahre liefen unternehmenskritische Applikationen nahezu ausschließlich auf Unix/Risc-Servern und Mainframes. Der typische Server mit Intel-Prozessor war zu dieser Zeit ein Single-Prozessor-System, das als File- und Print-Server diente. Dennoch haben solche Systeme in der Folgezeit immer mehr Einsatzgebiete erobert. Auch wenn sie weder funktional noch in der Performance mit Risc-Rechnern oder Mainframes mithalten konnten, boten sie doch für die große Masse der alltäglichen Aufgaben das bessere Preis-Leistungs-Verhältnis.

Der Trend in den letzen vier bis fünf Jahren ist eindeutig: Unix wird durch Intel-basierende Linux-Umgebungen abgelöst und in vielen Fällen auch durch Windows. Selbst im Bereich des High Performance Computing gingen viele Unternehmen dazu über, für technisch-wissenschaftliche Applikationen Linux-Cluster auf Basis von Intel-basierenden Servern statt proprietärer Supercomputer zu nutzen.

Diese Entwicklungen in Richtung standard-basierender Systeme haben maßgeblich dazu beigetragen, dass sich in Rechenzentren in den letzten Jahren die n-Tier-Architektur durchsetzte. Leistungsanforderungen werden auf mehrere kleinere, spezialisierte Server verteilt und in einer dreischichtigen Multi-Tier-Architektur angeordnet.

Die Schicht 1 bilden Frontend-Server für Infrastrukturanforderungen wie Web-Server, File- und Print-Server. Die Schicht 2 besteht aus Applikations-Server für Messaging, Datenbanken und Applikationen für Workgroups und Abteilungen. Auf der Schicht 3 arbeiten schließlich Transaktions-Server für unternehmenskritische Datenbanken, Finanzwesen, Controlling, Data Warehouses, ERP- und CRM-Applikationen.

Eine solche modular aufgebaute Architektur lässt sich sehr flexibel gestalteten und später bedarfsgerecht nach und nach erweitern. Die Hardware des n-Tier-Rechenzentrums basiert größtenteils auf Industriestandards. In Schicht 1 arbeiten in der Regel platzsparende Rack-Server mit einem oder zwei Prozessoren, in Schicht 2 Rack-Server mit zwei bis vier Prozessoren. Solche Systeme tragen zu geringen Kosten und einer kurzen Amortisationszeit bei.

In Schicht 3 oder dem Backend des Rechenzentrums sieht es etwas anders aus als an der "Front" in Schicht 1 und 2: Im Backend der Schicht 3 liegen die wirklich geschäftskritischen Applikationen und Daten. Da dies die rechenintensivsten Applikationen sind, stehen in Schicht 3 dann auch die leistungsfähigsten Vier-Prozessor-Systeme.

Skalieren nach Maß

Insbesondere auf der Schicht 2 und 3 stellt sich die Frage der Skalierung: Unternehmen haben mit dem Intel-Prozessor Xeon MP die Möglichkeit, Server mit vier, acht oder noch mehr CPUs auszustatten. Intel bezeichnet diese Flexibilität, die Server-Kapazität abhängig von den jeweiligen Anforderungen zu gestalten, als "Skalieren nach Maß" (Scale Right). Unterscheiden lassen sich dabei zwei Methoden: das Aufrüsten einzelner Server (Scale up) oder das Erweitern der Infrastruktur mit zusätzlichen gleichartigen Servern (Scale out). Diese zweite Variante bedeutet entweder den Aufbau einer Server-Farm, bei der jeder Rechner einzelne Applikationen bedient, oder eine Cluster-Infrastruktur, bei der eine Anwendung die gesamte verfügbare Rechenkapazität etwa für technisch-wissenschaftliche Berechnungen beansprucht.

Scale up heißt, einen Server mit höherer Leistungsdichte auszustatten: mehr und schnellere Prozessoren, mehr Hauptspeicher, größerer Cache. Gemeint ist damit in der Regel einsymmetrisches Multi-Prozessor-System (SMP). Im Idealfall wird dabei unterstellt, dass die Leistungsfähigkeit eines solchen Systems linear mit den zusätzlichen Server-Ressourcen wie Prozessoren, Hauptspeicher und der Datenbreite des Systembusses steigt. Der Vorteil hierbei liegt in der gemeinsamen Nutzbarkeit aller Ressourcen.

Tücken der SMP-Skalierung

Allerdings stellt dies - insbesondere bei Systemen mit mehr als vier CPUs - relativ hohe Anforderungen an die Implementierung und lässt alsbald die Kosten in die Höhe schnellen. Denn mit Standardkomponenten sind Acht- oder gar 16-Prozessor-Server nicht zu realisieren. Darüber hinaus gilt es zu berücksichtigen, dass eine Applikation, die nicht sehr präzise für ein SMP-System optimiert wurde, kaum mehr als vier CPUs effektiv nutzen kann. Das heißt: Nur Spezialanwendungen profitieren von derartigen Servern.

In diesem Zusammenhang haben die Marktforscher von IDC auf einen interessanten Trend im Segment High Performance Computing hingewiesen. Demzufolge geht in der Top-500-Liste der Supercomputer seit 1999 der Anteil der SMP- und MPP-Systeme (MPP = Massive Parallel Processing) stetig zurück. 1999 betrug er 85 Prozent, 2001 waren es immerhin noch 63 Prozent, im November 2003 jedoch nur noch 33 Prozent. Komplementär dazu stieg der Anteil der Cluster von 15 Prozent im Jahr 1999 über 37 Prozent im Jahr 2001 auf 67 Prozent im November 2003.

In Sinne einer Standardisierung können Scale-out-Lösungen deutliche Vorteile für sich verbuchen. Zwei- und Vier-Prozessor-Server stellen heute problemlos die Performance zur Verfügung, die noch vor kurzem Acht-Prozessor-Maschinen vorbehalten war. Bei gleicher Leistung sind mehrere Zwei- und Vier-Prozessor-Systeme in der Summe heute sowohl bei den Anschaffungs- als auch bei den Betriebskosten deutlich günstiger als Acht-Wege-Server und haben diese für die Mehrzahl der Unternehmen praktisch überflüssig gemacht.

Zudem bieten Zwei- und Vier-Prozessor-Server eine deutlich höhere Flexibilität und Skalierbarkeit, wenn sie zu Clustern verbunden werden. Sie können damit wesentlich besser dem Leistungsbedürfnis der Unternehmen angepasst werden. Eine der wesentlichen Punkte bei einer Scale-out-Lösung ist das System-Management.

Durch eine Konsolidierung und Standardisierung von Administrationssoftware lassen sich nachhaltig Kosten senken. Der erste Schritt besteht darin, bereits vorhandene Tools bei der Installation neuer, zusätzlicher Server zu nutzen. Das Gleiche gilt für das Change-Management der verfügbaren Hardwareressourcen. Vor allem Großunternehmen mit einer langen Rechenzentrumstradition haben bereits beachtliche Investitionen in Enterprise-Management-Systeme wie Microsoft Operations Manager (MOM), BMC Patrol, CA Unicenter oder andere getätigt. Über entsprechende Interfaces lassen sich Intel-basierende Standard-Server in solche übergeordneten Management-Frameworks integrieren.

Mit spitzem Bleistift kalkulieren

Aus der Vogelperspektive führt die weitgehende Standardisierung von Servern und deren Komponenten zu einer Senkung der TCO:

- Interne Administration der IT-Abteilung: Der Einsatz passender Verwaltungs-Tools bewirkt, dass die Rechenzentrums-internen Kosten zurückgehen.

- Hard- und Software: Durch Standardkomponenten sinken die Kosten signifikant.

- Betrieb der IT-Infrastruktur: Da in einigen Fällen - etwa bei Cluster-Lösungen - zahlenmäßig mehr Systeme als vorher eingesetzt werden, kann es zu leicht höheren Kosten in diesem Segment kommen.

- Indirekte Kosten wie Ausfallzeiten und End-User Operations: Hier lassen sich deutlich niedrigere Kosten erzielen. Die Ausfallzeiten können verringert werden; denn in einer Scale-out-Umgebung einen Server offline zu nehmen, betrifft nicht die gesamten Applikationen.

Erfahrungen aus Projekten zeigen: Wer mit spitzem Bleistift kalkuliert, kann im ersten, zweiten und vierten Segment Kostensenkungen von zehn bis 15 Prozent erzielen. Dem stehen bei Cluster-Lösungen im dritten Segment Mehrkosten für zusätzliches System-Management in Höhe von durchschnittlich zehn Prozent gegenüber. Unter dem Strich bleiben dennoch deutlich Einsparungen. (ls)

*Peter Dümig ist Product Manager Server bei Dell in Langen.

Hier lesen Sie ...

- wie weit inzwischen Intel-basierende Server aus Standardkomponenten der PC-Welt in die einst Risc/Unix-dominierten Rechenzentren vorgedrungen sind;

- wie sich dabei der organisatorische Aufbau der Rechenzentren verändert hat;

- wo diese neue Konzeption besonders viel versprechende Ansätze zu einer kosteneffizienteren IT-Versorgung bietet.

Preisvorteile

Nach Angaben der Marktforscher von IDC sind die Preise für x86-Server - dies betrifft insbesondere Systeme mit ein bis vier CPUs - in den letzten Jahren kontinuierlich zurückgegangen. Der Preis-Leistungs-Vorteil dieser Systeme hat damit deutlich die für Cluster-Umgebungen höheren Management-Kosten kompensiert. So seien etwa die durchschnittlichen Anschaffungskosten für Server mit acht Prozessoren gut dreimal so hoch wie die eines zwei- oder Vier-Prozessor-Scale-out-Systems. Auch bei den TCO-Betrachtungen (Hardware, Software, Operations, Benutzersupport etc.) über einen Zeitraum von drei Jahren kommt IDC zu dem Ergebnis, dass Systeme mit vier oder weniger Prozessoren nur halb so hohe Kosten verursachen als Systeme mit mehr als vier CPUs.