Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.


10.04.2007

Scale-out oder Scale-up?

Schulze ist freier Autor der Website CIO.de und dem CIO-Magazin.
Ein Dilemma der IT ist, dass Anforderungen und Technologien immer komplexer werden, die Budgets jedoch kaum wachsen. Ein möglicher Ausweg ist die Vereinfachung der Infrastruktur.

Einfachheit ist das Resultat der Reife", postulierte der Dichter Friedrich Schiller im 18. Jahrhundert - und brachte damit ein immer noch aktuelles Problem auf den Punkt: die Komplexität der IT. Eine stetig steigende Zahl unterschiedlicher technischer Ansätze, dezentraler Komponenten und Aufgaben hat in den meisten Unternehmen im Laufe der Jahre eine Infrastruktur wachsen lassen, deren Komplexität dem gordischen Knoten in nichts nachsteht. Ein kurzer Schwerthieb, um sich des Themas zu entledigen, ist heutzutage allerdings keine Option.

Hier lesen Sie ...

• welche Aufgaben Blades und Mainframes leisten;

• wie sich die vorhandene Kapazität besser nutzen lässt;

• wann die Virtualisierung hilfreich ist;

• dass Itil allein zur Senkung der Komplexität nicht ausreicht.

Mehr zum Thema

www.computerwoche.de/

586547: Starthilfe für Itil;

1217442: Flexible Großrechner;

1217438: Alles über Blades;

590267: Server-Markt am Scheideweg.

Gleichzeitig können die IT-Verantwortlichen kaum auf Budgets bauen, die im gleichen Maße wachsen: Laut einer Studie von Gartner vom Juli 2006 hinken die Zuwächse der IT-Budgets den Umsatzsteigerungen der Unternehmen deutlich hinterher. Demnach geben Unternehmen mit einem Umsatzplus von zehn Prozent nicht einmal fünf Prozent mehr für IT aus. Jedoch gehen zahlreiche Experten davon aus, dass bis zu 80 Prozent des zur Verfügung stehenden Budgets für den laufenden Betrieb benötigt werden. Das bedeutet, dass der Spielraum der IT für Innovationen kontinuierlich schrumpft.

Betriebskosten anpassen

Ein Ausweg aus dieser Misere liegt in der Senkung der Betriebskosten. Diesen Punkt schrieb Gartner auch den CIOs im vergangenen Jahr ins Stammbuch: IT-Manager müssen bis 2009 dafür Sorge tragen, dass der Unternehmensbeitrag der IT schneller wächst als die Kosten. Im Wesentlichen können diese Ziele aus reiner Kostensicht über drei Instrumente erreicht werden: Konsolidierung, Virtualisierung und Prozessoptimierung. Alle drei Ansätze zielen auf eine Vereinfachung der IT-Infrastruktur von technischer sowie von organisatorischer Seite ab.

Um die IT dauerhaft zu vereinfachen, müssen alle drei Instrumente ineinander greifen. Im Bereich der Optimierung und Automatisierung von Prozessen spielt die "IT Infrastructure Library" (Itil) eine wichtige Rolle. Itil ist eine Sammlung aus Best Practices, die die Basis für ISO/ IEC 20000 bildet und aktuell in Version 3 veröffentlicht wird. Sie beschreibt praxiserprobte Abläufe in allen Disziplinen des IT-Service-Managements. Inzwischen sind die meisten großen Unternehmen und IT-Dienstleister dazu übergegangen, Itil zumindest in den wichtigsten Bereichen wie Change-Management oder Helpdesk zu implementieren. Auf diese Art und Weise sollen viele Prozesse mit transparenten und dokumentierten Arbeitsabläufen unterlegt werden.

Hardware im Umbruch

Die wichtigere Rolle in der vereinfachten IT spielen jedoch die Hardware und die Betriebssysteme. Hier ist in den vergangenen Jahren ein deutlicher Umbruch im Gange. So ermittelten die Marktforscher von IDC beispielsweise im Februar vergangenen Jahres, dass der Markt für x86-Server mit 13,7 Prozent Wachstum nach Stückzahlen deutlich über dem Marktdurchschnitt von 10,6 Prozent zulegen konnte. Maschinen mit Intel- oder AMD-Herz finden sich vor allem in den Blade-Servern wieder.

Blades sind ein probates Mittel, viele Server auf einem geringen Raum unterzubringen. Die schmalen, nur wenige Höheneinheiten nutzenden Server werden eng nebeneinander montiert und ermöglichen damit besonders hohe Server-Dichten von bis zu 280 Servern pro Schrank. Jeder Server ist dabei autark und besitzt seine eigenen Prozessoren, Hauptspeicher, I/O-Schnittstellen und kann meist mit mehreren Festplatten bestückt werden. Stromversorgung, Kühlung, USV (unterbrechungsfreie Stromversorgung) und Netzwerkanbindung stellt das Chassis bereit. Ganz neu ist die Idee nicht. Erste Ansätze für diese Bauform gab es bereits Mitte der 90er Jahre für die Telekommunikationsbranche.

Damit benötigen Blades deutlich weniger Platz als die traditionellen Rackmount-Server. Dieser Weg der Standardisierung - und letztlich Zentralisierung - eignet sich besonders in Szenarien, wo entweder ein hoher Bedarf an dedizierten Servern vorhanden ist oder wo im Rahmen einer Scale-out-Strategie (mehr Kraft in der Breite) zusätzliche Rechenleistung durch das Hinzufügen weiterer Server bereitgestellt werden kann. Dies betrifft zum Beispiel Cluster, wie sie in Forschung und Entwicklung eingesetzt werden, oder Web-Anwendungen.

Allerdings hat die Standardisierung auf preiswerte Commodity-Hardware auch einige Nachteile. Zum einen ist der Energiebedarf in großen Infrastrukturen nicht unerheblich. Bereits heute warnen Marktforscher wie Gartner oder Forrester Research davor, dass die wachsenden Anforderungen die Rechenzentren in Sachen Energie und Kühlung an die Grenzen führen könnten. Zum anderen benötigt die Vielzahl an Servern auch bei einer großen Packungsdichte noch recht viel Platz im Data Center. Eine weitere Schwierigkeit ergibt sich aus der logisch verteilten Architektur: Alle Server sind im Prinzip eigenständige Maschinen. Diese müssen entweder durch Clustering oder ähnliche Techniken zu logischen Servern gebündelt werden, um die Rechenleistung für unternehmenskritische Workloads bereitzustellen.

Hochverfügbarkeit, Skalierbarkeit und Sicherheit sind dabei keine trivialen Aufgaben, der administrative Aufwand ist nicht unerheblich. Gravierender jedoch ist die Architektur an sich: Die unternehmenskritischen Legacy-Anwendungen, die in vielen Firmen ein wichtiger Bestandteil der gewachsenen Infrastruktur sind, wurden in der Regel nicht für die x86-Plattform geschrieben, sondern überwiegend für Unix- oder Mainframe-Systeme. Das macht x86 nur für neue Anwendungen interessant und für Workloads, die sich einfach auf diese Plattform portieren lassen.

Legacy lebt weiter

Unternehmen mit Legacy-Systemen werden also kaum auf die Standardhardware konsolidieren können. Hier bietet sich ein viel versprechenderer Weg an: Die Konsolidierung auf die schon oft tot gesagten - als "Dinosaurier der IT" apostrophierten - Mainframes. Dass Mainframes im Gegensatz zu den Riesenechsen sehr lebendig sind, zeigt zum Beispiel eine Gartner-Studie vom Februar 2007 zum weltweiten Server-Markt. Demnach hatten die großen Eisen im vergangenen Jahr im Vergleich zum Vorjahr mit 3,9 Prozent einen recht guten Umsatzzuwachs. Zum Vergleich: Der gesamte Server-Markt konnte laut Gartner in diesem Zeitraum nur zwei Prozent zulegen.

Vorteil für Mainframes

Der Scale-up-Ansatz (mehr Kraft in der Tiefe) bietet gerade Organisationen mit wichtigen Kernanwendungen und hohen Workloads einige Vorteile gegenüber einer Scale-out-Strategie. "Zum einen kann ein Mainframe extrem viele Anwendungen mit hohen User-Zahlen in einer Betriebssystem-Instanz laufen lassen, ohne dass diese sich gegenseitig beeinflussen", erläutert Rolf Strotmann, in dessen Zuständigkeitsbereich bei Fujitsu-Siemens Computers (FSC) die Mainframes fallen. "Zum anderen lassen sich auch I/O-intensivere Programme auf einer physikalischen Maschine betreiben, als das bei anderen Hardwareplattformen möglich ist."

Vor allem bei der Virtualisierung von Servern sind Mainframes anderen Plattformen seit jeher deutlich voraus, da hier die Aufteilung der physikalischen Hardware in Partitionen und der für die Ressourcenzuteilung zuständige Hypervisor ausgereifter und tiefer in das Betriebssystem integriert sind. Die auf Sparc-64-Prozessoren aufbauenden Mainframes der SX-Reihe von FSC können zudem auch native Unix-Partitionen mit Solaris beherbergen. Die Ressourcen der physikalischen Maschine werden dabei vom Hypervisor dynamisch nach Workload den einzelnen logischen Instanzen zugeordnet. Auch die einzelnen Betriebssystem-Instanzen selbst können ihrerseits zahlreiche virtuelle Server hosten.

Zwei Fliegen, eine Klappe

So lassen sich zwei wichtige Punkte der Konsolidierung erreichen: Zum einen werden durch die dynamische Ressourcenverteilung die vorhandenen Hardwarekapazitäten besser ausgelastet, zum anderen können durch die native Unix-Unterstützung viele Workloads auf den Mainframe kommen, die sonst auf dedizierten Servern abgearbeitet werden. Damit kann die Zahl der Server im Rechenzentrum deutlich reduziert werden. Vor allem in Unternehmen, die Host-basierende Legacy-Anwendungen im Einsatz haben, sind moderne Mainframes eine interessante Konsolidierungsplattform. Durch die Binärkompatibilität können die alten Applikationen ohne Codeanpassungen weiterbetrieben werden, neue Workloads lassen sich über die integrierten Virtualisierungstechnologien auf den großen Eisen dynamisch realisieren.

Unter dem Strich kommt laut Strotmann ein Mainframe-Anwender mit deutlich weniger Personal aus als mit einer vergleichbaren x86-Installation. Allerdings sieht er in der Konsolidierungsplattform Mainframe kein Allheilmittel: "BS2000-Server bieten sich da an, wo bereits entsprechende Anwendungen eingesetzt oder wo sehr hohe Verfügbarkeits- und Sicherheitsanforderungen gestellt werden." (ajf)