Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

14.03.2003 - 

Ressourcen-Virtualisierung: Die Konzepte von HP, Sun und IBM

Der Traum vom virtuellen Rechenzentrum

MÜNCHEN (kk) - Für die einen ist es faszinierend, die anderen beäugen eher skeptisch, was sich derzeit bei den drei führenden Hardwareherstellern in Sachen Rechenzentrum tut. IBM nennt seine Strategie "On Demand", Hewlett-Packard "Utility Data Center" (UDC), und Sun vermarktet unter "N1".

Das Prinzip ist bei den drei Anbietern das gleiche: Nutze die vorhandene Infrastruktur besser aus und verschaffe dem Anwender mehr Flexibilität. Dazu werden Server, Speicher und Kommunikationseinrichtungen, die klassischen Hardwarekomponenten im Rechenzentrum enger zusammengeführt.

Hewlett-Packard krempelt dazu das gesamte Rechenzentrum der Unternehmen um und verkabelt alles neu in der UDC-Schaltzentrale. Ebenso wie HP bricht auch Suns N1-Ansatz mittels Virtualisierung die alten Strukturen (Rechner, Speicher, Netze) auf und bildet andere, "optimierte" Einheiten, die in einem neu zu schaffenden Netzwerk zusammengefasst werden. IBM hat diese Aufgabe vor allem selbst in seinen Outsourcing-Rechenzentren zu lösen. Sie sollen als Ressourcenpool dienen, aus dem sich die Anwenderunternehmen je nach Bedarf Leistung zukaufen. In allen drei Fällen geht es um das Zusammenspiel von Hardware, Software und Services.

Rudi Schmickl, Vice President Business Critical Systems bei HP, erklärt das Konzept so: "UDC will die Infrastruktur in Realtime den Anforderungen anpassen." Das heißt, sobald eine Applikation Rechen-, Netz- oder Speicherressourcen braucht, werden diese sofort zur Verfügung gestellt. Dazu muss das Rechenzentrum konsolidiert und virtualisiert werden. Bei allen drei Anbietern im Konzept enthalten ist ein gerüttelt Maß an Beratungs- und Serviceleistung. "Sie können UDC nicht von der Stange kaufen", erklärt Schmickl, wieso Kosten für die Beratung bis zu drei Viertel des Gesamtaufwandes ausmachen - eine UDC-Lösung ist ab sechs Millionen Dollar zu haben, dafür können theoretisch bis zu 60000 Server eingebunden werden.

Bei der Umsetzung des Konzepts rückt die HP-Mannschaft mit mehreren Racks an, die mit redundant ausgelegten Intel-Servern, Switches, Firewalls und einigem an Software bestückt sind. Kernstück ist die UDC-Controller-Software, die im Rechenzentrum ab sofort das Sagen hat. Sie erstellt basierend auf Daten, die die System-Management-Software "HP Openview" liefert, ein Inventar der vorhandenen Hard- und Software. Danach werden die Ressourcen konfiguriert und Prozesse definiert, beispielsweise, welche Anforderungen eine SAP-Applikation stellt und welche Priorität ihr eingeräumt wird. "Es muss zumindest einmal einiges an Konfigurationsarbeit geleistet werden, damit die angebotene Flexibilität genutzt werden kann", räumt Schmickl ein. Die ergibt sich aus den zu Gruppen zusammengefassten Einheiten, beispielsweise alle Intel-Server, und der Möglichkeit, variabel darüber zu verfügen.

HP hat für das UDC-Steuerprogramm Know-how aus vielen hauseigenen Bereichen gesammelt, etwa Partitionierung, Virtualisierung, Management-Software sowie über eine Kooperation mit Terraspring auch Funktionen für die automatische Steuerung heterogener Landschaften.

Sind die UDC-Racks aufgestellt, bleibt im Rechenzentrum auch physikalisch nichts mehr, wie es war. Die Kabelverbindungen zwischen der vorhandenen Hardware - Server, Switches, Firewalls, Speicher - werden gelöst und alle Geräte an das UDC-System angeschlossen. Danach rückt die Servicemannschaft den Servern zu Leibe und befreit sie von ihren Festplatten. Rechner reduzieren sich zu simplen Prozessorlieferanten, die zu virtuellen Pools zusammengefasst sind. Per Mausklick soll der IT-Administrator bei Bedarf einer Applikation mehr Rechenpower zuordnen können oder dies sogar automatisch erfolgen.

Rechner agieren wie ein Camäleon

Den Boot-Vorgang erledigt wiederum die UDC-Controller-Software. Sie spielt den nackten Maschinen das komplette Image in den Hauptspeicher. Die Rechner enthalten also kein fest installiertes Betriebssystem mehr, sondern agieren wie ein Chamäleon: Ein und derselbe Intel-Server kann heute mit Windows NT und morgen mit Linux betrieben werden. Die Limitierung liegt bei der Art und Anzahl der von der jeweiligen CPU unterstützten Betriebssysteme. HPs UDC-Konzept unterstützt derzeit Intel-Rechner unter Windows sowie Unix-Server mit PA-Risc-Chips. Das Einbinden von Linux-, AIX- und Solaris-Maschinen ist in Vorbereitung.

Henrik Klagges, Analyst bei TNG Technology Consulting in München, vergleicht die Fähigkeit zum Betriebssystem-Wechsel mit dem schon lange bekannten "On-the-Fly-Installationsservice": "HP repliziert einfach den Fingerabdruck eines Servers auf einen anderen. Das ist nur eine logische Softwarekonfiguration, also eine nützliche Light-Version von Service-Provisioning." Seiner Meinung nach findet dynamisches Umsetzen von High-Level-Services auf eine andere Maschine bestenfalls eingeschränkt statt.

Suns Hausaufgaben

Sun Microsystem verfolgt mit dem N1-Konzept für das Rechenzentrum von morgen die Idee, dass sich das heterogene Netzwerk wie ein einziger Computer verhält und statt Rechen- oder Speicherkapazität künftig Dienste anbietet. Damit sollen die Auslastung der Infrastruktur von heute 15 bis 30 Prozent auf 80 Prozent gesteigert, die Verfügbarkeit der Dienste von 99,9 Prozent auf 99,999 Prozent hochgeschraubt und das Verwaltungspotenzial der Administratoren vervielfacht werden. Basis der Sun-Architektur ist ebenso wie bei HPs UDC ein ausgefeiltes Virtualisierungskonzept der Ressourcen, die ebenfalls zu Pools zusammengefasst werden. In Phase zwei von N1 erfolgt die Applikations- und Service-Level-Provisionierung: Die Netz-Services werden den Ressourcenpools zugeordnet. Phase drei nennt sich "dynamisches Policy Management", bei dem Regeln erstellt werden, anhand derer die Ressourcen automatisch zugeteilt werden.

Sun Microsystems stützt seine N1-Vision ebenfalls auf das Know-how der Terraspring-Mannschaft, behauptet aber, eine modernere Version als Mitbewerber HP zu verwenden. Im Herbst vergangenen Jahres übernahm Sun seine ehemalige Ausgründung. Terraspring liefert die Bausteine für die Provisionierung über die Solaris-Plattformgrenzen hinweg und dient als Basis für die noch zu entwickelnde Management-Software. Bislang ist am Markt nur der "Provisioning Server 3.0 Blades Edition" für die steckbaren "Sunfire Blades" als erstes N1-Produkt verfügbar. Dazu Analyst Klagges: "Das ist eine bessere Management-Konsole für Cluster und Assets im Netzwerk." Die Software, laut Sun die erste Virtualisierungslösung für Blade-Server, dient der Zusammenstellung, Konfiguration, Verwaltung und Skalierung von Server-Farmen auf Basis der steckbaren Platinen. Klagges sieht hier noch nicht den Technologie-Quantensprung, da hier nur eine einfache Aufgabe, die Steuerung einer relativ homogenen Umgebung, gelöst sei.

Mit Spannung erwartet er, was Sun bis zum Jahr 2005 angekündigt hat: Service-Provisioning und das Einrichten von Policies. " Die dynamische Migration von High-Level-Services per Mausklick halte ich für sehr schwer, wenn nicht sogar utopisch." Nur Spezialisten wie Bea Systems gelinge dies heute auf der Basis von Java-2-Applikations-Servern, aber dann in genau angepassten Umgebungen. Frank Gillet, Analyst bei Forrester, begrüßt deshalb Suns im Dezember 2002 vereinbarte Kooperation mit Bea, die mehr Know-how über Web-Services ins Unternehmen bringen soll. Gillet diktiert Sun folgende Hausaufgaben ins Heft: Systemheterogenität, Management-Plattform und eine Partnerschaft mit EDS bei den Services.

IBM bootet Softwarehäuser aus

Im Gegensatz zu HP und Sun, deren Lösungen technisch orientiert sind, verfolgt IBM mit dem "On-Demand"-Konzept ein Business-Modell. IBM integriert darin sein komplettes Know-how von der Middleware bis zum Speichersystem und den Global Services. "Big Blue verbindet damit die beiden Ideen Application-Service-Providing und Outsourcing", beschreibt Rüdiger Spies, Analyst der Meta Group, das Angebot. Seiner Meinung nach richtet sich das "sehr schlüssige, weitreichende und langfristig angelegte Konzept" gegen die Konkurrenz aus dem Lager der großen Softwarehersteller, die zunehmend eigene Outsourcing-Angebote aus der Taufe heben.

Eine Begründung für On Demand liefert Gerald Münzl, bei IBM verantwortlich für das Strategic Outsourcing Marketing: "Die Unternehmen müssen in Zukunft viel flexibler werden, als sie es heute sind, und sie müssen sich auch so aufstellen." Das kann bedeuten, dass Unternehmen ihre IT-Infrastruktur nicht mehr nach der Spitzenbelastung ausrichten, sondern diese von außen - vom IBM-Rechenzentrum - beziehen. IBM hat sich, was das Angebot an Dienstleistung angeht, keine Beschränkungen auferlegt: Alles ist möglich, vom kompletten Outsourcing bis zum Übertragen eines bestimmten Dienstes. Auch bei der unterstützten Infrastruktur des Kunden ist Big Blue nicht wählerisch. "Wir beschränken uns nicht auf IBM-Hard- und Software, sondern akzeptieren die marktüblichen Ressourcen", versichert Münzl.

Derzeit investiert der Hersteller kräftig in die eigenen Datenzentren, die On-Demand-fähig gemacht werden. Firmenchef Samuel Palmisano gibt unter anderem dafür in den nächsten Jahren zehn Milliarden Dollar aus. Angeschafft werden Linux-Systeme zur Server-Konsolidierung auf Basis von Grid-Computing, aber auch Lösungen, um die variablen Verbräuche der Kundschaft abzufragen und in Rechnung zu stellen. Schon vorhanden für das On-Demand-Geschäft sind hauseigene Techniken wie Grid-Computing, die unter dem Namen "Eliza" zusammengefassten Aktivitäten für autonomes Computing, Web-Services, Tivoli-Management-Software und die Global Services.

Andreas Zilch, Managing Director Consulting bei der Techconsult GmbH in Kassel, ist vom On-Demand-Konzept fasziniert und abgeschreckt zugleich: "Die Anwender gewinnen Flexibilität, aber dafür müssen sie einen Aufpreis bezahlen." Schwierig ist seiner Meinung nach das Verwalten der komplexen Verträge und die Frage, wie die Preisanpassung wegen der sinkenden Hardwarekosten behandelt wird. Meta-Analyst Spies vermutet hinter dem Konzept eine andere Strategie: "IBM will einerseits die eigene Servicemannschaft besser vermarkten und andererseits die Computing-Services zu etwas Alltäglichem machen." Die Differenzierung unter den Anbietern erfolge dann über den Service und dabei sei IBM führend.

Provisioning

Die drei neuen Konzepte für das Rechenzentrum von morgen enthalten alle das Schlagwort "Provisioning". Generell versteht man darunter die Bereitstellung von Ressourcen. Service Provisioning bedeutet das zur Verfügungstellen von Services an den Kunden. Dazu wird festgelegt, mit welchen Attributen der Dienst ausgestattet und wann er live geschaltet wird. Application Service Provisioning ist eine Erweiterung des Application Service Providing und enthält zusätzlich zum Basisdienst Informationen über Anwendungs-Zugriffsregeln inklusive Identifizierung und Authentifizierung.