Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

17.08.2005

Teilen will gelernt sein

Hendrik Leitner 
Am Ende aller Anstrengungen zur Virtualisierung steht ein neuartiges Rechenzentrum, das flexibel abrufbare IT-Ressourcen bereitstellt.
Die Bausteine im Rechenzentrum und wie sie virtualisiert werden können.
Die Bausteine im Rechenzentrum und wie sie virtualisiert werden können.

Mit zahlreichen Virtualisierungslösungen, auch für die Intel-Plattform, wollen Hersteller wie EMC, Fujitsu-Siemens Computers, Hewlett-Packard oder VMware die IT-Infrastruktur besser nutzbar machen. Auch prozessorientierte IT-Strategen reden inzwischen über virtualisierte Services auf Hardware- und Softwareebene, die in naher Zukunft wichtige Bausteine für das Modellieren von Geschäftsprozessen sein sollen. Das hat gute Gründe: Mittels Virtualisierung lassen sich Ressourcen von mehreren Anwendungen gemeinsam nutzen, und gleichzeitig kann die Leistungsfähigkeit der Ressource bedarfsgerecht zugeteilt werden. Virtualisierung reizt das ständig steigende Leistungspotenzial einer Hardware durch deren softwaregesteuerte Partitionierung aus. Damit verbessern sich nicht nur der Return on Investment (RoI), sondern auch die Performance und die Reaktionsfähigkeit, mit der sich die IT auf Veränderungen der Geschäftsprozesse einstellen kann.

Beispiel Flexframe

Ein konkretes Beispiel für eine Virtualisierungslösung im Sinne des dynamischen Rechenzentrums ist "Flexframe for Mysap Business Suite" von Fujitsu-Siemens Computers:

• Flexframe erreicht die Trennung von Applikationen und Systemen durch die komplette Virtualisierung und Entkopplung der SAP-Applikationen von den Infrastrukturressourcen;

• jeder SAP-Service kann so auf jedem Server laufen;

• Services lassen sich schnell von einem System auf das andere verschieben;

• das Ergebnis ist eine höhere Verfügbarkeit der Anwendungen sowie ein verringerter Installations- und Administrationsaufwand.

Hier lesen Sie …

• vom Aufbrechen der Silostrukturen;

• über nützliche Virtualisierungstrends;

• wie Intel-Hardware sich besser auslasten lässt;

• wie Virtualisierung die Entwicklung von Anwendungen beeinflusst.

Wie schnell werden Techniken adaptiert?

Technik abwartend Start Pilot eingeführt

Speichervirtualisierung 13 22 4 61

Web-Services 5 23 18 55

XML-Workflow 13 22 26 39

Open Source 18 36 23 23

VoIP 9 36 41 14

Server-Virtualisierung 39 35 17 9

RFID 57 30 9 4

Eine CIO-Befragung von Accenture im Jahr 2004 ergab einen starken Trend zur Speichervirtualisierung. (Angaben in Prozent)

Mehr zum Thema

www.computerwoche.de/go/

*76709: Prozessorvirtualisierung;

*70416: Speichervirtualisierung;

*70410: Server-Virtualisierung;

*70412: Netzvirtualisie- rung.

Aufbruchsstimmung herrscht vor allem unter den Herstellern und Zulieferern der Intel-Plattform, die jetzt nachholen, was bei Mainframes und Unix-Systemen schon länger Usus ist. Das Resultat ist sehr gut zu sehen bei Software zur Computervirtualisierung, wie sie von VMware, Microsoft oder Virtual Iron entwickelt wird. Solche Programme erweitern das eigentliche Windows- oder Linux-Betriebssystem, den Host, um eine Virtualisierungsschicht, auf der dann abhängig von der Leistungsfähigkeit des Computers zwei und mehr so genannte Gast-Betriebssysteme mit ihren Anwendungen betrieben werden können. Eine Konsequenz daraus: Die überkommenen Silo-Architekturen mit ihren zahlreichen, proprietären Schnittstellen werden aufgebrochen.

Ähnlich funktionierende Lösungen gibt es inzwischen auch für Speichersysteme. Auf dem Netzwerk-Layer ist die Entwicklung in Form von virtuellen privaten Netzen hingegen schon abgeschlossen. Die Virtualisierung, auch auf der Intel-Plattform, hat inzwischen alle Ebenen der Rechenzentrumsarchitektur erfasst und lässt Accenture bereits vom "New Data Center", Fujitsu-Siemens Computers vom "Dynamic Data Center" (DDC) und Gartner von "Real-Time-Infrastrukturen" sprechen. Über die Wichtigkeit der neuen Technik äußert sich Thomas Bittman von Gartner: "Unternehmen, die nicht in Virtualisierung investieren, müssen ab 2008 für ihre Infrastruktur 40 Prozent mehr ausgeben und haben mit 20 Prozent höheren Management-Kosten zu rechnen."

CPU-Virtualisierung: Kontrollierte Privilegien

Weitere Schritte in der Virtualisierung von IT-Infrastrukturen stehen bevor, wie der Eingriff von Intel und AMD in die Refugien der Betriebssystem-Virtualisierer zeigt. In einem ersten Schritt wollen beide Chipproduzenten die privilegierten Kernel-Befehle des Prozessors allgemein zugänglich machen. Bisher sind sie vom Betriebssystem, nicht aber von Anwendungen benutzbar. Die diversen Softwarepakete von VMware ("Workstation", "GSX" und "ESX") mussten diese Befehle, die die exklusive Benutzung von CPU-Ressourcen anfordern, auf Betriebssystem-Ebene des Hosts bislang selbst abfangen, damit jedes Gast-Betriebssystem in regelmäßigen Abständen die ungestörte Kontrolle über die Hardware hat. Würde die Virtualisierung dieser Kernel-Befehle innerhalb des Prozessors stattfinden - also auf Hardwareebene - , dann würde das einen robusteren Betrieb ermöglichen und zudem weniger CPU-Leistung verbrauchen. VMware widerspricht dieser Sichtweise jedenfalls nicht, auch wenn dadurch seine bisherige Dominanz gefährdet wird.

Höchstwahrscheinlich werden Intel und AMD bestimmen wollen, in welcher Form nicht nur der Prozessor, sondern der gesamte Rechner mit allen Ein- und Ausgabefunktionen virtualisiert wird. In nicht allzu ferner Zukunft stellt sich für die Rechnerhersteller überdies die Frage, wie Server mit dem Datendurchsatz von 10-Gigabit-Ethernet umgehen können. Die privilegierte Nutzung von Bandbreite (Quality of Services) ist beim Telefon- und Internet-Verkehr bereits eine wichtige Funktion. Intel hat seiner zunächst unter dem Namen "Vanderpool" bekannt gewordenen Technik mit "Virtualization Technology" (VT) inzwischen einen offiziellen Namen gegeben. Bei AMD heißt der gleichwertige Ansatz noch "Pa-cifica". Ende dieses Jahres soll die CPU-Virtualisierung für Intels "Itanium" fertig sein, die für den "Xeon"-Chip ist für 2006 in Aussicht gestellt.

Ist diese Entwicklung abgeschlossen, so glaubt VMware mittels des eigenen "Distributed Resource Scheduler" die Auslastung der x86-Prozessoren auf 60 bis 80 Prozent steigern zu können. Bisher wird die Leistung nur zu mageren durchschnittlich fünf bis zehn Prozent genutzt. Das neue Ziel würde sogar dem Nutzungsgrad auf dem Mainframe entsprechen.

Alles lässt sich virtualisieren: Von der CPU bis zur Anwendung

Der Großangriff gegen die exklusive Nutzung von Hardware durch eine einzige Software hat viele Baustellen zur Folge. Keine Komponente vom Prozessor über den Speicher bis hin zum Betriebssystem wird ausgelassen. Nicht zuletzt gibt es auch Änderungen in der Strategie - zum Beispiel in Sachen Speicherpool, in den die gesamte Speicherkapazität des Unternehmens fließen sollte. Bei diesem Konzept standen zu Beginn das zentrale Management und die stark reduzierbaren Speicherreserven im Vordergrund.

Der Speicherpool wird jetzt durch die Idee des "Information-Lifecycle-Managements" (ILM) weiterentwickelt: Die hierarchische Organisation von Highend-Speichern über preiswerte Midrange-Systeme mit seriellen ATA-Festplatten bis hin zu Virtual Tape Libraries wie der "Centricstor" hat bei wachsenden Datenmengen ein wesentlich größeres Kostensparpotenzial als der Speicherpool.

Beim Speicher an Service und Wartung denken

Die dem Speicherpool zugrunde liegende Blockvirtualisierung ist ebenfalls noch nicht der letzte Schritt, da der Bezug zum physischen Speicher nicht aufgehoben wird. Das behindert Service- und Wartungsarbeiten, oder anders ausgedrückt: Ein Load Balancing ist im laufenden Betrieb nicht möglich. Antwortzeiten sind damit nur in geringem Maße beeinflussbar, obwohl Anwender sich das für Service-Level-Vereinbarungen (SLAs) oft anders wünschen. Josh Krischer, Storage-Spezialist bei Gartner, forderte auf dem Business Intelligence Summit in Barcelona die großen Speicherhersteller auf, Expertensysteme zur vollautomatischen Konfiguration des kritischen Datenpfades zu entwickeln. Außerdem sollten die Anwender eine Instrumententafel bekommen, auf der sie den Status ihrer Storage-SLAs überprüfen können. Um Virtualisierung auf diesem Niveau betreiben zu können, müssten allerdings zahlreiche Einflüsse auf den Datendurchsatz eines Speichersystems wie spezifische Anwendung, Benutzerzahl, Füllungsgrad der Festplatte, Anzahl von Spindeln im Raid-Verbund, Drehzahl und anderes mehr miteinander korreliert werden.

Ein Schritt in diese Richtung dürfte der in "Invista" umbenannte "Storage Router" von EMC sein, der eine Netz-Speichervirtualisierung auf intelligenten SAN-Switches realisiert. Technisch betrachtet steuert ein Intel-Cluster über das LAN den Datenpfad, der über ein Paar Fabric-Switche mit Routing-Fähigkeiten führt. Invista ist dem eigentlichen Speichernetzwerk vorgelagert und trennt Anwendungs-Server und Speichersysteme. Anders als der Speicherpool, in dem Blöcke verwaltet werden, erzeugt Invista virtuelle Volumes, die nicht mit dem Speichersystem verbunden sind. Als Folge lassen sich Daten im Hintergrund verschieben, ohne dass die gerade laufende Anwendung davon etwas mitbekommt. Das funktioniert ähnlich wie bei Host-basierendem Volumen-Management, nur dass Invista diese Leistung nicht nur für einen, sondern für alle angeschlossenen Anwendungs-Server erbringt. Bei EMC sieht man zudem die externe Programmierung des Datenpfades als Möglichkeit an, eine regelbezogene Datenmigration nach dem ILM-Konzept voranzutreiben.

Ende 2006 kommt Netapp mit Spinserver

EMC treibt ebenso wie Network Appliance die vollständige Lösung der Daten vom Lagerort voran. Die Konzepte unterscheiden sich jedoch erheblich. Network Appliance will mit seinem für Ende 2006 avisierten Cluster-Produkt "Spinserver" auf der Ebene des Dateisystems virtualisieren und dann Filer-übergreifende Datenmigration möglich machen. Grundlage aller Entwicklungen ist, die Anwender bei wachsenden Datenvolumina bei den lästigen, aber unvermeidlich häufigen Wartungsarbeiten und auch bei der Ausmusterung von Datenspeichern zu entlasten. Als erster Schritt in diese Richtung wurden im Herbst 2004 "Flexvols" eingeführt, die auf dem lokalen System durch beliebig veränderbare logische Laufwerke eine bessere Ressourcennutzung bieten.

Mittels Virtualisierung lässt sich die klassische Zuordnung "Ein System - ein Service" im Rechenzentrum aufheben. Stattdessen entstehen Ressourcen-Pools mit Servern und Speichersystemen, auf die ein Service nach Bedarf zugreifen kann. Damit bildet Virtualisierung den Kern des dynamischen Rechenzentrums, das sich unter anderem dadurch auszeichnet, dass sich der Nutzungsgrad der vorhandenen Ressourcen stark verbessert. Dazu ist allerdings eine optimale Kontrolle und Steuerung der Pools, also eine einheitliche Management-Schicht, notwendig. Auch in dieser Beziehung muss noch Entwicklungsarbeit geleistet werden, denn auch mächtige System-Management-Programme sind hier noch überfordert. Aber schon jetzt lassen sich mit einer relativ einfachen Art von Virtualisierung die Gesamtkosten um 30 bis 40 Prozent senken. (kk)