Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

04.07.2006

Neue Facetten der Virtualisierung

Dennis Zimmer
Was vor wenigen Jahren begann, hat sich schon auf breiter Front durchgesetzt. Softwareanbieter und Prozessorhersteller sorgen für neue Ausprägungen. Ein Ausblick auf die nahe Zukunft der Virtualisierung.

Der Virtualisierungsboom hat dazu geführt, dass die Hersteller entsprechender Software mit neuen Angeboten nachlegen. Diese reichen von Snapshot-Managern in Lösungen für das Einzelplatzumfeld bis hin zu Techniken der Hochverfügbarkeit in Server-Virtualisierungsprodukten. Zunehmend werden Virtualisierungstechniken auch in Hardware und Betriebssysteme integriert.

Fazit

In einigen Jahren wird niemand mehr von Virtualisierung reden wird, weil diese in jeder denkbaren Form selbstverständlicher Bestandteil der IT-Umgebungen sein wird. Ob Netzwerk, Speicher oder Server, überall hat die Virtualisierung Einzug gehalten und sich in kürzester Zeit bewährt. Es hat sich ein großer Markt mit schnellem Wachstum entwickelt, der nicht nur den Herstellern von Virtualisierungssoftware, sondern auch etlichen Anbietern von Dienstleistungen und Zusatzsoftware eine stabile Basis bietet.

Virtualisierung ist kein vorübergehender Hype, sondern wird langfristig Anwendern viele Vorteile verschaffen. Sie hält die IT-Infrastruktur und damit eine der wichtigsten Säulen der Unternehmen schnell und flexibel und bringt den Anwendern dadurch Wettbewerbsvorteile.

Hier lesen Sie …

Mehr zum Thema

www.computerwoche.de/

576495: Virtualisierung fordert den Administrator;

572309: Server in virtuelle Maschinen übertragen;

571065: Open-Source-Virtualisierungs-Tool Xen;

569334: VMware versus Virtual Server und Xen;

550481: GSX Server versus MS Virtual Server 2005;

Weiterer Link

www.vmachine.de: Web-Seite des Autors zum Thema Server-Virtualisierung.

Um weiter zu wachsen, gehen die Anbieter mittlerweile variantenreiche Wege. Sie vertreiben Virtualisierungslösungen für Einsteiger, Produkte mit eingeschränktem Funktionsumfang oder sogar vollständig funktionsfähige Software kostenfrei. Lediglich Verwaltungsprogramme und Herstellerunterstützung (Supportverträge) sind mit Kosten verbunden. Außerdem werden immer mehr Programme offen gelegt, und die Hersteller tun einiges zur Normung verschiedener Techniken.

Schaut man sich die Entwicklung der letzten Jahre genauer an, ist zu erkennen, dass sich die Virtualisierung im x86-Bereich enorm schnell und vielfältig entwickelt hat. Es begann einmal im Entwicklerumfeld mit rudimentären Einzelplatzprodukten, deren Funktionsumfang nicht über die Installation und den Betrieb der virtuellen Maschine in erträglicher Geschwindigkeit hinausging.

Vom Einzelplatz zum Server

Mittlerweile kann sich kein IT-Mitarbeiter mehr dem Thema und den Produkten verschließen. Virtualisierungsprodukte sind zwar immer noch als Einzelplatzlösung vorhanden, der Trend geht jedoch zur netzbasierenden Server-Lösung. Ganze Infrastrukturen lassen sich mit Virtualisierungsprodukten betreiben und eröffnen Möglichkeiten, die weit über die der reinen Physik hinausgehen.

Entscheider sprechen der Virtualisierung das Potenzial zu, Administrationskosten einzusparen und vor allem die Ausfallzeiten zu senken. Fällt eine VM oder ein Wirtssystem aus, können die virtuellen Maschinen in wenigen Sekunden auf anderen Wirtssystemen neu gestartet und betrieben werden. Diese Technik wird sukzessive erweitert, um beispielsweise eine automatische optimale Verteilung der virtuellen Maschinen zwischen Wirtssystemen zu gewährleisten, was die physikalische Hardware noch besser ausnutzt.

Neue Lösungen in Sicht

Handelt es sich um verteilte Standorte mit WAN-Anbindungen geringer Bandbreite, muss man zwangsweise auf viele Funktionen zur Ausfallsicherheit verzichten. Die bisher genutzten Hardwarelösungen über SAN-Replikation sind sehr teuer. Doch hier sind Softwarelösungen in Sicht, nämlich in Form von Replikationsprogrammen, die asynchrone, inkrementelle Datenreplikationen zwischen Wirtssystemen über WAN-Strecken ermöglichen.

Die hohe Ausnutzung der physikalischen Hardware hat der Virtualisierung einen großen Erfolg beschert; daher wird diese auch vorangetrieben. Zwar ist die Hardwarevirtualisierung die flexibelste Form, sie kann aber in Sachen Performance nicht mit der Betriebssystem- und der Paravirtualisierung Schritt halten.

Aufgrund der eingeschränkten Möglichkeiten, verschiedene Betriebssysteme in den virtuellen Maschinen zu betreiben, ist die Betriebssystem-Virtualisierung nur für einzelne Unternehmen geeignet. Paravirtualisierung hingegen ist sehr schnell, benötigt aber eine Anpassung des Gast-Betriebssystems. Dies stellt bei der Nutzung von Betriebssystemen, die keine offenen Quellen bereitstellen (zum Beispiel Microsoft Windows) ein über den reinen Virtualisierer unlösbares Problem dar.

Dieses Problems nimmt sich nun eine andere Branche an, die Prozessorhersteller. Weil die x86-Architektur niemals für die Virtualisierung gedacht war und damit für die Virtualisierungsprodukte sehr hinderlich ist, haben die Prozessorhersteller AMD mit "Pacifica" und Intel mit "VT-x" oder "Vanderpool" eine Virtualisierungstechnik im Prozessor entwickelt. Mit dieser ist es nun auch für Paravirtualisierer möglich, leistungsstarke Systeme unabhängig davon zu betreiben, ob das Betriebssystem quelloffen ist oder nicht.

In naher Zukunft sind Mischumgebungen zu erwarten. Das heißt, die Virtualisierungssoftware wird nicht nur eine einzelne Virtualisierungstechnik beherrschen, sondern mehrere kombinieren, um optimale Voraussetzungen zu schaffen.

Virtuelle Maschinen mit Power

Neben der optimalen Ausnutzung der physikalischen Hardware und damit der Verringerung des Leistungsverlustes durch die Virtualisierungsschicht ist auch die Leistungsfähigkeit der virtuellen Maschinen ein wichtiger Aspekt. Daher verschiebt sich nun der Wunsch nach Durchsatz von der physikalischen Hardware in die virtuelle Welt. Waren bisher leistungsstarke Server-Systeme von der Virtualisierung ausgenommen, sind mittlerweile mehrere nutzbare Prozessoren und 16 GB Hauptspeicher und mehr in der virtuellen Maschine möglich.

Nichts ist unmöglich

Durch die Kombination der leistungsfähigen Wirtssysteme mit den hohen Leistungsdaten der virtuellen Hardware verschiebt sich die Grenze der "idealen" Virtualisierungskandidaten auf Applikationsseite nach oben. Um den stetig steigenden Leistungsanspruch an virtuelle Maschinen ein wenig einzudämmen, werden außerdem immer fortschrittlichere Techniken entwickelt, die den Leistungsbedarf in der virtuellen Maschine senken (zum Beispiel Memory Sharing und Ballooning) oder gezielt eingrenzen (Ressourcenkontrolle).

Und nicht nur die herkömmliche Ressourcenkontrolle in Form von Leistungseinschränkungen bei Prozessor- und Hauptspeichernutzung kann durch die Virtualisierungsschicht erfolgen. Vielmehr ermöglicht diese auch Eingriffe in alle Aspekte der Kommunikation zwischen Hardware und Betriebssystem. So lassen sich Sicherheitsfunktionen in der Virtualisierungsschicht unterbringen, die den Netzwerkverkehr einschränken, so dass sich bestimmte Muster, beispielsweise Würmer, nicht mehr verbreiten können.

Auf dem Weg ins Grid

Die meisten derzeitigen Virtualisierer am Markt partitionieren einzelne Rechnersysteme; auf einem gut ausgestatteten Wirtssystem werden viele weniger performante Server-Systeme betrieben. Ein anderer zukunftsweisender Ansatz, der in die Richtung des Leistungshungers virtueller Maschinen geht, verbindet Virtualisierung mit Teilaspekten von Grid Computing, wodurch viele physikalische Einzelsysteme einschließlich Netzwerk und Datenspeicher zusammengefasst werden.

Daraus entsteht eine Virtualisierungsschicht, die viele verschiedene Einzelsysteme adressiert und verwaltet. Das erlaubt es, virtuelle Maschinen nicht nur als Teilgröße einer einzelnen Physik anzulegen, sondern auch virtuellen Maschinen die Ressourcen mehrerer physikalischer Systeme zuzuweisen. Hierdurch ist eine außerordentlich flexible Ressourcenkontrolle möglich.

Weiterhin ist erkennbar, dass viele Betriebssystem-Entwickler bemüht sind, in den nächsten Jahren eigene oder fremde Virtualisierungslösungen direkt in ihre Produkte zu integrieren. Das gewährleistet eine gute Zusammenarbeit zwischen Wirts-Betriebssystem und Virtualisierer, und die Betriebssystem-Hersteller verkaufen die Virtualisierungssoftware direkt mit. Dieser Faktor wird es externen Virtualisierern in absehbarer Zukunft schwer machen, ihre derzeitigen Wachstumsraten zu behaupten.

Alte Hardware reaktivieren

Viele Unternehmen besitzen ältere Generationen von Servern, deren Neuinstallation teuer beziehungsweise kurzfristig unmöglich ist. Trotzdem wäre es schade, auf die virtuellen Möglichkeiten zu verzichten. Für diesen Fall existieren entsprechende Techniken, um die physikalischen Systeme in virtuelle zu migrieren. Handelt es sich um Server in größerer Zahl, gibt es eine Vielzahl von Produkten und Möglichkeiten, die Systeme voll- oder halbautomatisch zu virtualisieren. Diese Produkte werden stetig weiterentwickelt, um den Zeitausfall während der Migration zu reduzieren.

Durch den einfachen Aufbau virtueller Maschinen ist auch die Erstellung neuer Systeme manuell in wenigen Minuten oder vollautomatisch durch Skripte und Programme möglich. Das kurzzeitige Aufsetzen einer neuen Server-Gruppe ist in der virtuellen Welt problemlos - auch bei einer größeren Server-Zahl. Denn die Erstellung von 50 neuen, fertig konfigurierten Servern in weniger als einer Stunde ist kein Problem. Schulungszentren sowie Application- und Internet-Service-Provider haben davon einen großen Vorteil. Durch zusätzliche Abrechnungsprogramme, die die virtuelle Infrastruktur beobachten, ihre Nutzung berechnen und die Kosten verbrauchsgerecht aufteilen, kann sich die Anfangsinvestition in die virtuelle Infrastruktur schnell amortisieren.

Einen großen Beitrag zur schnellen Amortisierung und vor allem dem praktischen Nutzen der virtuellen Infrastruktur leisten die Verwaltungsprogramme. Diese ermöglichen die zentrale Verwaltung und Überwachung Dutzender Wirtssysteme und Hunderter virtueller Maschinen. Ohne diese Werkzeuge wäre flächendeckende Virtualisierung undenkbar. Diese Tools werden sich mit der Zeit dahin weiterentwickeln, dass die Verwaltung vieler verschiedener Virtualisierungsprodukte unter einer zentralen Administrationsoberfläche möglich sein wird. Dadurch lassen sich die verschiedenen Virtualisierungslösungen entsprechend ihren Eigenschaften gezielt einsetzen, während die Administratoren alle Einzelsysteme zentral verwalten. (ls)