Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

24.01.2005

Rechenleistung aus dem großen Topf

Virtualisierung ist einer der derzeit beliebtesten Begriffe der IT-Anbieter. Obwohl von Marketing-Strategen nach Belieben verwendet, verbirgt sich dahinter eine durchaus sinnvolle Kombination alter und neuer Techniken.

Von Hewlett-Packard stammt die präziseste Definition: "Virtualisierung ist eine Herangehensweise in der IT, die Ressourcen so zusammenfasst und verteilt, dass ihre Auslastung optimiert wird und automatisch Anforderungen zur Verfügung steht."

Am Anfang steht ein Overhead, der in Zeiten knapper IT-Budgets anachronistisch ist: Unix-Umgebungen sind höchstens zu 25 Prozent ausgelastet; bei Intel-x86-basierenden Servern sind es gar nur fünf bis 15 Prozent. Die Ursache dafür liegt darin, dass Server, Speicher und Netze quasi fest verdrahtet bestimmten Anwendungen zugeordnet sind. Um jederzeit, wenn auch vielleicht nur wenige Stunden pro Monat, den geforderten Durchsatz leisten zu können, sind die Systeme durchweg überdimensioniert.

Das treibt zum einen die Kosten für Lizenzen in die Höhe, wenn diese sich an der Leistung von Systemen orientieren. Noch teurer aber ist, dass die unnötig hohe Zahl der Systeme den Personalaufwand und die Kosten für ihre Administration explodieren lassen. Die Aufrechterhaltung des Systembetriebs beansprucht heute rund drei Viertel der Arbeitszeit der Mitarbeiter in den Rechenzentren. Wartung und Betrieb verschlingen bis zu 80 Prozent der IT-Budgets.

Virtualisierung soll das ändern. Der Lösungsansatz besteht in der Verknüpfung von Servern, Speichern und Netzen zu Pools, aus deren Leistung sich die Anwendungen nach ihrem aktuellen Bedarf bedienen. Eine systemorientierte IT weicht einer softwareorientierten Architektur. Der Ansatz verlangt nicht nur nach einer engen Verknüpfung der Systeme. Darüber hinaus muss das Management des so entstehenden abstrakten Großsystems automatisiert werden. Entsprechend sind Virtualisierung, Integration und Automatisierung die drei Imperative eines Prinzips.

Im Folgenden werden die verschiedenen Aspekte der Virtualisierung bei Servern, Speichern, Netzwerken und Applikationen getrennt beschrieben. (ls)