Drei Problembereiche

Die schmutzigen Geheimnisse der Virtualisierung

15.06.2011 von Hartmut  Wiehr
Kein Zweifel: Mit den Möglichkeiten von Virtualisierung ist die IT in ein neues Zeitalter eingetreten. Gestiegen ist aber auch die Anzahl der Risiken.
Für Steve Nye von Infoblox ist Automatisierung die Lösung aller Probleme, die bei Virtualisierung auftreten.
Foto: Infoblox

Kein Zweifel: Mit den Möglichkeiten von Virtualisierung ist die IT in ein neues Zeitalter eingetreten. Gestiegen ist aber auch die Anzahl der Risiken.

Was gerne übersehen wird: Die Beherrschung von Virtualisierung erfordert gesteigertes Know-how und den Einsatz zusätzlicher Tools für Verwaltung und besonders Automatisierung. Virtualisierte Rechenzentren führen dazu, dass sich das Tempo von Veränderungen der IT-Infrastruktur radikalisiert. Virtuelle Maschinen (VMs) lassen sich schnell installieren und gegebenenfalls neu konfigurieren, I/O-Kapazitäten sind flexibel verschiebbar und Applikationen können je nach Bedarf hoch- und runtergefahren werden. Die Fortschrittsfanfaren tönen in voller Lautstärke.

Aber es sollte ebenso zur Kenntnis genommen werden, dass sich mit radikalen Veränderungen erfahrungsgemäß auch das Risiko von Fehlern und unausgereiften Konzepten – von trial and error – erhöht. Analysten gehen laut Steve Nye von Infoblox davon aus, Management-Fehler würden 60 bis 80 Prozent aller Probleme in den Rechenzentren verursachen. Es stellt sich also die Frage, wie die Stabilität der IT-Infrastruktur bei gleichzeitiger Ausnutzung der Vorteile von Virtualisierung gewährleistet werden kann.

Doch muss in einem ersten Schritt geklärt werden, wo genau Fehler auftreten. Hypervisoren agieren nicht im luftleeren Raum. Sie bewegen sich inmitten einer alten Welt aus Servern, Speichersystemen und Netzwerken. VMs bringen zwar ein gewisses Maß an Flexibilität und Automatisierung in die klassischen Server, aber schnell droht der Überblick verloren zu gehen.

Nach einer Untersuchung des Anbieters Infoblox, der sich vor allem um Netzwerk-Automatisierung kümmert, geben 70 Prozent der befragten Unternehmen an, mit der Einführung von Virtualisierung sei die Belastung des Netzwerks stark angestiegen.

Als Ursachen dafür werden genannt:

Als die IT-Welt noch nicht-virtuell und alles in Ordnung war: IBM-kompatibler PC am Arbeitsplatz.
Foto: IBM

Dort, wo sich physikalische und virtuelle Umgebung berühren, ist die Wahrscheinlichkeit für das Entstehen von Betriebsfehlern hoch. So könnte die Konfiguration des Hypervisors falsch eingestellt sein, oder die Daten der äußeren, nicht-virtuellen Umgebung sind nicht genau auf die VMs und deren Betriebssysteme oder Applikationen abgestimmt. Treten Performance-Probleme auf, muss in der Regel auf beiden Seiten der virtuellen Trennlinie nach den Ursachen gesucht werden.

Werden neue Anwendungen auf VMs gelegt, sollte man im Vorfeld eine Prüfung vornehmen. Fehler und Inkonsistenzen werden meistens in drei Bereichen auftreten:

  1. bei der Performance der Applikationen

  2. bei verspäteter Ausführung von Programmanweisungen

  3. bei Betriebsproblemen, die ohne Hilfe der IT-Administratoren nicht zu lösen sind.

Beispiele für häufig auftretende Probleme sind:

1. Unzureichende Performance der Anwendungen

2. Befehle werden verspätet ausgeführt

3. IT-Administratoren verschwenden zu viel Zeit mit Routine-Arbeiten

IT auf dem Vormarsch in die Kinderzimmer - als die PCs noch ganz und gar physikalisch waren.
Foto: IBM

Automatisierung wäre in den meisten der geschilderten Fälle ein möglicher Ausweg, die Infrastruktur unter permanenter Beobachtung und Kontrolle zu halten – vergleichbar dem Monitoring und Alerting der klassischen Management-Programme à la Tivoli von IBM oder OpenView von HP.

Doch bislang gibt es nur wenige entsprechende Angebote auf dem Markt.

Der Beitrag basiert auf einem Artikel der ChannelPartner-Schwester-Publikation CIO. Autor ist Hartmut Wiehr.