Virtualisierung und Cloud Computing

Neue Anforderungen an das Server-Management

26.03.2010 von Johann Baumeister
Die Virtualisierung führt zu gravierenden Veränderungen im Data Center. Davon betroffen sind auch Administrationsaufgaben wie die Server-Verwaltung. Lesen Sie, worauf sich Admins einstellen müssen.

Virtualisierung, Cloud Computing und die Auflösung traditioneller Unternehmensstrukturen beeinflussen bestehende IT-Landschaften nachhaltig. Das bleibt nicht ohne Auswirkungen auf die Aufgaben von IT-Administratoren. Die anstehenden Veränderungen betreffen Server, Netzwerke und die gesamte Infrastruktur im Data Center gleichermaßen.

Die besten Server-Tools
Software und Utilities für Server
Mit großem Zeitaufwand müssen Unternehmen für einen reibungslosen Betrieb der Server-Systeme sorgen. Mit den richtigen Tools können sie die Server-Verwaltung vereinfachen und zusätzliche Funktionen nutzen.
Disk2vhd
Mit dem kostenlosen Tool Disk2vhd aus den Microsoft Sysinternals können Sie über eine grafische Oberfläche per Mausklick ein Image von physischen Festplatten erstellen.
EventLog Inspector
Der EventLog Inspector erleichtert Administratoren den Umgang mit dem Ereignisprotokoll von Windows. Aufgelaufene Systemmeldungen der Clients lassen sich damit an zentraler Stelle sammeln und auswerten.
HWiNFO32
Das Tool informiert den Anwender detailliert über seine installierte Hardware und stellt sogar Benchmarks für Prozessor, Speicher und Festplatten zur Verfügung.
PowerGUI
Die Freeware PowerGUI von Quest ermöglicht das Zusammenstellen von PowerShell-Befehlen in einer übersichtlichen grafischen Oberfläche. Mit dem mitgelieferten Editor lassen sich darüber hinaus sehr effizient neue Skripts erstellen.
Prime95
Das kostenlose Stresstest-Tool Prime95 setzt die CPU und den Arbeitsspeicher in einem PC-System unter Volllast. Damit lassen sich Server, PCs und Notebooks sehr gut auf Dauerstabilität, ausreichende Kühlmaßnahmen und optimale BIOS-Einstellungen überprüfen.
ServerSentinel
Mit ServerSentinel lassen sich Server und andere Netzwerkressourcen automatisch und zuverlässig von zentraler Stelle aus überwachen. Treten Fehler oder Auffälligkeiten auf, informiert das kostenpflichtige Tool den Administrator zeitnah und erhöht so die Verfügbarkeit der IT-Infrastruktur.
WhoCrashed
Wenn Windows mit einem Bluescreen stehenbleibt, sind die Fehlermeldungen in der Regel nichtssagend - oder so kryptisch, dass die Ursache im Dunkeln bleibt. Deutlich bessere Chancen, das zugrunde liegende Problem zu lösen, bietet das in der Home Edition kostenlose Programm WhoCrashed.
WSUS Offline Update
WSUS Offline Update lädt alle vom Hersteller bereitgestellten Aktualisierungen für die Offline-Installation herunter und läuft auch unter Linux.
Cloudability
Bei Cloudability handelt es sich um einen Service, der Firmen adressiert, die die Kosten von Cloud-Diensten analysieren und stets im Blick behalten möchten.
Pingdom
Pingdom ist ein einfach gehaltenes, aber sehr nützliches Online-Tool für Web-Administratoren, die ihre Server und Websites professionell überwachen möchten. Es bietet neben den nötigen Features auch ein hohes Mass an Usability und Flexibilität. Dies macht das Tool sowohl für Einsteiger als auch für Profis attraktiv.
Chef
Chef zählt neben Puppet, Ansible und SaltStack zu den führenden IT-Automation-Systemen, die derzeit auf dem Markt verfügbar sind. Davon können vor allem größere IT-Organisationen profitieren, die die Verwaltung komplexer Systemlandschaften ohne Automatisierungstools kaum bewältigen könnten.

Beschaffung und Einkauf der Server

Für physische Server gibt es meist einen klar definierten Beschaffungsprozess: Die Hardware wird gekauft oder geleast. Werden Server virtualisiert, so entfällt der Beschaffungsvorgang. Dies gilt zumindest dann, wenn die bestehenden Rechner noch Reserven bieten. Diese freien Kapazitäten nutzen IT-Verantwortliche, um darauf die neuen virtuellen Server zu platzieren. An die Stelle der Beschaffung eines physischen Servers treten bei der Server-Virtualisierung neue Aufgaben und oftmals auch Herausforderungen: Gemeint ist damit vor allem die Analyse der geforderten und benötigten Leistung für den neuen virtuellen Server.

Im Capacity Planner von VMware können Administratoren die Server-Last analysieren. Damit soll der optimale Server für die virtuelle Maschine gefunden werden.

Der Einkauf der physischen Server wird in der Regel anhand der aktuellen Modellpalette des Herstellers vorgenommen. Dabei werden die Server oftmals überdimensioniert. Die Folge sind Server, die nur gering ausgelastet sind. Die steigende Zahl von Konsolidierungsprojekten mit Hilfe von Server-Virtualisierung ist auf eben diese Überdimensionierung der physischen Server zurückzuführen. Das Ziel der Server-Virtualisierung ist eine hohe Konsolidierungsrate - also viele Server auf einem Host. Beim Ermitteln der Lastprofile helfen Analysetools zur Kapazitätsplanung. Sie geben Aufschluss, welche Ressourcen die Server benötigen oder wo noch Kapazitäten frei sind. Die Ergebnisse der Analysen helfen bei der optimalen Konfiguration der virtuellen Server.

Einrichten des Servers

Die Aufgaben beim Setup eines physischen Servers umfassen die Einrichtung des Betriebssystems, der Service Packs, der Patches und ähnlicher Softwarebausteine. Die benötigten Softwaremodule werden entweder von einer CD/DVD, einem ISO-Image oder einem zentralen Image-Server bereitgestellt. Die Setups können manuell oder automatisiert erfolgen. Letzteres reduziert den Zeitaufwand für den Administrator. Beim Einsatz von virtuellen Servern ergaben sich neue Anforderungen. Zwar lassen sich auch virtuelle Server nach dem gleichen Verfahren einrichten, doch dabei verschenkt man einige Vorteile der Virtualisierung. Die Techniken der Server Virtualisierung sehen in der Regel Templates oder Image-Pools vor. Aus diesen werden dann die individuellen Server-Instanzen abgeleitet. Die bei physischen Servern oftmals verwendeten Server Deployment Tools mit ihren Skripten zur Automatisierung entfallen hingegen bei virtuellen Strukturen oder erhalten einen anderen Stellenwert. Bei der Migration eines bestehenden physischen Server in eine virtuelle Umgebung kommen darüber hinaus neue Werkzeuge zum Einsatz: die P2V-Tools. Diese vereinfachen den Transfer eines physischen Servers in eine virtuelle Umgebung. Für standardisierte System erfolgt dies vollautomatisch und ohne Zutun des Administrators.

Server-Monitoring und Optimierung

Mit der Betriebsphase beginnt auch das Überwachen der Server. Dazu bietet der Markt eine Vielzahl an Monitoring Tools (siehe auch: "Was Server-Management-Tools leisten"). Diese reichen vom einfachen Ping bis hin zu komplexen Überwachungs-Suiten für Geschäftprozesse. Monitoring-Tools arbeiten oftmals mit lokalen Agenten auf den zu überwachenden Servern. Alternativ ist mittels SNMP auch eine agentenlose Überwachung der Server möglich. Beim End-To-End-Monitoring erfolgt die Leistungsmessung aus der Sicht des Benutzers. Dazu sind aber komplexere Monitoring-Hilfen notwendig. All die Werkzeuge und Techniken zur Serverüberwachung lassen sich prinzipiell auch für virtuelle Systeme einsetzen. Dabei sollte man aber beachten, was man eigentlich misst. Die virtuellen Maschinen erhalten die CPU immer nur im Zeitscheibenverfahren anteilig zugewiesen. Die Auslastung und andere Messwerte eines virtuellen Servers sind also immer in Korrelation mit dem Host und anderen virtuellen Gästen zu sehen. Eine 1:1-Übertragung der Messewerte ist nur schwer machbar.

Laufzeitoptimierung der Server

Durch Laufzeitoptimierung wird der Durchsatz des Servers verbessert. Physische Server werden meist mit weniger als 15 Prozent der CPU-Last betrieben. Sie haben somit genügend Reserven für Lastspitzen. Andernfalls hätte das Thema der Virtualisierung in Zusammenhang mit Konsolidierungsprojekten kaum diese Bedeutung erreichen können. Bei der Virtualisierung werden gering ausgelastete Server zusammen auf einen Host gepackt. Dies sorgt für eine bessere Auslastung der Hardware des Hostsystems. Werden beispielsweise zehn physische Server, die jeweils eine Auslastung von 10 Prozent aufweisen, zusammen auf einen Host gebracht, so sorgt das für eine Konsolidierungsrate von 10:1. Doch der nun verbleibende Host mit den zehn virtuellen Gästen kann Lastspitzen nur bedingt abfedern. Der Aspekt der Laufzeitoptimierung war für physische Server aufgrund der geringen Auslastung oftmals kein Kriterium. Beim Einsatz von virtuellen Systemen wird die Laufzeitoptimierung zu einem zentralen Punkt der Virtualisierung. Mitunter hilft es, die virtuellen Maschinen so zu gruppieren, dass sie nie gleichzeitig ihre Lastspitzen haben.

Treten dennoch Engpässe bei physischen Servern auf, so helfen oftmals stärkere Hardwareressourcen. Mehr Speicher oder CPUs, eine bessere Netzwerkanbindung oder die Verteilung der Server-Last durch Clusterbildung sind ein paar dieser Möglichkeiten. Diese Techniken helfen prinzipiell auch bei virtuellen Systemen. Sie haben aber immer Auswirkungen auf die weiteren Gäste. Änderungen am Host erfordern darüber hinaus oftmals einen Reboot aller virtuellen Gäste und sind daher nur schwer durchführbar. Andererseits bieten virtuelle Systeme mit der Live Migration einer virtuellen Maschine gänzlich neue Möglichkeiten zur Lastverteilung.

Disaster Recovery

Um ein Disaster Recovery für einen physischen Server sicherzustellen, greifen viele Unternehmen auf ein Restore des Server-Images zurück. Dabei wird das komplette Softwaresystem des Servers sehr schnell von einem Sicherungsmedium auf einen funktionsfähigen Server gebracht. Das Dateisystem der virtuellen Server hingegen liegt meist ohnehin auf einem gemeinsamen Speicher. Dies ist zumindest dann notwendig, wenn die erweiterten Funktionen wie Live Migration benötigt werden. Diese Speichersysteme allerdings haben in der Regel flexiblere und schnellere Möglichkeiten zur Sicherung des gesamten Images der virtuellen Maschine. Ferner lassen sich virtuelle Server meist direkt aus einem zentralen Speicher booten. Hinzu kommt, dass der Ausfall einer virtuellen Maschine oftmals andere Ursachen haben wird als der eines physischen Rechners. Entweder fällt der Host aus oder aber das Softwaresystem in der virtuellen Maschine. Um einen Ausfall der Host-Server abzufedern werden diese geclustert. Dies macht die traditionellen Disaster Recovery-Funktionen überflüssig oder ändert sie gravierend.

Backup und Recovery

Physische Server mit direct attached Storage halten oftmals lokale Daten, die regelmäßig gesichert werden müssen. Dies passiert durch Backupagenten auf den Servern. Der Agent muss auf das zu sichernde System abgestimmt sein. Ferner muss er genügend Ressourcen erhalten, um die Sicherung auch in der vorgegebenen Zeit durchführen zu können. Um den Tagesbetrieb nicht zu sehr zu stören, erfolgt die Sicherung meistens nachts in speziell dafür reservierten Zeiträumen - dem Backupfenster. Zwar lassen sich prinzipiell auch virtuelle Systeme durch diese Verfahren sichern, doch das führt schnell zum Engpass. Wenn alle virtuellen Gäste gleichzeitig die Datensicherung durchführen, so wird oftmals der Host überlastet. Hier gilt es Rücksicht zu nehmen und das Backup zu verteilen. Alternativ bieten virtuelle Infrastrukturen auch eine Sicherung der virtuellen Maschinen durch den Host oder das Speichersystem. Beim Einsatz von virtuellen Systemen sind daher die Sicherungskonzepte zu überdenken und in der Regel auch anzupassen. Dies gilt auch für den Einsatz von Speichersubsystemen, denn sie beinhalten meist komfortablere Möglichkeiten der Datensicherung als die traditionellen Backup-Tools.

Energiemanagement

Ein gänzlich neuer Aspekt, mit dem sich Administratoren in Zukunft auseinander setzen müssen, besteht im Energiemanagement. Oftmals fällt dabei das Augenmerk allein auf die Energieeinsparung durch statische Techniken. Dies sind stromsparende Baugruppen und Rechner, aber auch die Ausrichtung des Rechenzentrums an den Aspekten einer effizienten Kühlung. Hinzu kommen dynamische Maßnahmen zur Energieeinsparung wie etwa die temporäre Anpassung der Rechenleistung an den aktuellen Bedarf. Das Spektrum reicht dabei von der Anpassung der CPU-Taktung bis zur Deaktivierung von CPU-Cores oder ganzer Server. Leistungsspitzen sollen ferner aus der Cloud bedient werden können. Viele dieser Techniken basieren auf der Lastverteilung durch Migrationen der virtuellen Server. All diese Maßnahmen bleiben nicht ohne Auswirkungen auf die Infrastruktur des Rechenzentrums wie auch der Kühlung. In Zukunft sind hier intelligentere Konzepte gefordert. Dies verlangt nach Hilfen zur dynamischen Ausrichtung des gesamten Rechenzentrums an den jeweils aktuellen Anforderungen.

Fazit

Die Verwaltung und Überwachung neuer Server-Strukturen hat mit dem traditionellen Server-Management, wie es IT-Administratoren jahrelang gewohnt waren, nur wenig gemein. Hergebrachte Arbeitsabläufe, Techniken und Werkzeuge werden sich ändern müssen. An die Stelle eines fest vorgegebenen Ablaufs von der Beschaffung über die Installation bis hin zum Betrieb der Geräte treten in Zukunft flexiblere Konzepte. Sie bringen die Data-Center-Ressourcen in Einklang mit der abgeforderten Last. Die Flexibilität der Virtualisierung und des Cloud Computing erfordert angepasste Verwaltungs-Tools und Prozesse. (wh)