Analysen

Virtualisierung – Prognosen und Empfehlungen

29.08.2013 von Wolfgang Herrmann
Ist die Server-Landschaft virtualisiert beziehungsweise konsolidiert, sollten die IT-Kosten in einem Unternehmen sinken. Was bleibt da noch zu tun? Laut Forrester-Analyst Dave Bartoletti reizen viele Unternehmen die Möglichkeiten der x86-Virtualisierung noch nicht ganz aus.
Foto: Fujitsu

von Wolfgang Hermann
Seit mehr als zehn Jahren steht das Thema x86-Server-Virtualisierung auf der Prioritätenliste von IT-Managern weit oben, schreibt Dave Bartoletti, Experte für den Bereich Infrastructure & Operations bei Forrester Research, in seinem Blog. Mehr als drei Viertel aller Unternehmen würden bis Ende 2013 Virtualisierungstechniken nutzen, sechs von zehn Workloads sollen dann bereits in Virtuellen Maschinen (VMs) laufen. Der Markt für Hypervisor, wie sie vor allem die Branchenschwergewichte VMware, Microsoft oder Citrix offerieren, sei gereift, die Konsolidierungsvorteile der Virtualisierung seien unbestritten. Gibt es da noch Luft nach oben?

Glaubt man Bartoletti und seinen Analystenkollegen Rich Fichera, Rachel Dines und James Staten, ist die Antwort darauf ein klares Ja. Sie haben neun Prognosen und Empfehlungen für die Virtualisierung im Jahr 2013 formuliert, die IT-Verantwortliche beherzigen sollten.

Prognosen zur Server-Virtualisierung
Prognose 1
Konsolidierungsvorteile reichen nicht, um noch mehr Virtualisierung zu rechtfertigen. IT-Manager müssen erklären, wie Virtualisierung Anwendungen flexibler und sicherer mache.
Prognose 2
Ihre Virtualisierungsumgebung muss dynamisch sein, sonst verschwenden Sie Geld. Unternehmen sollten die zahlreichen Features nutzen, die das Hypervisor Resource Management inzwischen biete, rät Forrester.
Prognose 3
Disaster Recovery und Ausfallsicherheit treiben die meisten neuen Virtualisierungsprojekte. Das hat eine Forrester-Umfrage ergeben. Der Return on Investment (RoI) für Virtualisierungsvorhaben werde zunehmend durch eine verbesserte Ausfallsicherheit der IT-Infrastruktur bestimmt.
Prognose 4
Analytics-Funktionen machen konsolidierte Management-Tools für die Virtualisierung noch smarter. Das betrifft vor allem die Branchenschwergewichte VMware und Microsoft, die ihre umfangreichen Suiten vereinfacht haben. Unternehmen können Analytics-Features nutzen, um mehr aus ihren virtualisierten Umgebungen herauszuholen.
Prognose 4
Analytics-Funktionen machen konsolidierte Management-Tools für die Virtualisierung noch smarter. Das betrifft vor allem die Branchenschwergewichte VMware und Microsoft, die ihre umfangreichen Suiten vereinfacht haben. Unternehmen können Analytics-Features nutzen, um mehr aus ihren virtualisierten Umgebungen herauszuholen.
Prognose 5
Die Anwendung sollte die beste Virtualisierungsplattform diktieren, nicht umgekehrt, empfiehlt Forrester. Hinsichtlich der reinen Hypervisor-Technik könnten Unternehmen heute frei wählen und auch Open-Source-Alternativen ins Auge fassen. Entscheidend sollte aber nicht die Hypervisor-Technik sein, sondern die Betriebssysteme und Anwendungen, die in der virtualisierten Umgebung laufen.
Prognose 5
Die Anwendung sollte die beste Virtualisierungsplattform diktieren, nicht umgekehrt, empfiehlt Forrester. Hinsichtlich der reinen Hypervisor-Technik könnten Unternehmen heute frei wählen und auch Open-Source-Alternativen ins Auge fassen. Entscheidend sollte aber nicht die Hypervisor-Technik sein, sondern die Betriebssysteme und Anwendungen, die in der virtualisierten Umgebung laufen.
Prognose 6
Der Hypervisor-Preiskrieg setzt sich fort…. und geht doch an den Kundenbedürfnissen vorbei. Kunden bezahlten in Wirklichkeit nicht für den Hypervisor, sondern für den damit verbunden Management-Stack, konstatieren die Forrester- Experten.
Prognose 7
2013 wird das Jahr 1 des Software-defined Data Center. Das Konzept des Software-defined Data Center ist aus Sicht der Forrester-Experten der nächste logische Schritt hin zu hochautomatisierten und effizienten IT-Operationen.
Prognose 8
Das hybride Data Center wird populärer als reine Private oder Public Clouds. Anwenderunternehmen nutzen künftig eine Mischung aus virtualisierten lokalen Ressourcen (on-premises) und externen Workloads in der Cloud (off-premises).
Prognose 9
Ihr CFO fordert Kostentransparenz für virtuelle Umgebungen. Das obere Management Ihres Unternehmens wird sich 2013 viel stärker für die Kosten der virtualisierten IT interessieren, lautet die letzte Prognose der Forrester-Experten.

Virtualisieren - aber richtig

Einfache IT-Anwendungen haben die meisten Unternehmen bereits auf virtuelle Server verlagert, argumentieren die Forrester-Experten. Mit Blick auf das Jahr 2013 blieben noch die komplexen, geschäftskritischen Applikationen, allen voran leistungsstarke Datenbanken, ERP- und Collaboration-Systeme. Solche Anwendungen virtualisiere niemand, nur um Hardwarekosten zu sparen. Nach Ansicht der Analysten muss es darum gehen, diese Systeme mobil zu machen, sodass sie sich einfacher verschieben, schützen und duplizieren lassen. Aufgabe der IT-Infrastruktur-Manager sei es nun zu erklären, wie Virtualisierung solche Applikationen schneller, sicherer und zuverlässiger machen kann. Im zweiten Schritte gelte es, diese Aussagen konkret zu belegen.

Virtualisierungsumgebung müssen dynamisch sein

Sind Ihre virtuellen Maschinen wirklich mobil, oder ist Ihr Virtualisierungsszenario im Grunde eher statisch?, fragen die Forrester-Spezialisten. Sie verweisen auf die zahlreichen Features im Umfeld des Hypervisor-Resource-Managements. Diese erlauben es zum Beispiel, VMs automatisch zu verschieben oder die Auslastung von Host-Systemen und deren Leistung zu optimieren. IT-Verantwortliche sollten beispielsweise regelmäßig Konsolidierungskennzahlen checken und die Größe der virtuellen Maschinen überprüfen. Entsprechende Tools seien verfügbar und womöglich zum Teil sogar schon in den Unternehmen installiert, so die Analysten. Wer sie noch nicht nutze, solle 2013 schleunigst damit anfangen.

Der erste Schritt zum Virtualisierungsprojekt:
Stellt die CPU meines Desktop-Systems die richtigen Features bereit? Das Tool „coreinfo“ von Sysinternals kann helfen.
Ein Problem, das unter Windows 8 auftauchen kann:
Die Installation einer anderen Virtualisierungslösung ist nicht möglich, wenn Hyper-V installiert ist.
Ein weiteres Problem unter Windows 8:
Die Software VirtualBox lässt sich zwar parallel zu Hyper-V installieren, kann aber nicht mehr auf die benötigten Features der CPU zugreifen.
Der entscheidende Tipp:
Soll eine andere Virtualisierungssoftware unter Windows 8 zum Einsatz kommen, so muss das Hyper-V-Feature entfernt werden.
Es muss nicht immer ein komplettes Betriebssystem sein:
Mit Hilfe der Software Evalaze können einzelne Anwendungen in einer virtuelle Maschine „eingeschlossen“ werden.
Virtualisierungs-Tool Evalaze:
Obwohl beliebig viele Anwendungen virtualisiert werden können, sind die verfügbaren Features der freien Version von Evalaze doch arg eingeschränkt.
Ein guter Mechanismus:
Der Anwender kann bei der Konfiguration seiner virtualisierten Anwendung unter Evalaze entscheiden, wie dieses Programm mit dem Rest des Systems interagiert.
Leider noch nicht in der Gegenwart angekommen:
Die „Sandkasten“-Software „Bufferzone Pro“ unterstützt Windows 8 offiziell noch nicht – funktioniert im Test dennoch auf einer 64-Bit-Version von Windows 8 Enterprise.
Ohne Registrierung geht es nicht:
Danach steht die freie Version von „Bufferzone Pro“ aber ohne weitere Einschränkungen zum Einsatz bereit.
Hier landen die Anwendungen in der Sandbox:
Die Lösung Bufferzone isoliert Anwendungen aber auch Daten, die beispielsweise aus dem Internet heruntergeladen wurden, in einem speziellen, geschützten Bereich auf dem Rechner.
Wenn es doch Windows sein muss:
Parallels Desktop ermöglicht den Betrieb unterschiedlicher Betriebssysteme auf einem Host-System unter OS X von Apple.
Windows 8 in ungewohnter Umgebung:
Mit Hilfe von Parallels Desktop kann auch das aktuelle Windows-System auf der Apple-Plattform direkt auf dem Host-Betriebssystem genutzt werden.
Die Windows-Taste fehlt:
Erst, wenn man als Windows-Nutzer in einer derartigen virtualisierten Umgebung arbeiten muss, fällt auf, wie wichtig diese Taste unter Windows 8 sein kann.
VMware Player auf einem Windows-8-System:
Ist das Hyper-V-Feature nicht aktiviert, so bietet die Freeware eine gute Möglichkeit, virtuelle Maschinen einfach zu betreiben.
Auch das funktioniert tadellos:
Ein in der VMware Workstation unter Windows 7 virtualisierter Windows Server 2012 Essentials, der auf dem VMware Player sowie einer Windows-8-Plattform als Host-System arbeitet.
Ist als „Technical Preview“ erhältlich:
Die kommende Version der VMware Workstation wird unter anderem auch direkt mit der Unterstützung von Windows 8.1 aufwarten.
Von der „kleinen Virtualisierung“ bis hin zum Server-Release:
Die freie Software VirtualBox unterstützt frühzeitig auch neue und Beta-Versionen der verschiedenen Betriebssysteme und eignet sich dadurch für Testsysteme.

Disaster Recovery und Ausfallsicherheit treiben Virtualisierungsprojekte

Aus Sicht der Anwenderunternehmen sind die wichtigsten Gründe für Virtualisierungsprojekte heute eine höhere Ausfallsicherheit und Verbesserungen in Sachen Disaster Recovery. Das zumindest hat eine aktuelle Forrester-Erhebung ergeben. Schon jetzt gebe es einen wachsenden Markt für Backup, Recovery, Snapshots, Replication und Archivierungstechniken für Daten in Virtuellen Maschinen, berichten die Analysten. Ihre Prognose: 2013 werden mehr Infrastrukturverantwortliche in den IT-Abteilungen Data-Protection- und Disaster-Recovery-Tools nutzen, die speziell für Virtualisierungsmanagementsysteme konzipiert und mit diesen integriert sind. Der Return on Investment (RoI) für Virtualisierungsvorhaben werde zunehmend durch eine verbesserte Ausfallsicherheit der IT-Infrastruktur bestimmt.

Analytics-Funktionen machen konsolidierte Management-Tools smart

Sowohl VMware als auch Microsoft haben ihre Suiten für das Virtualisierungsmanagement konsolidiert und offerieren jetzt einfachere Pakete. Diese beinhalten vor allem Monitoring- und Analysefunktionen, aber auch Features für Kapazitätsplanung, Konfiguration, Performance-Management und Automatisierung. Forrester beobachtet in diesem Marktsegment eine Welle von Übernahmen, die IT-Verantwortliche im Auge behalten sollten, wenn sie sich an einen der großen IT-Konzerne binden. So hat beispielsweise Dell den Anbieter von IT-Management-Software Quest gekauft, der unter anderem Virtualisierungs- und Cloud-Management-Tools entwickelt. IT-Verantwortlichen, die schon jetzt in einer Flut von Virtualisierungsmetriken zu ertrinken drohen, empfiehlt Forrester, dieses "Big-Data-Problem" mithilfe von Analytics-Tools in Angriff zu nehmen. Auf diese Weise ließen sich oft verborgene Schätze in den Daten heben, die Unternehmen zu mehr Effizienz in der IT verhelfen könnten.

Details zur Virtual Desktop Infrastruktur
Eine VDI oder Centralized-Virtual-Desktop-Umgebung verfolgt eine zentralistischen Ansatz: Die Desktop-Umgebungen und Daten lagern zentral im Firmenrechenzentrum und werden über das Netzwerk zu den Endgeräten transferiert.
Details zur Virtual Desktop Infrastruktur
Architekturvergleich zwischen einer herkömmlichen und virtualisierter Desktop-Infrastruktur.
Details zur Virtual Desktop Infrastruktur
Die Elemente einer Desktop Virtual Machine (DVM): Desktops, Daten und persönliche Einstellungen. Der Nutzer kann die Desktop-Umgebung an seine Anforderungen anpassen, etwa indem er zusätzliche Anwendungen hinzufügt.
Details zur Virtual Desktop Infrastruktur
Laut einer Studie von Intel von 2011 bevorzugen die meisten Unternehmen, die derzeit Desktop-Virtualisierung einsetzen, den Virtual-Desktop-Infrastructure Ansatz.
Details zur Virtual Desktop Infrastruktur
Die Virtual-Software-Appliance ILIO von Atlantis reduziert den Umfang von virtualisierten Desktops um bis zu 90 Prozent. Die DVM lassen sich dann sogar im Arbeitsspeicher von Server-Systemen vorhalten oder auf schnellen, aber derzeit immer noch teuren Solid State Drives (SSDs) speichern.
Details zur Virtual Desktop Infrastruktur
Cloud-Service-Provider wie beispielsweise das Kölner Unternehmen Pironet NDH bieten mittlerweile VDI auch aus Cloud-Service an ("Desktop as a Service", DaaS). In diesem Fall lagern die virtualisierten Desktops beim Provider und werden den Kunden über Weitverkehrsverbindungen zur Verfügung gestellt.
Details zur Virtual Desktop Infrastruktur
Eine VDI ist im Jahresschnitt kostengünstiger als eine herkömmliche PC-Client-Infrastruktur. Noch geringere Kosten versprechen Anbieter von Desktop-as-a-Service-Angeboten wie Desktone.
Details zur Virtual Desktop Infrastruktur
Betrachtet man nur die Software-Kosten, ist eine VDI teurer als der klassische PC oder ein DaaS-Angebot.

Anwendungen diktieren Virtualisierungsplattform

Die Diskussion um Hypervisor-Features ist in vielen Unternehmen beendet, konstatieren die Forrester-Experten. Vor allem die großen Plattformen hätten sich weitgehend einander angenähert. Die Zeiten, in denen alle Applikationen auf einem einzigen Hypervisor virtualisiert wurden, seien vorbei. In der Praxis hätten sich heterogene Virtualisierungsumgebungen etabliert. Für Anwenderunternehmen, die eine Abhängigkeit vom Hersteller fürchten, sei das eine gute Nachricht.

So setzten etliche Organisationen inzwischen auf Open-Source-Hypervisor und Linux-Virtualisierung, berichten die Analysten. Die verfügbaren Funktionen in diesem Bereich seien zumindest gut genug; gerade im Linux-Umfeld gebe es noch jede Menge Workloads, die sich virtualisieren ließen. Die Forrester-Empfehlung in diesem Kontext lautet: Ihre Anwendungen und Betriebssysteme sollten determinieren, welcher der beste Weg zur Virtualisierung ist. Auf diese Weise könnten IT-Verantwortliche dann auch fortgeschrittene Managementfunktionen für solche Anwendungen nutzen, die diese wirklich benötigen. Früher oder später, so die Prognose, würden alle Anbieter von Virtualisierungsmanagementsoftware die Heterogenität in den Unternehmen akzeptieren und mit ihren Produkten unterstützen.

Der Hypervisor-Preiskrieg setzt sich fort

Microsoft wird mit seinem kostenlosen Hypervisor Hyper-V weiterhin versuchen, VMwares Dominanz zu brechen, erwarten die Auguren, vor allem im SMB-Markt und auf Abteilungsebene in größeren Unternehmen. Doch die Frage, ob der VM-Container frei verfügbar ist, sei inzwischen weitgehend irrelevant: Kunden bezahlten in Wirklichkeit für den Management-Stack, und das sei zu begrüßen. Ganz gleich ob sie VMwares vCenter, Microsofts System Center oder irgendeine andere Management-Suite bevorzugten, bei der Auswahl des Hypervisors könnten Anwenderunternehmen heute frei entscheiden und auch Open-Source-Optionen berücksichtigen. VMware gerate dabei erheblich unter Druck, Kunden weiter an seine Management-Tools zu binden. Unter dem Strich, so die Prognose, werden Management-Tools 2013 leistungsstärker und gleichzeitig billiger. Die eigentliche Schlacht um Marktanteile sollte in diesem Segment stattfinden, so Forrester.

VDI (Virtual Desktop Infrastructure / Hosted Desktop Virtualization)
Der komplette personalisierte Desktop (inklusive Betriebssystem, Daten und Benutzereinstellungen) wird zentral im Rechenzentrum auf einem virtualisierten Server bereitgestellt und betrieben. Offline-Betrieb und Zugriff von mobilen Endgeräten sind möglich. Problematisch: die benötigte Storage-Kapazität. (Quelle: Experton)
Session oder Presentation Virtualization
Früher auch als "Server Based Computing" oder "Terminal Services" bezeichnet:stellen den Zugriff auf zentral betriebene Anwendungen bereit. Problem: In der Regel ist weder eine Personalisierung noch der Offline-Betrieb möglich. Einsatzbereich: einfache Arbeitsplätze, die nur eine oder zwei Applikationen nutzen und nicht mobil sind, meist in Verbindung mit Thin Clients genutzt. (Quelle: Experton)
Application Streaming
Applikationen werden paketiert und zentral bereitgestellt, um lokal auf dem Client in einer Sandbox betrieben zu werden. Dies ist auch offline möglich. Problematisch ist, dass die Paketierung nach jedem Software-Update der jeweiligen Applikation wiederholt werden muss. Einsatzbereich ist die Bereitstellung von Anwendungen, die mit anderen Applikationen nicht kompatibel sind. (Quelle: Experton)
Managed Desktop VM
Ein Client-Image wird zentral gemanagt und an die Clients verteilt. Die eigentliche Rechenleistung wird vom Client ausgeführt, so kann er auch offline genutzt werden. Problematisch ist das Management der virtuellen Maschinen und des Basis-Clients. Einsatzbereich: Clients in Niederlassungen und Home-Offices. (Quelle: Experton Group)

2013 wird das Jahr des Software-defined Data Center

Das Konzept des Software-defined Data Center (SDD oder auch SDDC) ist aus Sicht der Forrester-Experten der nächste logische Schritt hin zu hoch automatisierten und effizienten IT-Operationen. Im Grunde stecke dahinter eine natürliche Erweiterung der Virtualisierung auf Storage- und Netzwerkebenen. Schon ab Mitte des Jahres erwarten die Analysten die ersten integrierten Lösungen für softwaredefiniertes Computing, die auch Netz- und Storage-Ressourcen einschließen. VMware beispielsweise sei mit der Übernahme von Nicira einen großen Schritt in diese Richtung gegangen und verfüge bereits über eine mächtige Suite mit APIs für die Storage-Integration. Aber auch Microsoft investiere viel in das Thema und habe seinen Windows Server 2012 mit einer Reihe von Features für die Storage- und Netzvirtualisierung ausstaffiert. Wenn Sie eine neue VM in Sekunden provisionieren können, für die Zuweisung von Storage- oder Netzressourcen aber Tage brauchen, sollten Sie diese Entwicklungen im Auge behalten, rät Forrester IT-Verantwortlichen.

Das hybride Data Center auf dem Vormarsch

Für Forrester-Kunden ist eines klar, schreibt Bartoletti: Hybriden Rechenzentren mit einem Mix aus virtualisierten lokalen Ressourcen (On-Premises) und externen Workloads in der Cloud (Off-Premises) gehört die Zukunft. Diese Zukunft beginne jetzt. IT-Manager sollten aufhören, sich zu fragen, ob ihre virtualisierte Umgebung nun eine "echte" Private Cloud sei. Stattdessen sollten sie sich darauf konzentrieren, interne Ressourcen durch Infrastruktur und Anwendungen aus der Public Cloud zu ergänzen. Konkret bedeute das: Hören Sie auf, Tools für das Infrastruktur-Management zu kaufen. und prüfen Sie stattdessen solche Tools, die eine einfache Provisionierung und automatische Konfiguration komplexer Services ermöglichen. Ihre Business-Kunden wollen, dass Sie IT-Services liefern, nicht Infrastruktur.

Vor dem Schritt in die Cloud
Bei Unternehmen, die gerade erst eine virtuelle Server-Landschaft aufgebaut haben, Augenmerk zuerst auf Automatisierung und Management legen, vor dem Schritt in die Cloud
Sicherheit
Virtuelle Infrastrukturen, Anwendungen und Desktops müssen mittels Firewalls, Access Policies und Virenscanner ebenso sorgfältig gegen Viren und Malware geschützt werden wie physikalische.
BYOD-Strategie
Strikte Trennung von privater und geschäftlicher Arbeitsumgebung muss gewährleistet sein, zum Beispiel mit Client-seitigem Hypervisor. Klare Betriebsvereinbarungen: Jeder Mitarbeiter muss wissen, was er darf und was nicht.
Software-Lizenzierung
Analyse der bestehenden Kundenumgebung
Backup & Disaster Recovery Strategie
Speicherstrategien, Datensicherung, Datenarchivierung, Multi-Tier-Speichertechnologien und vor allem Wiederherstellung und Migration berücksichtigen
Storage- und Netzwerk-Konzept
Um alle Features moderner Hypervisoren auszunutzen, sollten entsprechende Massenspeicherlösungen verwendet werden. Damit lässt sich die Verwendung von Service-Klassen automatisieren: Das Storage-Device informiert den Hypervisor automatisch über seine Leistungsklassen, sodass dieser entsprechend vorgegebener Regelwerke die Provisionierung von Workloads (VMs) automatisch nach vereinbarten SLAs vornehmen kann.
Organisation auf Kundenseite
Klärung und Definition: IT-Organisation (Aufbau- und Prozessorganisation, neue Rollen und Verantwortlichkeiten, neue Tools etc.) auf Kundenseite
Gesamtkonzept
Ganzheitlich Sicht über das Design und die Möglichkeiten der Implementierung behalten

CFOs fordern Kostentransparenz für virtuelle Umgebungen

Das obere Management Ihres Unternehmens wird sich 2013 viel stärker für die Kosten der virtualisierten Umgebungen interessieren, lautet die letzte Prognose der Forrester-Experten. Kennen Sie die inkrementellen Kosten für das Aufsetzen einer neuen virtualisierten Applikation? Verfolgen Sie die annualisierten Kosten für die Verwaltung und Wartung einer virtuellen Maschine, einschließlich der darunterliegenden Storage- und Netzinfrastruktur? Falls nicht, sollten Sie sich im laufenden Jahr intensiv mit den finanziellen Aspekten des IT-Betriebs befassen, raten die Analysten. Virtualisierte Ressourcen ließen sich einfacher aus dem Data Center transferieren als physische Assets. Dafür komme indes nicht nur die Cloud in Betracht; auch Hosting-Provider witterten Geschäftschancen. In jedem Fall sollten IT-Verantwortliche die Kosten ihrer virtualisierten Workloads erklären können, wenn es eines Tages darum geht, diese zu verteidigen. (rb)