VMware-Manager

"Es muss auch einen Weg zurück aus der Cloud geben"

02.07.2012
Welche Chancen bieten die aktuellen Virtualisierungs-Trends für den Channel? Was ist bei der Schnittstelle zur Cloud zu beachten? Die vier VMware-Manager Jörg Hesske, Martin Niemer, Holger Temme und Stephan Bohnengel gehen im Interview mit ChannelPartner diesen Fragen auf den Grund.
Jörg Hesske, Country Manager VMware Deutschland
Foto:

Welche Chancen bieten die aktuellen Virtualisierungs-Trends für den Channel? Was ist an der Schwelle zur Cloud zu beachten? Diesen Fragen gehen die vier VMware-Manager Jörg Hesske, Deutschlandchef, Martin Niemer, Solution Manager CEMEA, Holger Temme, Manager, End User Computing Business Central Europe and RUME, und Stephan Bohnengel, Senior Systems Engineer & Security und Compliance Spezialist, im Interview mit ChannelPartner auf den Grund.
CP: In welchen Bereichen der Unternehmens-IT steht die Virtualisierung erst noch am Anfang?

Jörg Hesske: Nachdem viele Unternehmen inzwischen schon recht weit mit dem Ausbau ihrer virtuellen Server- Infrastruktur sind, geht es jetzt zunehmend in Richtung zur Virtualisierung geschäftskritischer Applikationen. Gerade bei so wichtigen Anwendungen wie Exchange, SQL, SAP und Oracle ist es besonders wichtig, dass diese zuverlässig ohne Ausfälle laufen. Mittels Virtualisierung und darauf aufsetzenden Disaster Recovery- und Business Continuity-Lösungen erreichen Unternehmen eine Hochverfügbarkeit - sehr essentiell gerade auch für mittelständische, produzierende Betriebe.

CP: Wo liegen Ihrer Erfahrung nach die Knackpunkte - sowohl für die Endkunden als auch für die Vertriebspartner?

Hesske: Für unsere Partner ist vor allem wichtig zu wissen, dass sich VMware im Gegensatz zu anderen Software-Häusern nicht als Cloud-Anbieter, sondern als Technologiepartner versteht, der Virtualisierung, flexible PaaS-, SaaS- und IaaS-Modelle sowie hybride Cloud-Umgebungen ermöglicht. Wir bauen nicht eine universale Infrastruktur, sondern bieten flexible, anpassbare Modelle. Diese individuellen Lösungen entscheiden mit darüber, welche Anbieter sich beim Kunden mittel- bis langfristig durchsetzen. Für die Kunden kommt es natürlich darauf an, dass die Lösung überzeugt. Natürlich schauen Sie auch auf die Kosten - aber ein reiner Preisvergleich, ohne sich die Leistungen und Garantien anzusehen, reicht nicht. Dazu ist die Entscheidung für Virtualisierung dann zu strategisch wichtig.

CP: Was empfehlen Sie Vertriebspartnern?

Hesske: Schauen Sie auf die Bedürfnisse der Kunden! Es gibt keine Standard-Lösung, die für alle Kunden gleich aussieht. Unternehmen, die gerade erst eine virtuelle Server-Landschaft aufgebaut haben, sollten sich vielleicht erst einmal mit deren Automatisierung und Management dieser beschäftigen, bevor sie ihr Cloud-Projekt angehen. Für kleinere Unternehmen oder Start-Ups kann durchaus von Anfang an eine Public-Cloud-Lösung Sinn machen.

Virtualisierung Markt
Konsolidierungsrate im Server-Bereich
Dem V-Index von Veeam Software zufolge liegt das Verhältnis von virtualisierten Maschinen zu physischen Hosts in Deutschland bei 4,7:1. Hier ist noch Luft nach oben, findet Experton Group. Der anzustrebende Wert bei Verhältnis der Anzahl von virtuellen Servern zu physischen Servern bei mindestens 10:1, im Idealfall bei etwa 30:1.

CP: Was sind aktuell die wesentlichen Virtualisierungs-Trends?

Hesske: Unternehmen benötigen eine flexiblere und reaktionsschnellere IT, die gleichzeitig effizient und kostengünstig ist. Sie müssen Kosten senken, die geschäftliche Agilität steigern und von Wahlfreiheit profitieren können. Bei allen Bereichen - Server-, Storage- oder Desktop-Virtualisierung sowie der ganze Bereich End User Computing - bei stehen folgende Ziele im Vordergrund:

CP: Welche Kriterien sind für Endkunden hierzulande bei der Wahl der Virtualisierungs-Plattform entscheidend?

Martin Niemer, Martin Niemer, Solution Manager CEMEA VMware
Foto:

Martin Niemer: Das Hauptkriterium ist sicherlich die Zuverlässigkeit der Lösung, da es sich um einen sehr kritischen Teil der Infrastruktur handelt. An zweiter Stelle sehen wir gerade heute die Wachstumschancen mit der Lösung, mit der Kunden ihr Ziel in Richtung 100-Prozent-Virtualisierung erreichen können. Dafür ist ein kompletter Stack notwendig, der nicht nur Server-Virtualisierung betrifft, sondern auch Storage, Netzwerk, Management und natürlich die passenden Security-Lösungen mit einschließt. Auf der Kostenseite ist natürlich die TCO einer Lösung ein wichtiger Punkt. Entscheidend bei einem Virtualisierungsprojekt sind natürlich die Gesamtkosten in Bezug auf die zu virtualisierenden Workloads, also die Kosten pro virtuelle Maschine (VM) für die fertige Lösung.

CP: Welche Rolle spielt dabei die Überlegung, ob und inwiefern der Plattformanbieter Cloud-basierte Dienste und Anwendungen integrieren kann?

Niemer: Es gibt hier grundsätzlich unterschiedliche Ansätze: Kunden sehen klar die Vorteile, Cloud-Bursting zu nutzen, oder gezielt einzelne Workloads in die Cloud zu bringen. Zwei Dinge sind jedoch entscheidend: Es muss eine transparente und durchgängige Lösung sein. Das heißt, es muss ein durchgängiges Management vorhanden sein, dass keine Unterschiede zwischen Workloads im eigenen Rechenzentrum und der Cloud macht, und die Workloads müssen natürlich transparent verschoben werden können, sprich: Es muss nicht nur einen Weg in die Cloud, sondern auch wieder zurück ins eigene Rechenzentrum geben. Analysten gehen davon aus, dass circa 15 Prozent der Workloads in den nächsten drei Jahren in die Cloud gehen. Dies zeigt, dass das eigene Rechenzentrum nach wie vor eine hohe Bedeutung haben wird.

CP: Welche Rolle spielt die Frage nach der Quell-Offenheit der Hypervisoren für Endkunden?

Niemer: Unserer Meinung nach ist die Quelloffenheit keine entscheidende Frage. Wichtiger sind Standards, die es ermöglichen, Workloads zwischen Systemen zu migrieren, deswegen haben wir uns sehr für die Verbreitung von OVF (Open Virtualization Format) als offenen Standard für virtuelle Maschinen eingesetzt.

CP: Erkennen Sie eine Tendenz, dass Anwender die Hypervisor-Plattform wechseln?

Niemer: Wir sehen hier keine Trendwende. Viele Kunden setzen gezielt mit ihrer Private-Cloud-Strategie ein Gegengewicht im Rechenzentrum zu Herstellern wie Microsoft. Das Design einer Private Cloud ist auf Skalierung ausgelegt von IT-Ressourcen - sei es Soft- oder Hardware, Storage, Rechenpower etc.

CP: Inwiefern unterstützen Ihre Management-Lösungen und -Tools auch die Verwaltung virtueller Umgebungen, die mit unterschiedlichen Hypervisoren virtualisiert wurden?

Niemer: VMware vCenter Operations weist Konnektoren auf, um Daten aus verschiedensten anderen System zu aggregieren. Dies umfasst Hardware wie Server und Storage und auch Applikationen wie z.B. SAP. Eine Integration von anderen Hypervisor-Lösungen wird von unseren Kunden nicht nachgefragt und ist deswegen derzeit nicht geplant

CP: Welche Rolle spielt Ihrer Ansicht nach das "oVirt"-Projekt der Open Virtualization Alliance (OVA), das sich der Förderung von Virtualisierungs-Management-Lösungen auf Open-Source-Basis verschrieben hat?

Niemer: Wir sehen keine Verbreitung dieses Tools. Kunden wenden sich immer mehr Private Cloud Umgebungen zu, die weit mehr erfordern als nur das Management des Hypervisors, sondern besonders, Automatisierung und Self Service in den Vordergrund stellen.

Tipps für Reseller (Virtualisierung)
Vor dem Schritt in die Cloud
Bei Unternehmen, die gerade erst eine virtuelle Server-Landschaft aufgebaut haben, Augenmerk zuerst auf Automatisierung und Management legen, vor dem Schritt in die Cloud
Sicherheit
Virtuelle Infrastrukturen, Anwendungen und Desktops müssen mittels Firewalls, Access Policies und Virenscanner ebenso sorgfältig gegen Viren und Malware geschützt werden wie physikalische.
BYOD-Strategie
Strikte Trennung von privater und geschäftlicher Arbeitsumgebung muss gewährleistet sein, zum Beispiel mit Client-seitigem Hypervisor. Klare Betriebsvereinbarungen: Jeder Mitarbeiter muss wissen, was er darf und was nicht.
Software-Lizenzierung
Analyse der bestehenden Kundenumgebung
Backup & Disaster Recovery Strategie
Speicherstrategien, Datensicherung, Datenarchivierung, Multi-Tier-Speichertechnologien und vor allem Wiederherstellung und Migration berücksichtigen
Storage- und Netzwerk-Konzept
Um alle Features moderner Hypervisoren auszunutzen, sollten entsprechende Massenspeicherlösungen verwendet werden. Damit lässt sich die Verwendung von Service-Klassen automatisieren: Das Storage-Device informiert den Hypervisor automatisch über seine Leistungsklassen, sodass dieser entsprechend vorgegebener Regelwerke die Provisionierung von Workloads (VMs) automatisch nach vereinbarten SLAs vornehmen kann.
Organisation auf Kundenseite
Klärung und Definition: IT-Organisation (Aufbau- und Prozessorganisation, neue Rollen und Verantwortlichkeiten, neue Tools etc.) auf Kundenseite
Gesamtkonzept
Ganzheitlich Sicht über das Design und die Möglichkeiten der Implementierung behalten

CP: Wie wichtig ist es für einen Kunden, der überlegt, langfristig auch Dienste und Anwendungen aus der Cloud zu beziehen, zu prüfen, ob der externe Provider auch die gleiche Management-Tools einsetzt wie der Kunde selbst?

Niemer: Das ist absolut wichtig! Wie Analysten bestätigen, werden bis 2015 wohl nur 15 Prozent der Anwendungen in die Cloud gehen. Das bedeutet, dass die meisten Infrastrukturen Hybridumgebungen sein werden, wo ein durchgängiges Management absolut entscheidend sein wird. Wir sehen auch einen starken Trend zur Rechenzentrumskonsolidierung, der dazu führt, dass Kunden transparent über Rechenzentrumgsgrenzen hinweg managen wollen. Auch durchgängige Security-Modelle gewinnen immer mehr an Bedeutung. Wir werden in der Zukunft eine Verschmelzung von Private und Public Clouds sehen. Somit ist das durchgängige Management das A und O einer solchen Lösung

CP: Wie virulent ist das Problem des "Wildwuchses" virtueller Maschinen? Und wie lässt sich dieser "Wildwuchs" in den Griff bekommen?

Niemer: Es ist absolut wichtig, die Konfigurationen und Nutzung von VMs zu überwachen. Oftmals werden Testmaschinen provisioniert, aber nicht mehr deprovisioniert. Im gleichen Zug werden aber auch sehr oft virtuelle Maschinen überprovisioniert. Hier liegt mittels Kapazitätsplanungs- und Management-Tools ein großes Einsparungspotential in vielen Umgebungen. Tools wie VMware Capacity IQ gehen genau auf dieses Problem an, analysieren kontinuierlich die Infrastruktur und unterbreiten darauf basierend Optimierungsvorschläge.

CP: Was müssen Partner beachten, wenn Sie den Endkunden hier richtig beraten wollen?

Niemer: Entscheidend ist es, die Lösung ganzheitlich zu sehen. Ziel der Kunden ist ja eine möglichst effiziente Infrastruktur mit dem besten ROI zu betreiben. Dabei geht es nicht nur um die initialen Beschaffungskosten, sondern viel mehr um die Optimierung der Betriebskosten. Hier liegen noch große Einsparungspotentiale, die zum einen über Standardisierung und Automatisierung erschlossen werden können, zum anderen aber auch über eine optimalere Auslastung der Infrastruktur. Hier sehen wir klar das Potential für Partner, den Kunden auf dem Weg zu begleiten, Potenzial aufzuzeigen und bei der Umsetzung zu unterstützen.

CP: Apropos Anfangs-Investitionen: Die Desktop-Virtualisierung hat sich bislang noch nicht auf breiter Basis durchgesetzt. Weshalb?

Holger Temme: Der Markt für die Desktop-Virtualisierung hat sich in den letzten Jahren sehr stark bewegt. Aktuelle Analysen zeigen z.B., dass Desktop-Virtualisierung für über 30 Prozent aller Suchmaschinenanfragen im Zusammenhang mit Virtualisierung steht bzw. dass bei einer Stichprobe von 500 Kunden über die Hälfte mit der Desktop-Virtualisierung bereits begonnen haben. Gleichzeitig hat VMware die Technologie weiterentwickelt, um die letzten Barrieren zu überwinden.

CP: Welche Barrieren waren das ganz konkret?

Holger Temme, Manager, End User Computing Business Central Europe and RUME, VMware
Foto:

Temme: Es ging vor allem um die Reduzierung der Kapitalinvestkosten für VDI, die VMware gemeinsam mit ihren Partner auf ungefähr 200 US-Dollar pro User reduzieren konnte. Damit ist die Desktop-Virtualisierung eine Technologie, die Kunden helfen kann sowohl die OPEX- als auch die CAPEX-Kosten der Desktoplandschaft, welche immer noch bis zu 40 Prozent des IT Budgets ausmachen, zu reduzieren.

CP: Wie hat sich der Einzug mobiler Endgeräte in die Unternehmen (Consumerization, ByoD) bislang auf die Virtualisierungsstrategie der Unternehmen ausgewirkt?:

Temme: Der Einzug von mobilen Geräten, Modellen wie ByoD, aber auch Trends wie der "Multi Device Benutzer" haben eine erhebliche Auswirkung auf die IT der Unternehmen. Nicht nur, dass sie unter dem Druck stehen, die vorhandene, Windows-zentrische Umgebung auf Windows 7 zu migrieren und dabei hohe Kosten produzieren. Sondern die IT Abteilungen stehen nun auch vor ganz neuen Herausforderungen. Daher sind neue Ansätze für die Post-PC-Era für die Abteilungen unumgänglich, bieten den IT Abteilungen aber auch neue Chancen, um das End User Computing zu optimieren und neue Wege zu gehen.

Varianten Desktop-Virtualisierung
VDI (Virtual Desktop Infrastructure / Hosted Desktop Virtualization)
Der komplette personalisierte Desktop (inklusive Betriebssystem, Daten und Benutzereinstellungen) wird zentral im Rechenzentrum auf einem virtualisierten Server bereitgestellt und betrieben. Offline-Betrieb und Zugriff von mobilen Endgeräten sind möglich. Problematisch: die benötigte Storage-Kapazität. (Quelle: Experton)
Session oder Presentation Virtualization
Früher auch als "Server Based Computing" oder "Terminal Services" bezeichnet:stellen den Zugriff auf zentral betriebene Anwendungen bereit. Problem: In der Regel ist weder eine Personalisierung noch der Offline-Betrieb möglich. Einsatzbereich: einfache Arbeitsplätze, die nur eine oder zwei Applikationen nutzen und nicht mobil sind, meist in Verbindung mit Thin Clients genutzt. (Quelle: Experton)
Application Streaming
Applikationen werden paketiert und zentral bereitgestellt, um lokal auf dem Client in einer Sandbox betrieben zu werden. Dies ist auch offline möglich. Problematisch ist, dass die Paketierung nach jedem Software-Update der jeweiligen Applikation wiederholt werden muss. Einsatzbereich ist die Bereitstellung von Anwendungen, die mit anderen Applikationen nicht kompatibel sind. (Quelle: Experton)
Managed Desktop VM
Ein Client-Image wird zentral gemanagt und an die Clients verteilt. Die eigentliche Rechenleistung wird vom Client ausgeführt, so kann er auch offline genutzt werden. Problematisch ist das Management der virtuellen Maschinen und des Basis-Clients. Einsatzbereich: Clients in Niederlassungen und Home-Offices. (Quelle: Experton Group)

CP: Liegt die Lösung in der Client-Virtualisierung und wird sie doch noch ein ganz großes Thema, oder wandert alles in die Cloud?

Temme: Unternehmen haben bereits vor zehn Jahren begonnen, ihre Applikationen zu modernisieren und sie mehr und mehr betriebssystemunabhängig zu machen. Letztendlich war der Erfolg von Software as a Service (SaaS) nur ein logischer Schluss daraus - sprich, dass auch der Betrieb der Applikationen in die Cloud wandert.
Dieser Trend wird aus der Sicht von VMware weiter anhalten. Auch werden Endbenutzer es für normal empfinden, dass sie in der Unternehmens-IT Dinge genau so vorfinden wir im privaten Bereich: Applikationen können sofort aus einem AppStore bezogen werden, ohne darauf Tage oder Woche warten zu müssen, Daten sind dank Diensten wie Dropbox oder Box.net auf allen Geräten verfügbar. Aber es wird sich auch die Kommunikation der Benutzer verändern.
Die nächste Generation der Talente aus der Uni wird es nicht mehr gewohnt sein, mit langsamen E-Mails zu kommunizieren. Modelle wie Social-Collaboration-Plattformen werden in Unternehmen Einzug erhalten und die Kommunikationsstrukturen maßgeblich ändern. All diese Trends hat VMware in seiner End User Computing-Strategie für die Post PC Era bereits erfasst und arbeitet an diesen Themen, um seinen Kunden Lösungen dafür bieten zu können.

CP: Welche Folgen hat diese Entwicklung für die Vertriebspartner, worauf müssen sie sich einstellen?

Temme: VMware verfolgt hier weiter die Strategie, über ihre Vertriebspartner gemeinsam im Markt zu agieren. Die Cloud wird viele Dinge verändern, aber rechtliche Bestimmungen und Sicherheitsanforderungen von Firmen werden die Private Cloud für die nächsten Jahre zum dominierenden Modell machen. Die Verbindung zur Public Cloud mit einem hybriden Ansatz, im Falle von VMware durch den Horizon Application Manager, bietet für viele Vertriebspartner eine neue Chance, ihr Portfolio zu erweitern.

CP: Inwiefern ist Desktop-as-a-Service schon ein marktrelevantes Thema?

Temme: Desktop-as-a-Service ist ein Begriff, unter den man viel verstehen kann. Einen virtuellen Desktop bei dem Hosting-Partner seiner Wahl beitreiben zu lassen, ist ein absolut gängiges Modell und eine logische Weiterentwicklung des Desktop-Outsourcing. Wir sehen dieses Marktsegment als einen weiterhin wichtigen Baustein, welcher sich sehr gut entwickelt.

CP: Wie lässt sich gewährleisten, dass virtuelle Desktops auch sehr schnell bereitgestellt werden können?

Temme: Die schnelle Bereitstellung eines Desktops ist eines der großen Vorteile der Desktop-Virtualisierung und ein maßgeblicher Grund für viele Kunden auf die Desktop-Virtualisierung zu setzen. VMware View bietet hier mit seiner Composer-Technologie die Möglichkeit, einen Desktop innerhalb weniger Sekunden zu provisionieren und einem Benutzer zu Verfügung zu stellen. Gerade im Supportfall ist dies ein großer Vorteil für Kunden, welche im Helpdesk nun nicht mehr versuchen, etwas zu "reparieren", sondern geben auf Knopfdruck einem Benutzer einfach einen neuen virtuellen Desktop - selbstverständlich mit der Sicherheit, die Daten des Benutzers automatisch in den neuen Desktop zu geben.

CP: Weshalb spielt das Thema Shared Storage in virtuellen Umgebungen eine so herausragende Rolle?

Stephan Bohnengel: Wenn die Frage auf Enterprise Storage abzielt, liegt die Antwort darin begründet, dass ein paar VMware-Funktionen einen gemeinsam geteilten Storage, auf den alle Hosts im Cluster zugreifen können, benötigen. Beispiele hierfür wären VMware vMotion, bei dem zwischen ESX-Servern virtuelle Maschinen ohne Ausfallzeit in Echtzeit migriert werden. Die virtuellen Festplatten liegen ja auf dem gemeinsamen Storage. Nachdem die virtuelle Maschine umgezogen ist, muss sie wieder ihre Festplatten unter dem gleichen Pfad finden. Loadbalancing-Funktionen wie VMware Distributed Ressource Scheduler (DRS) benutzen das zugrundeliegende vMotion, also auch gemeinsamen Storage. Zudem kommt, dass nach dem Server-zentriertem Rechenzentrums-Zeitalter ein neue Ära im Rechenzentrum eingeleitet wurde: das Storage-zentrierte Rechenzentrum.

CP: Welche Vorteile bietet das Storage-zentrierte Rechenzentrum?

Bohnengel: Zu den Vorteilen zählen beispielsweise die Speicherplatz-Elastizität für Server, die via Fibre Channel der NAS angebunden wurden. Um mehr Festplattenkapazität zu erreichen, musste man den einzelnen Server nicht mehr aufschrauben und eine größere Platte einbauen, sondern konnte einfach per Knopfdruck allokieren. Das führt zu weniger Plattenplatzverschnitt, die internen Festplatten wurden nach draußen geführt und in Storage-Systemen konsolidiert. So konnte eine wesentlich bessere Verfügbarkeit von Servern erzeugt werden, da die Festplatten ausgelagert und redundant vorgehalten werden. Das war schon eine gute und richtige Entwicklung im Datacenter Design.
Das gleiche geschieht nun im Frontend mit der Virtualisierung in Kombination Storage-zentrierter Rechenzentrums-Architektur, was dem Thema Verfügbarkeits-SLAs einen unglaublichen Schub nach vorne gibt.

CP: Wo und weshalb gibt es Ihrer Erfahrung nach "Flaschenhälse" bei der Bereitstellung virtueller Server, Desktops, Applikationen und Dienste?

Bohnengel: Ein häufiger Flaschenhals entsteht beim Sizing des Storage-Bedarfs für eine virtuelle Infrastruktur. Liefert das Storage nicht genügend IOPS (Input/Output Operations Per Second) im Random Bereich, kann das unmittelbare Auswirkungen auf die Performance der VMs haben, egal ob dies nun Server, Desktops oder Dienste sind. Und weil das Rechenzentrum und der I/O-Bedarf sich permanent verändern kann, ist es wichtig, auch das I/O-Verhalten der Umgebung im Auge zu behalten. Noch besser ist es, neben dem Management der Performance auch Selbstheilungsmittel in der VMware-Hypervisor-Architektur zu haben. VMware-Technologie erkennt, welche Storage-Klasse im Backend ist, was die VM macht und ob ihr I/O-Bedarf aktuell noch gedeckt werden kann. VMware misst auch die Latenzzeit vom Subsystem und den Backend-Storages und ist vollautomatisiert in der Lage, die VM ohne Ausfallzeit im Backend auf ein anderes Storages bei Bedarf zu verschieben, sollte dies von Nöten sein.

Wenn also Engpässe auftreten, liegt es oft am falschen Sizing, an einer falschen Konfiguration des Storage oder des F-Zonings sowie an geringen Selbstheilungsfähigkeiten im Hypervisor, was Ressourcenmanagement und Verteilung von I/Os Richtung Backend angeht. Der Hypervisor ist heute nicht mehr das Performance-Bottleneck Richtung Storage, es geht vielmehr darum, dass der Hypervisor in höher basierte SLA-Schichten, die über den VMware vCloud Director dargestellt werden, Storage I/Os garantieren kann, damit diese einer VM zugewiesen werden können

CP: Wie lässt sich die Leistungsfähigkeit virtueller Maschinen - z.B. die Zahl der virtuellen Maschinen auf einem physischen Server - durch eine geeignete Speichertechnologie erhöhen?

Bohnengel: VMware hat mit der VAAI (VMware API for Storage Array Integration) eine Schnittstelle auf den Markt gebracht, die von dem VMware-Storagehersteller-Ökosystem in vollem Maße adaptiert wurde. In der Schnittstellendefinition sind Direktiven enthalten, die das SCSI-Lock-Verhalten im LAN auf VMDK reduzieren und bei einem vollen Klon einer virtuellen Maschine auf das Storage auslagern, ohne dass I/Os vom Hypervisor in Richtung Storage Array gesendet werden müsste. Auch können parallele "Bulk Zero"-Kommandos auf das Storage Array ausgelagert werden, so dass hier kein I/O vom ESX gesendet werden muss. Dies kann speziell in virtuellen Desktop-Umgebungen die I/O-Anzahl drastisch verhindern, so dass Engpässe zu Spitzenzeiten vermieden werden.

CP: Welche Rolle spielen hier SSDs?

Bohnengel: Seitens der Storage-Hersteller ist seit einiger Zeit der Einfluss von SSDs auf die Performance der Arrays deutlich bemerkbar. Einige Hersteller benutzen die SSDs, um effektiv die Größe des Caches deutlich zu erweitern. Dies erlaubt deutlich bessere Hit Cache-Rates und erhöht somit den Durchsatz. Andere Technologien der Hersteller kopieren oft angefragte Blocks, zum Beispiel vollautomatisch von langsameren Festplatten des Storage Arrays auf SSDs um. Fully Automated Stoarge Tiering heißt hier das Stichwort.

CP: Wie sorgen Sie für eine schnelle Bereitstellung der Daten für die virtuellen Desktops?

Bohnengel: Bei dem VMware View 5.1 Launch haben wir eine Funktion eingebaut, die den ESX Hosts Cache verwenden kann. Die Funktion der VMware Desktop-Virtualisierungslöung View Storage Accelerator verwendet lokale SSDs im ESX-Server, um oft angefragte Blöcke lokal vorzuhalten (Content Based Read Cacke). Durch diese Technologie lassen sich IOs in Richtung Storage dramatisch reduzieren (rund 80 Prozent Reduzierung bei IOPS-Spitzen, rund 45 Prozent Reduzierung der durchschnittlichen IOPS, rund 65 Prozent Reduzierung bei Datendurchlauf-Spitzen, rund 25 Prozent Reduzierung beim durchschnittlichen Datendurchlauf). Auch so genannte Boot-Storms lassen sich abmildern und Boot-Zeiten beim Start mehrerer hundert virtueller Desktops drastisch reduzieren.

CP: Wie lässt sich gewährleisten, dass virtuelle Desktops auch sehr schnell bereitgestellt werden können?

Bohnengel: Indem man VAAI-Arrays benutzt und auf die VMware Links Clone-Technologie setzt. Diese wird von VMware View benutzt, um eine Benutzer OS-Disk pro LUN nur einmal bereitstellen zu müssen. Die anderen Desktops verweisen mit einer differenziellen virtuellen Festplatte auf die Basis-Disk. Diese ist beim Erstellen auch von hunderten von Desktops sehr schnell da, nur noch 25MB initial pro auszurollendem Desktop erstellt werden müssen. Auch Storage-Hersteller haben auf Filesystem-Ebene eine NFS-Systems ähnliche Möglichkeiten, nicht aber auf VMware Filesystem-Ebene, sondern auf ihrem eigenen Filesystem.

CP: Was wird bei der Absicherung virtueller Umgebungen häufig zu wenig beachtet?

Bohnengel: Nichts ist komplexer als ein Backup-Konzept. Leider wird die IT-Sicherheit auch bei Backup-Konzepten oft vernachlässigt. Viele Hersteller integrieren sich heute hervorragend in VMware-Umgebungen durch das Verwenden der VMware VADP API (VMware API for Data Protection). Datenwachstum, Deduplizierung und wie lange Daten laut Regularien vorgehalten werden (Data Rentention Policy) müssen, entscheiden bei der Backup-Beschaffung darüber, welche Lösung verwendet werden kann. Die Lösung sollte einfach sein - für das Backup aber auch für den Restore. Kunden testen häufig nicht, ob die Datenintegrität bei einem Test-Restore eines Backups auch gewährleistet ist (Application Aware und Consistent Backup).
Auch aus dem Blickwinkel echter IT-Sicherheit stellt sich die Frage, wer Backups verwalten können und dürfen soll. Virtuelle Maschinen ermöglichen komplett neue DR-Konzepte, die ohne Virtualisierung nicht denkbar gewesen wären. Der VMware-Hypervisor abstrahiert den Hardware-Layer und ermöglicht damit hardwareunabhängige Wiederanlaufkonzepte, die stabiler und schneller funktionieren. In Betriebssystemen eingekapselte Applikationen lassen sich aber auch einfacher klauen. Datensicherheit und die Vertraulichkeit der Daten beinhaltet auch immer granulare Berechtigungs- und Monitoring-Lösungen für virtuelle Umgebungen.

CP: Wo liegen die Chancen und die Grenzen der Referenz-Architekturen (Flexpod, Vblock, vBundle, VSPEX, Dell vStart und DVS sowie unterschiedliche Referenz-Architekturen von IBM, HP, etc.) für virtualisierte Datacenter für Endkunden?

Niemer: Die Vorteile liegen klar in der Integration und Skalierbarkeit der Lösung. Der Kundenfokus verschiebt sich immer mehr weg von der Infrastruktur hin zur Applikation. Diese Modelle ermöglichen Einsparungen beim Management und bei der Integration. Auch Updates werden in solchen Umgebungen deutlich vereinfacht weil alle Komponenten durchgängig getestet sind.

CP: … und für Vertriebspartner?

Niemer: Bei solchen Bundles steht klar der Lösungsverkauf im Vordergrund. Kunden, die solche Lösungen bevorzugen, sind auf der Suche nach einer hochautomatisierten Private Cloud. Dadurch ergeben sich zusätzliche Chancen, weitere Produkte und vor allem Consulting zu platzieren.

(rb)