ACP-Manager Thomas Reichenberger

"Desktop-Virtualisierung ist noch zu teuer"

22.11.2012
Worauf kommt es bei der Umsetzung von Projekten an? Wie ist aktuelle Lage am Virtualisierungsmarkt und was sind die künftigen Trends? Thomas Reichenberger, IT-Consultant bei der ACP und Experte für Virtualisierung und Cloud, erläutert im Interview mit ChannelPartner seine Erfahrungen aus der Praxis.
Thomas Reichenberger, Manager Business Unit Cloud Services bei der ACP IT Solutions AG in München
Foto: ACP

Worauf kommt es bei der Umsetzung von Projekten an? Wie ist aktuelle Lage am Virtualisierungsmarkt und was sind die künftigen Trends?
Thomas Reichenberger ist bei der ACP Solutions AG für den Betrieb der ACP Cloud Services verantwortlich und leitet dort zudem das Competence Center Virtualisierung. Als erster Nicht-VMware-Mitarbeiter in Europa erhielt er die Zertifizierung zum VMware Certified Design Expert (VCDX) und berät neben vielen deutschen und österreichischen Unternehmen auch das Bundesamt für Sicherheit in der Informationstechnik (BSI) zu Sicherheitsfragen in der Virtualisierung und sicheren Cloud Architekturen.
Im Interview mit ChannelPartner erläutert er, worauf es für Systemhäuser bei der Umsetzung von Projekten ankommt, bewertet die aktuelle Lage am Virtualisierungsmarkt und gibt einen Ausblick auf die künftigen Trends.

CP: In welchen Bereichen setzen Unternehmen hierzulande Ihrer Erfahrung nach tatsächlich Virtualisierungslösungen ein?

Thomas Reichenberger: Virtualisierungslösungen haben genau wegen gesunkenem Administrationsaufwand und Betriebskosten den Weg in fast alle Unternehmen gefunden. Erst die Virtualisierung hat effiziente Cloud Services ermöglicht, die die Erwartungen der Kunden sowohl in Funktion und Wirtschaftlichkeit erfüllen. Beim Einsatz von mobilen Endgeräten dagegen spielt die Virtualisierung noch kaum eine Rolle. Besonders Servervirtualisierung hat sich zum defakto-Standard für den Betrieb von Servern entwickelt. Storagevirtualisierung bietet durch teilweise einzigartige Funktionen eine beliebte Alternative zu herkömmlichen Speichersystemen. Desktopvirtualisierung dagegen hat derzeit noch keine entscheidenden Marktanteile.

CP: Woran hakt es bei Virtualisierungs-Projekten - sowohl auf Seiten der Endkunden wie auf Seiten der Vertriebspartner?

Reichenberger: Ein Knackpunkt ist oft, dass virtuelle Infrastrukturen oftmals von ohne die Erfahrung oder das Know-how von Spezialisten geplant, aufgesetzt, aktualisiert und betrieben wird. Speziell in der Planungsphase und teilweise auch bei der Umsetzung ist aber genau dieses Know-how notwendig um am Ende auch einen erfolgreichen Projektabschluss einen nachhaltig erfolgreichen Betrieb zu gewährleisten.

CP: Was empfehlen Sie den Vertriebspartnern?

Reichenberger: Vertriebspartner sollten darauf achten, nicht die Kosten für die notwendigen Schulungen und Zertifizierungen zu scheuen. Diese Schulungen sind zwar sehr teuer und aufwendig. Doch wie in vielen Bereichen ist auch hier der Mensch die Basis für nachhaltigen Erfolg.

Konsolidierungsrate im Server-Bereich
Dem V-Index von Veeam Software zufolge liegt das Verhältnis von virtualisierten Maschinen zu physischen Hosts in Deutschland bei 4,7:1. Hier ist noch Luft nach oben, findet Experton Group. Der anzustrebende Wert bei Verhältnis der Anzahl von virtuellen Servern zu physischen Servern bei mindestens 10:1, im Idealfall bei etwa 30:1.

CP: Was raten Sie den Anwendern?

Reichenberger: Unternehmen sollten darauf achten, in den entscheidenden Projektabschnitten Spezialisten einen vertrauenswürdigen Partner einzuschalten. Wir könnte Partnerstatus des Partners beim Hersteller der Virtualisierungslösung, die Zertifizierungen der Spezialisten und natürlich Referenzen hilfreich sein um den richtigen Partner auszuwählen. Für den Betrieb der virtuellen Infrastruktur sollten Unternehmen auch dafür Sorge tragen, dass das Administrationsteam ausreichend geschult ist. Viele Vertriebspartner haben immer noch nicht das notwendige Know-how um diese Projekt erfolgreich durchzuführen.

CP: Was sind die wesentlichen Trends und Probleme in den Bereichen Server-, Storage-, Desktop- & User-Virtualisierung?

Reichenberger: Bei der Servervirtualisierung geht der Trend zu Management-Produkten rund um die Virtualisierung. Es ist nicht mehr nur der stabile Betrieb von virtuellen Servern gefragt. Kunden wünschen immer einfacheres und effizienteres Management ihrer virtuellen Infrastrukturen.
Gefragt sind dabei Produkte für Monitoring, Self-Service Portale, Abrechnung und Livecyle Management, die auf virtuelle Infrastrukturen zugeschnitten sind. Auch beim Backup von virtuellen Infrastrukturen gab es in den letzten Jahren Quantensprünge, die das Backup nicht nur schneller und zuverlässiger machten, sondern auch teilweise die Wiederherstellungszeiten (RTO) auf wenige Minuten reduzierten.
Das große Problem, das derzeit eine viel stärkere Verbreitung von Desktop Virtualisierung verhindert, sind derzeit immer noch die vergleichsweise hohen damit verbundenen Kosten.
Die Virtualisierung von Applikationen ist die Basis für so genannte Cloud-Applikationen, die voraussichtlich die Bereitstellung und Nutzung von Applikationen und Services entscheidend verändern wird. Von VMware wäre hier das Appblast Project bzw. der Horizon App Manager zu nennen.

Vor dem Schritt in die Cloud
Bei Unternehmen, die gerade erst eine virtuelle Server-Landschaft aufgebaut haben, Augenmerk zuerst auf Automatisierung und Management legen, vor dem Schritt in die Cloud
Sicherheit
Virtuelle Infrastrukturen, Anwendungen und Desktops müssen mittels Firewalls, Access Policies und Virenscanner ebenso sorgfältig gegen Viren und Malware geschützt werden wie physikalische.
BYOD-Strategie
Strikte Trennung von privater und geschäftlicher Arbeitsumgebung muss gewährleistet sein, zum Beispiel mit Client-seitigem Hypervisor. Klare Betriebsvereinbarungen: Jeder Mitarbeiter muss wissen, was er darf und was nicht.
Software-Lizenzierung
Analyse der bestehenden Kundenumgebung
Backup & Disaster Recovery Strategie
Speicherstrategien, Datensicherung, Datenarchivierung, Multi-Tier-Speichertechnologien und vor allem Wiederherstellung und Migration berücksichtigen
Storage- und Netzwerk-Konzept
Um alle Features moderner Hypervisoren auszunutzen, sollten entsprechende Massenspeicherlösungen verwendet werden. Damit lässt sich die Verwendung von Service-Klassen automatisieren: Das Storage-Device informiert den Hypervisor automatisch über seine Leistungsklassen, sodass dieser entsprechend vorgegebener Regelwerke die Provisionierung von Workloads (VMs) automatisch nach vereinbarten SLAs vornehmen kann.
Organisation auf Kundenseite
Klärung und Definition: IT-Organisation (Aufbau- und Prozessorganisation, neue Rollen und Verantwortlichkeiten, neue Tools etc.) auf Kundenseite
Gesamtkonzept
Ganzheitlich Sicht über das Design und die Möglichkeiten der Implementierung behalten

CP: Kommen beim Endkunden Ihrer Erfahrung nach Hypervisoren-Plattformen unterschiedlicher Anbieter zum Einsatz? Falls ja, aus welchen Gründen?

Reichenberger: Bei der Servervirtualisierung in mittelständischen und Enterprise Unternehmen hat sich mittlerweile VMware mit dem ESX Server und vSphere durchgesetzt. Kaum ein Unternehmen, dass hier auf Produkte anderen Hersteller wie Hyper-V von Microsoft oder XenServer von Citrix setzt. Die Servervirtualisierungsprodukte von Microsoft und Citrix werden vorwiegend von kleineren Kunden eingesetzt.
Hauptgrund dürfte hier der noch immer geringere Funktionsumfang der Produkte sein. Besonders bei kleineren Kunden können die gebotenen Funktionen allerdings vollkommen ausreichend sein. Im Mittelstand - und Enterprisebereich dagegen sind von VMware gebotenen Funktionen sowie die größere Unterstützung von anderen Herstellern jedoch gefordert.
Bei der Desktopvirtualisierung zeichnet sich ein Kopf-an-Kopf Rennen zwischen Citrix XenDesktop und VMware View ab. Beide teilen sich derzeit den Markt auf.

CP: Welche Kriterien sind für Endkunden bei der Wahl der Virtualisierungs-Plattform entscheidend?

Reichenberger: Für den Kunden entscheidend ist zum einen der Vertrauen in die Stabilität, Funktionsumfang, die Kompetenzen des Partners sowie die Unterstützung von anderen Herstellern. Der Preis ist meist nicht entscheidende Faktur zur Auswahl des Herstellers einer Virtualisierungssoftware.

CP: Welche Rolle spielt dabei die Überlegung, ob und inwiefern der Plattformanbieter Cloud-basierte Dienste und Anwendungen integrieren kann?

Reichenberger: Die Integration von Cloud-Diensten, die von Partner bereitgestellt werden, spielt derzeit keine Rolle bei der Auswahl der Virtualisierungslösung. Dies ist deshalb auch nicht unbedingt notwendig, da Cloud Services sehr flexibel genutzt werden können und in der Regel kaum eine Abhängigkeit zur Virtualisierungslösung vor Ort beim Kunden haben. Wenn es aber darum geht selber Cloud Services, ob intern oder extern, anzubieten ist es jedoch eine zentrale strategische Entscheidung auf die passende Virtualisierungslösung zu setzen.

CP: Welche Rolle spielt die Frage nach der Offenheit an dieser Stelle für Endkunden?

Reichenberger: Quelloffene Hypervisor spielen derzeit keine Rolle. Beim Hypervisor ist in erster Linie das Vertrauen in die Stabilität das maßgebliche Kriterium.

CP: Erkennen Sie eine Tendenz, dass Anwender die Hypervisor-Plattform wechseln? Falls ja: Was sind Gründe und Anlass für einen solchen Wechsel?

Reichenberger: Gründe sind Probleme mit der Stabilität, Performance, Funktionsumfang der gesamten Lösung und Support anderer Hersteller.

CP: Zeichnet sich bei diesem Wechsel ein Trend zugunsten eines bestimmten Herstellers ab?

Reichenberger: Derzeit ist keine große Tendenz erkennbar, dass Anwender ihre Hypervisor-Plattform wechseln. Mittelständische Unternehmen, die in der Vergangenheit auf Microsoft oder Citrix gesetzt haben, wechseln teilweise auf VMware. In der umgekehrten Richtung ist dies nicht zu beobachten.

VDI (Virtual Desktop Infrastructure / Hosted Desktop Virtualization)
Der komplette personalisierte Desktop (inklusive Betriebssystem, Daten und Benutzereinstellungen) wird zentral im Rechenzentrum auf einem virtualisierten Server bereitgestellt und betrieben. Offline-Betrieb und Zugriff von mobilen Endgeräten sind möglich. Problematisch: die benötigte Storage-Kapazität. (Quelle: Experton)
Session oder Presentation Virtualization
Früher auch als "Server Based Computing" oder "Terminal Services" bezeichnet:stellen den Zugriff auf zentral betriebene Anwendungen bereit. Problem: In der Regel ist weder eine Personalisierung noch der Offline-Betrieb möglich. Einsatzbereich: einfache Arbeitsplätze, die nur eine oder zwei Applikationen nutzen und nicht mobil sind, meist in Verbindung mit Thin Clients genutzt. (Quelle: Experton)
Application Streaming
Applikationen werden paketiert und zentral bereitgestellt, um lokal auf dem Client in einer Sandbox betrieben zu werden. Dies ist auch offline möglich. Problematisch ist, dass die Paketierung nach jedem Software-Update der jeweiligen Applikation wiederholt werden muss. Einsatzbereich ist die Bereitstellung von Anwendungen, die mit anderen Applikationen nicht kompatibel sind. (Quelle: Experton)
Managed Desktop VM
Ein Client-Image wird zentral gemanagt und an die Clients verteilt. Die eigentliche Rechenleistung wird vom Client ausgeführt, so kann er auch offline genutzt werden. Problematisch ist das Management der virtuellen Maschinen und des Basis-Clients. Einsatzbereich: Clients in Niederlassungen und Home-Offices. (Quelle: Experton Group)

CP: Virtualisierungs-Anbieter sagten schon 2009: Das wird das große Jahr der Desktop-Virtualisierung". Bislang aber hat sich die Technologie noch nicht auf breiter Basis durchgesetzt. Weshalb?

Reichenberger: Die Desktopvirtualisierung hat sich hauptsächlich wegen den hohen damit verbundenen Kosten und den trotzdem noch zu hohem Administrationsaufwand nicht entscheidend durchgesetzt. Derzeit ist, auch trotz hohen Aufwandes, den die Hersteller von Desktopvirtualisierungslösungen betreiben, nicht erkennbar, dass sich dies in absehbarer Zeit ändern wird.

CP: Wie hat sich der Einzug mobiler Endgeräte in die Unternehmen (Consumerization, BYOD) bislang auf die Virtualisierungs-Strategie der Unternehmen ausgewirkt?

Reichenberger: Bisher hat der Einsatz von mobilen Geräten noch keinen Einfluss auf die Virtualisierungsstrategie von Unternehmen. Beim Betrieb von Notebooks könnte hier aber der Citrix XenClient durchaus eine Trendwende bringen.

CP: Welche Auswirkungen erwarten Sie künftig: Wird z.B. Client-Virtualisierung das große Thema? Wandert alles in die Cloud?

Reichenberger: In der Zukunft ist besonders bei Cloud Applikationen, die auf allen End-Geräten egal ob Windows, Linux oder Android genutzt werden können, ein starkes Wachstum zu erwarten. Diese Entwicklung könnte zu einer Trendwende bei der Nutzung von Applikationen und Diensten führen.
Universell nutzbare Cloud-Desktops könnten die Verbreitung von Desktopvirtualisierung stärken.
Ein Client-Hypervisor wie z.B. der Citrix XenClient könnte die Bereitstellung von Arbeitsplätzen wesentlich vereinfachen.

CP: Welche Folgen hat das für die Vertriebspartner? Worauf müssen sich die Partner einstellen?

Reichenberger: Vertriebspartner müssen rechtzeitig ihre Mitarbeiter schulen und dürfen den Trend zur Cloud nicht verschlafen und sich rechtzeitig nach Partnern umsehen.

CP: Inwiefern ist Desktop-as-a-Service schon ein / noch kein marktrelevantes Thema?

Reichenberger: Desktop-as-a-Service oder besser Workplace-as-a-Service hat durchaus eine große Zukunft. Entscheidend ist dabei, nicht ob Desktop Virtualisierung oder nicht, sondern ob Server based Computing (SBC) die richtige Lösung für den Kunden darstellt. Erst dann kommt die Entscheidung zwischen Desktopvirtualisierung oder die Nutzung von Terminal Services. Auch dann erst kann entschieden werden, welche Produkte von Microsoft, Citrix oder VMware dann jeweils am besten geeignet wären um die Anforderungen des Kunden zu erfüllen.

CP: Wie lässt sich gewährleisten, dass virtuelle Desktops auch sehr schnell bereitgestellt werden können?

Reichenberger: Sowohl VMware bieten mit dem Composer und sogenannten Linked Clones als auch Citrix mit den Provisioning Services geeignete Mittel um virtuelle Desktop bei Bedarf schnell und effizient bereitzustellen.

CP: Wo liegen für Endkunden die Chancen und die Grenzen der Referenz-Architekturen (Flexpod, Vblock, vBundle, VSPEX, Dell vStart und DVS sowie unterschiedliche Referenz-Architekturen von IBM, HP, etc.) für virtualisierte Datacenter:

Reichenberger: Endkunden erhalten die Gewissheit, dass die angebotene Lösung prinzipiell funktioniert und erhalten damit teilweise auch eine bessere Unterstützung der beteiligten Hersteller.

CP: Und welche Vorteile bieten die Out-of-the-Box-Lösungen den Vertriebspartnern?

Reichenberger: Für Vertriebspartner ergibt sich dadurch die Chance auf zusätzliche Umsätze.

CP: Inwiefern unterstützen die am Markt verfügbaren Tools auch die Verwaltung virtueller Umgebungen, die mit unterschiedlichen Hypervisoren virtualisiert wurden?

Reichenberger: Es gibt bereits einige Produkte die Hypervisor unterschiedlicher Hersteller verwalten können. Der herstellerübergreifende Funktionsumfang ist jedoch derzeit eher gering.

CP: Und inwiefern unterstützen diese Tools auch gemischte physische und virtuelle (auf Basis unterschiedlicher Hypervisoren) Umgebungen?

Reichenberger: Mit den System Center Produkten von Microsoft können sowohl physische als auch virtuelle Infrastrukturen verwaltet werden. Auch wenn dort teilweise eine Unterstützung von VMware Produkten gegeben ist, ist es trotzdem notwendig VMware vCenter weiter zu betreiben.

CP: Welche Rolle spielt hier das "oVirt"-Projekt der Open Virtualization Alliance (OVA), das sich der Förderung von Virtualisierungs-Management-Lösungen auf Open-Source-Basis verschrieben hat?

Reichenberger: Derzeit spielt oVirt noch keine entscheidende Rolle. Eine gravierende Änderung ist dazu derzeit auch nicht absehbar.

CP: Wie wichtig ist es für einen Kunden, der überlegt, langfristig auch Dienste und Anwendungen aus der Cloud zu beziehen, zu prüfen, ob der externe Provider auch die gleichen Management-Tools einsetzt wie der Kunde selbst?

Reichenberger: Genau wegen der Flexibilität der Cloud Produkte spielt hier der Einsatz von lokalen Management Tools derzeit keine große Rolle. Die Cloud Service Anbieter stellen wiederum in der Regel Tools zum Management ihrer eigenen Cloud Dienste zur Verfügung. Wer allerdings Virtuelle Server zwischen der eigenen Infrastruktur und dem Cloud Anbieter einfach verschieben will, sollte darauf achten, dass auch der Cloud Service Anbieter auf den gleichen Hypervisor setzt. Mit dem VMware vCloud Connector z.B. ist es dann ein Leichtes Virtuelle Server zwischen beiden Welten hin- und herzuschieben.

CP: Wie virulent ist das Problem des "Wildwuchses" virtueller Maschinen? Und wie lässt sich dieser "Wildwuchs" in den Griff bekommen?

Reichenberger: Das Problem des "Wildwuchses" von Virtuellen Servern ist mittlerweile ein Thema in fast allen IT-Abteilungen geworden. Gute und bezahlbare Tools, die hier das Live-Cycle Management und damit die internen Prozesse für Bereitstellung und Betrieb unterstützen sind derzeit noch sehr rar. Hier ist noch ein großes Potential im Markt.

CP: Weshalb spielt das Thema Speicher in virtuellen Umgebungen eine so herausragende Rolle?

Reichenberger: Derzeit haben noch wenige Partner die Bedeutung bzw. die Potentiale von Management Lösungen erkannt. Hier haben die meisten Partner noch Nachholbedarf sowohl im Vertrieb als auch in der technischen Umsetzung.

Studie zur Desktop-Virtualisierung
Fat Clients sind teuer. Eine PAC-Studie belegt, dass Firmen für mehr Effizienz und Mobilität zunehmend zu virtuellen Desktops tendieren.
Einsatz von PC-Management
Etwa ein Viertel der mittelständischen Unternehmen in Deutschland setzt laut einer Studie von PAC ...
Einsatz von Desktop-Bereitstellung
... nach eigenen Angaben bereits Desktop-Virtualisierung ein. Nach den Erfahrungen von Providern wie ...
Einsatz von Anwendungs-Bereitstellung
... Pironet NDH sind es in der Praxis jedoch nur etwa 10 Prozent.
Erzielter Kosteneinsparungen durch VDI
Ein positiver Effekt von Desktop-Virtualisierung: Die IT-Kosten im Vergleich zu dezentral vorgehaltenen Arbeitsplatzumgebungen sind niedriger.
Erfahrungen beim Einsatz virtualisierter Desktop-Bereitstellung
Mittelständler, die virtualisierte Desktops einsetzen, sind mit den Ergebnissen hoch zufrieden. Neben der größeren Flexibilität der Mitarbeiter schätzen sie die höhere Verfügbarkeit und Vorteile bezüglich der Einhaltung von Compliance-Richtlinien.

CP: Wo und weshalb gibt es Ihrer Erfahrung nach "Flaschenhälse" bei der Bereitstellung virtueller Server, Desktops, Applikationen und Dienste?

Reichenberger: Oft war und ist der Einsatz von Servervirtualisierung einhergehend mit der Einführung eines zentralen Speichersystems. Für den professionellen Einsatz von Servervirtualisierung werden NAS oder SAN Systeme benötigt um für mittelständische oder Enterprise Unternehmen wichtige Funktionen wie Live-Migration oder Hochverfügbarkeit von Virtuellen Maschinen zu ermöglichen. Schon alleine wegen den damit verbundenen Aufwänden und Kosten für Einführung und Betrieb aber auch für die entstehenden Schäden für das Unternehmen, wenn das Storage einmal nicht funktioniert hat das Storage eine herausragende Rolle und zentrale Bedeutung.

CP: Wie lässt sich die Leistungsfähigkeit virtueller Maschinen durch eine geeignete Speichertechnologie erhöhen?

Reichenberger: Weniger beim Betrieb von Servern, aber mehr beim Betrieb von virtuellen Desktops spielt die Performance von Speichersystemen eine tragende Rolle. Bei Desktopvirtualisierung werden teilweise sehr hohe IOps benötigt.

CP: Wie lässt sich Bereitstellung von Daten für virtuelle Desktops beschleunigen?

Reichenberger: Mit herkömmlichen Speichersystemen sind diese hohen IOps meist das größte Problem beim Design einer Desktopvirtualisierungslösung. Hohe IOps können bei herkömmlichen Speichersystemen durch eine hohe Anzahl von Festplatten in den Speichersystemen zugesichert werden. Alternativ können auch teurere Cache Module in den Speichersystemen wie z.B. ein PAM Modul bei NetApp Filer oder auch SSD Festplatten eingesetzt werden um diese hohen IOps zu liefern.
Dies bedeutet aber meist einen sehr hohen Preis für Speichersysteme und führt oft dazu, dass Desktopvirtualisierung nicht wirtschaftlich betrieben werden kann. Neu ist, dass diese hohen IOps aber auch durch Module in den Hypervisor Systemen bereitgestellt werden können.
Die Firma Fusion-IO liefert dazu sowohl Karten mit sehr schnellen SSD Speichern auf denen Master Images abgelegt werden können, als auch Karten (ioTurbine) die als sehr schneller Cache die für das Storage benutzt werden können und vom Hypervisor unterstützt werden.

CP: Wie lässt sich gewährleisten, dass virtuelle Desktops auch sehr schnell bereitgestellt werden können?

Reichenberger: Durch Master Images und VMware mit dem Composer und sogenannten Linked Clones und Citrix mit den Provisioning Services

CP: Was wird bei der Absicherung virtueller Umgebungen häufig zu wenig beachtet?

Reichenberger: Sicherheit spielt bei der Einführung von Servervirtualisierung leider oftmals nur eine untergeordnete Rolle. Die Funktionen stehen meist im Vordergrund. Dabei gibt es durch die Einführung Servervirtualisierung nicht nur enorme Vorteile für das betreffende Unternehmen. Durch Servervirtualisierung entstehen auch teils große Sicherheitsrisiken. Durch einen Zugriff auf den Hypervisor können sowohl alle Daten des Unternehmens als auch jegliche Datenübertragungen kompromittiert werden. Hier ist es deshalb wichtig, dass Sicherheitsgesichtspunkt sowohl im Initialen Projekt als auch im Betrieb einen hohen Stellenwert haben. Leitfäden dazu werden von verschiedenen Stellen zur Verfügung gestellt wie z.B. von VMware, BSI oder NSA.

CP: Wie kann ein Unternehmen herausfinden, ob ein Cloud Service Provider wirklich in der Lage ist qualitativ hochwertige Cloud Services bereitzustellen?

Reichenberger: VMware bietet durch die Zertifizierung zum VMware vCloud Powered Partner eine Unterstützung bei der Auswahl eines geeigneten Partners. Unternehmen sollten auf diese Zertifizierung achten.

CP: Welche zusätzlichen Cloud Services werden durch die Virtualisierung ermöglicht?

Reichenberger: Durch Virtualisierung können jetzt auch revisionssichere Speicher und Archivlösungen aus der Cloud bereitgestellt werden. Kunden müssen somit keine teuren WORM Laufwerke mehr anschaffen. Sie können auch hier auf dem Cloud Gedanken aufbauen und wirklich nur das Zahlen, was sie auch wirklich nutzen.

Fünf Thesen zur Virtualisierung
Virtualisierungstechniken sind vielerorts installiert, schöpfen aber ihr Potential zur Effizienzsteigerung und Kostenersparnis nicht aus.
These 1: Die zweite Virtualisierungswelle steht noch bevor
Virtualisierungstechnologien haben eine Revolution in der IT bewirkt. Zwei Hauptfaktoren haben sie zum festen Bestandteil in der Planung von IT-Infrastrukturen gemacht: die Basistechnologien für Virtualisierung sind zur Reife gelangt, woraus eine großen Produktauswahl für die Anwender hervorgegangen ist; zugleich sind die Rechnerkapazitäten durch Multicore-Server so stark gestiegen, dass diese ohne geeignete Techniken gar nicht ausgelastet werden können.
These 2: Ein Hypervisor macht noch keine moderne IT-Umgebung
Stellt sich die Frage, warum die Erneuerung der IT bislang stecken geblieben ist. Das Angebot ist da, es reicht von umfassenden Lösungen bis hin zu kostenlosen Produkten und Open-Source-Projekten. Sie erlauben es, eine stabile und zuverlässige virtualisierte Umgebung aufzubauen. Die Erkenntnis setzt sich durch, dass Technik - also der Hypervisor - allein noch keine Revolution im Rechenzentrum bewirken und quasi im Vorbeigehen Kosten sparen kann.
These 3: Storage-Virtualisierung ist der nächste logische Schritt
Server-Virtualisierung kann nicht gelingen ohne ein ausgefeiltes Storage-System. Lokaler Festplatten-Speicher genügt dabei nicht den Anforderungen an Hochverfügbarkeit, dynamischer Lastverteilung und hochgradiger Automatisierung. Shared Storage ist daher unabdingbare Voraussetzung. Speichersysteme müssen zuverlässig, ausfallsicher und flexibel sein. Sie müssen aber auch Kostenkontrolle bieten, denn gerade in virtualisierten Server-Umgebungen kann der Speicherbedarf explodieren. Gefragt sind Konzepte zur effizienten Speichernutzung sowie zur transparenten Integration verschiedener Systeme auch unterschiedlicher Hersteller zu einem Gesamtsystem.
These 4: Desktop-Virtualisierung nur betriebswirtschaftlich angehen
Trotz vieler Herausforderungen und noch verbesserungswürdiger Durchdringung in der aktuellen IT-Landschaft ist die Server-Virtualisierung eine akzeptierte Technik, die viele Unternehmen auf dem Radar ihrer anstehenden Investitionen haben. Zunehmend rückt darüber hinaus die Virtualisierung von Desktops in den Fokus der IT-Verantwortlichen. Denn auch hier locken ähnliche Vorteile wie für die Server.
These 5: Die Cloud braucht noch Zeit
Cloud Computing ist der nächste folgerichtige Evolutionsschritt der Virtualisierung in der Unternehmens-IT. Cloud Computing wird dabei häufig irrigerweise synonym mit Virtualisierung verwendet, meint aber vor allem die automatisierte und standardisierte Bereitstellung abstrahierter IT-Infrastrukturen wie zum Beispiel Rechenkapazität, Datenspeicher, fertige Programmpakete, die ein Anbieter dynamisch an den Bedarf angepasst auf Basis von Virtualisierungstechnologien über ein Netzwerk zur Verfügung stellt. Die Abrechnung erfolgt dabei meist nutzungsabhängig.

(rb)