Tücken und Tipps

Storage an virtualisierte Umgebungen anpassen

25.06.2012
Ein erfolgreiches Virtualisierungsprojekt erfordert ein ausgeklügeltes Storage- und Sicherheitskonzept.
Virtuelle Umgebungen konsolidieren viele Workloads an einer Stelle - das hat zahlreiche Auswirkungen auf den Storage.
Foto:

Ein erfolgreiches Virtualisierungsprojekt erfordert ein ausgeklügeltes Storage- und Sicherheitskonzept.
Speicher spielt bei der Virtualisierung die zentrale Rolle. "Unterm Strich ist das Thema Storage sehr viel beratungsintensiver als das Serversystem, weil es hier wesentlich mehr Möglichkeiten gibt - und leider auch wesentlich mehr, was man falsch machen kann, mit direkten Auswirkungen auf Performance und Verfügbarkeit des gesamten Systems", bringt Rüdiger Grund, Vertrieb Server bei Extra Computer, die Herausforderung für Partner auf den Punkt.
Das werde oft unterschätzt - im Hinblick auf die benötigte Größe und - noch entscheidender - hinsichtlich der Performance. "SATA-Platten bieten zwar viel Platz, bringen aber nur bedingt Leistung. Ein Raid-5-Verbund bietet zweifellos Vorteile, geht aber mit deutlichen I/O-Verlusten einher", so Grund.

Arbeitslast wird konzentriert

Virtuelle Umgebungen konsolidieren viele Workloads an einer Stelle. Damit steigen auch die I/O-Anforderungen (Input/Output), weil alle Rechnerressourcen auf dieses Speichersystem zugreifen. Gleichzeitig stehen aber immer weniger I/O-Kanäle zur Verfügung. "Kleine Probleme sind deshalb für alle Nutzer sofort spürbar", warnt Christian Behma, Senior Consultant & Fachteamleiter Server und Storage bei Comparex.

Grade für kleinere Unternehmen ist die Erkenntnis, dass Hochverfügbarkeit auch zwingend einen zentralen Speicher - ein NAS oder SAN - erfordert, oft ein Novum. Die Zentralisierung des Speichers ist außerdem nötig, um weitere wichtige Funktionen, beispielsweise die Live-Migration virtueller Maschinen, zu ermöglichen.

Thomas Reichenberger, IT-Consultant bei ACP IT Solutions
Foto: ACP

"Allein schon wegen der damit verbundenen Aufwendungen und Kosten für Einführung und Betrieb, aber auch für die entstehenden Schäden für das Unternehmen, wenn das Storage-System einmal nicht funktioniert, spielt Storage eine herausragende Rolle und hat zentrale Bedeutung", erklärt Thomas Reichenberger, IT-Consultant bei der ACP IT Solutions AG.

Speicherbedarf minimieren

Mit der Einrichtung eines NAS oder SAN ist es allerdings nicht getan: Images für virtuelle Maschinen sind immer ein Abbild der Software (Betriebssystem und Anwendungen) der physikalischen Maschine, aus der sie ursprünglich erzeugt wurden, und haben zunächst auch deren Umfang von mehreren Gigabytes. <

Rolf Ferrenberg, Manager BU Desktop Delivery bei Arrow ECS
Foto:

"Konvertiert man beispielsweise Hunderte physikalischer Desktops, ohne Vorkehrungen zu treffen, den Speicherbedarf in Images für virtuelle Maschinen zu minimieren, und speichert diese zentral im Rechenzentrum, so explodiert das benötigte Speichervolumen für das dort eingesetzte NAS oder SAN förmlich", beschreibt Rolf Ferrenberg, Manager BU Desktop Delivery Arrow ECS, ein mögliches Risiko.

Außerdem ist der Boot-Vorgang nicht mehr eine lokale Angelegenheit der PC-Workstation. Deshalb muss gewährleistet sein, dass das SAN/NAS in der Lage ist, die Images für den Boot-Vorgang vieler virtueller Maschinen gleichzeitig zur Verfügung zu stellen.
"Die Virtualisierungsstrategie des Unternehmens muss deshalb darauf abzielen, die Zahl unterschiedlicher Images möglichst gering zu halten und damit den Speicherbedarf und den Wartungsaufwand (Updates, Patches, neue Versionen) zu minimieren", empfiehlt der Arrow-Manager. Technologien wie "Linked Clones" oder "Provisioning" machen dies möglich: Sie individualisieren ein Image (Name, SID, IP-Adresse etc.) beim Booten und erlauben damit die Bildung von Imageklassen für bestimmte Anwendungsfälle, wie etwa "PC in der Produktion", "Applikationsserver" etc., die dann nur ein Image pro Klasse benötigen.

Vitualisierungsmarkt
Konsolidierungsrate im Server-Bereich
Dem V-Index von Veeam Software zufolge liegt das Verhältnis von virtualisierten Maschinen zu physischen Hosts in Deutschland bei 4,7:1. Hier ist noch Luft nach oben, findet Experton Group. Der anzustrebende Wert bei Verhältnis der Anzahl von virtuellen Servern zu physischen Servern bei mindestens 10:1, im Idealfall bei etwa 30:1.

Flaschenhälse vermeiden

Für Server und Desktops ist die Leistungsfähigkeit von Speichersystem (I/Os) und Server (RAM) der limitierende Faktor, da sind sich die Experten einig.

Ein Flaschenhals entsteht häufig beim Sizing des Storage-Bedarfs für die virtuelle Infrastruktur, so die Erfahrung von Stephan Bohnengel, Senior Systems Engineer & Security and Compliance Specialist bei VMware: "Liefert das Storage nicht genügend IOPS (Operations per Second im Random-Bereich), kann das unmittelbare Auswirkungen auf die Performance der VMs haben, egal ob dies nun Server, Desktops oder Dienste sind. Und weil sich das Rechenzentrum und der I/O-Bedarf permanent verändern können, ist es wichtig, auch das I/O-Verhalten der Umgebung im Auge zu behalten. Noch besser ist es, neben dem Management der Performance auch Selbstheilungsmittel in der Hypervisor-Architektur zu haben."
Der Hypervisor Storage I/Os kann also garantieren, dass diese einer VM zugewiesen werden können.

Balance zwischen Kosten und Tempo

Oft sind die Betriebsprozesse nicht für die Virtualisierung optimiert, sondern noch auf die eher langsame Provisionierung physikalischer Workloads ausgerichtet. "Mit herkömmlichen Speichersystemen sind die hohen IOps meist das größte Problem beim Design einer Desktop-Virtualisierungs-Lösung", beschreibt Georg Dietsch, Director Enterprise Sales EMEA bei OCZ, die Folgen.

Hohe IOps lassen sich bei herkömmlichen Speichersystemen durch eine hohe Anzahl von Festplatten in den Speichersystemen zusichern, alternativ über teurere Cache-Module in den Speichersystemen oder auch durch den Einsatz von SSD-Festplatten.
"Dies bedeutet aber meist einen sehr hohen Preis für Speichersysteme und führt oft dazu, dass Desktop-Virtualisierung nicht wirtschaftlich betrieben werden kann", beschreibt Thomas Reichenberger von ACP die Nachteile. Er empfiehlt, die Möglichkeiten der neuen Module in den Hypervisoren zu nutzen, die inzwischen auch diese hohen IOps bereitstellen können: "Hersteller Fusion-IO liefert dazu sowohl Karten mit sehr schnellen SSD-Speichern, auf denen Master Images abgelegt werden können, als auch Karten (ioTurbine), die sich als sehr schneller Cache für das Storage nutzen lassen und vom Hypervisor unterstützt werden."

Einsatz von SSDs

Seitens der Storage-Hersteller sei der Einfluss von SSDs auf die Performance der Arrays deutlich bemerkbar, so VMware-System-Engineer Stephan Bohnengel: "Andere Technologien der Hersteller kopieren oft angefragte Blocks, zum Beispiel vollautomatisch von langsameren Festplatten des Storage Arrays auf SSDs, um. Fully Automated Storage Tiering lautet hier das Stichwort."
Für Georg Dietsch ist der Einsatz von SSDs auf dem PCIe-Speicher, der direkt auf dem Bus ansetzt, unabdingbar, inklusive einer Software, die den Flash-Speicher direkt über den Hypervisor bereitstellt. "Herkömmliche SAS/FC-Schnittstellen, die eher für langsame Provisionierung physikalischer Workloads ausgerichtet sind, erweisen sich dagegen oft als Flaschenhals.”
Im Gegensatz zu HDD-Speichern ermögliche die Flash-Speicher-Technologie einen sehr schnellen Storage-Zugriff im Random-Bereich, wie Allon Cohen, VP of Marketing & Product Management bei OCZ-Sanrad, ausführt: "Eine einzige PCIe-Host-basierte Flash-SSD ist imstande, eine Random-IOPS-Performance für die VMs bereitzustellen, die der eines großen SAN-Arrays mit Tausenden HDDs gleichkommt."
(rb)