Lösungsansätze mit Flash

Server-Virtualisierung ohne SAN

25.11.2013 von Allon Cohen
Die Phase der Server-Virtualisierung hat die Storage-Layer ziemlich unverändert gelassen. SAN- und NAS-Systeme bleiben oft eine separate Ebene, die eine vertikale Integration mit der Virtualisierungsplattform vermissen lässt. Doch gibt Lösungsansätze mit Flash-Speichern.
Reduktion: Für eine I/O-Last von 500.000 IOPS sind entweder 4000 Festplatten oder nur wenige SSDs notwendig.
Foto: OCZ

von Allen Cohen
Wenn die Server-Virtualisierung einer IT-Umgebung hinzugefügt wurde, befinden sich in der Regel alle Anwendungsdaten in SAN- oder NAS-Systemen. Die Fähigkeit bleibt somit erhalten, jede Anwendung von jedem Server des Rechenzentrums dynamisch starten zu können. Während die CPU-Cores in den Servern Millionen von I/Os pro Sekunde (IOPS) generieren können, liefert eine typische Festplatte nur zwischen 100 und 200 IOPS. Die Wartung der Speicheranforderungen virtualisierter Server mit tausenden von mechanischen Festplatten ist schnell ineffizient und verschwenderisch in Bezug auf die Investitions- und Betriebskosten von Rechenzentren. Da immer mehr virtuelle Maschinen in den Servern hinzugefügt werden, können HDDs im SAN den Workload-Anforderungen meist nicht mehr gerecht werden.

Da die Virtualisierung das Rechenzentrum übernimmt, laufen viele Anwendungen auf den Servern simultan und deren kombinierten Speicherzugriffanfragen werden durch den Virtualisierungs-Layer vermischt. Beim Betrieb mehrerer VMs werden die zum Speicher-Array geleiteten Gesamt-I/O-Ströme zufällig ausgewählt, so dass die früheren sequentiellen I/O-Muster der Anwendungen durch zufällige I/Os ersetzt werden. IT-Profis müssen sich dadurch mit einen Paradigmenwechsel hinsichtlich der Verwaltung ihrer Speicher-Arrays zu befassen.

Die Veränderung der Datenströme ist eine unvermeidliche Nebenwirkung der Virtualisierung und bekannt als der "I/O Blender Effekt". Aus diesem Grund erfordert die Server-Virtualisierung starke Random-Access-Fähigkeiten beim Storage. Dies ist weiterhin ein großes Problem für Festplatten und deren physikalisches Design.

Storage-Architekturen müssen sich ändern

Rechenzentren mit irtualisierten und unausgeglichenen Server/Storage-Architekturen erleben eine schnelle Revolution und Veränderung. Flash hat das Speicherbild mit der Einführung von PCIe-Steckkarten verändert. Die im Server platzierten Flash-Speicher liefern mit geringer Latenz und in CPU-Nähe Hunderttausende von IOPS und Terabytes an Speicherkapazität. Flash-Speicher im Server wird den Anforderungen für I/O-Zugriffe bei der Virtualisierung gerecht. Deshalb wird die nächste Welle der Virtualisierung auslösen und zu einem integralen und unverzichtbaren Bestandteil der Speicher-Bereitstellung werden.

Wie andere virtualisierte Ressourcen stellt ein Software-Layer auch den Datenspeicher in jeder einzelne VM bereit. Darüber wird dynamisch verteilt Flash- und HDD-Speicher transparent genutzt, um die VM für die definierten Service-Level zu bedienen. Um dies zu ermöglichen, muss der On-Host-Flash als verteilte Cache-Ressource verwendet werden, sowie zwischen VMs teilbar als auch von mehreren Hosts zugänglich sein. Entscheidend für die Performance-Beschleunigung ist, dass die Caching-Richtlinien mit den gemeinsam genutzten Ressourcen übereinstimmen (via Application Programming Interfaces oder APIs). Damit wird gewährleistet, dass die richtigen Daten zur richtigen Zeit auf dem Flash-Speicher sind.

Bildergalerie: iOS 7.1 auf dem iPad Air
Maximale Bandbreite - Vergleich von HDDs und SSDs
Vergleich des Energieverbrauchs bei Client- und Unternehmensapplikationen
Vergleich der Antwortzeiten
Vergleich des IOPS-Durchsatzes
Vergleich der Abschlusszeiten bei Datawarehouse-Abfragen

Den vollen Nutzen aus dem Flash ziehen

Eine Lösung, welche die Anwendungs-Performance in virtualisierten Server-Umgebungen maximiert, indem sie Daten-Caching und Flash-Virtualisierung in Hypervisor-Plattformen bereitstellt, wäre interessant. In Verbindung mit einer PCIe SSD könnte diese Lösung Flash-Caching-Ressourcen auf Abruf und basierend auf den Bedürfnissen der VM verteilen. So wird sichergestellt, dass keine VM den Flash ineffizient beschäftigt, wenn er besser anderswo in der Umgebung genutzt werden kann. Flash-Volumen stellt der Flash-Host automatisch bereit, indem nicht festgelegter Flash transparent als dynamische Cache-Ressource eingesetzt wird. Der Flash-Speicher wird jederzeit optimal genutzt, egal wie viele VMs gleichzeitig laufen.

Flash- und Cache-beschleunigte Volumina (von internen HDDs und externen SANs) könnten als verteilte Netzwerk-Ressourcen präsentiert werden, auf die sich von jeder VM aus zugreifen lässt. Mit der wünschenswerten Fähigkeit, alle Datenzugriffe zu überwachen, sollte der Datenverkehr zum und vom SAN um bis zu 90 Prozent reduziert werden, indem kritische Daten lokal auf der PCIe SSD liegen. Leider sind viele Produkte dahingehend limitiert, nur Anwendungen zu beschleunigen, die auf dem gleichen Server laufen, in dem auch der Cache integriert ist. Wäre es nicht hochinteressant, wenn es mit der Flash-Virtualisierung möglich wäre, den Cache auf mehr als einen angeschlossenen Server auszuweiten?

Auf den Punkt gebracht: Es wird eine virtuelle Vorrichtung in einer virtualisierten Umgebung benötigt, die direkt mit dem Hypervisor-Layer arbeitet, um On-Host Flash-Ressourcen zu verwalten und zu verteilen. Diese Caching-Lösung benötigt idealerweise keine Software-Agenten für die beschleunigten Gast-VMs.
Allein dies würde eine der größten Herausforderungen an IT-Manager bei der Implementierung einer solchen Lösung in einem modernen Rechenzentrum mit Hunderten von VM-Guests deutlich erleichtern. Ein zentralisierter Ansatz würde ermöglichen, die gesamte Flash-Kapazität als eine einzelne virtuelle Ressource zu behandeln und die Flash-Ressourcen dynamisch unter den VMs je nach Bedarf zu verteilen. Durch die Kombination von Speicher-Virtualisierung mit dynamischem Flash-Caching könnten die kompletten Vorteile zu jeder Zeit effektiv genutzt werden.

Prognose 1
Konsolidierungsvorteile reichen nicht, um noch mehr Virtualisierung zu rechtfertigen. IT-Manager müssen erklären, wie Virtualisierung Anwendungen flexibler und sicherer mache.
Prognose 2
Ihre Virtualisierungsumgebung muss dynamisch sein, sonst verschwenden Sie Geld. Unternehmen sollten die zahlreichen Features nutzen, die das Hypervisor Resource Management inzwischen biete, rät Forrester.
Prognose 3
Disaster Recovery und Ausfallsicherheit treiben die meisten neuen Virtualisierungsprojekte. Das hat eine Forrester-Umfrage ergeben. Der Return on Investment (RoI) für Virtualisierungsvorhaben werde zunehmend durch eine verbesserte Ausfallsicherheit der IT-Infrastruktur bestimmt.
Prognose 4
Analytics-Funktionen machen konsolidierte Management-Tools für die Virtualisierung noch smarter. Das betrifft vor allem die Branchenschwergewichte VMware und Microsoft, die ihre umfangreichen Suiten vereinfacht haben. Unternehmen können Analytics-Features nutzen, um mehr aus ihren virtualisierten Umgebungen herauszuholen.
Prognose 4
Analytics-Funktionen machen konsolidierte Management-Tools für die Virtualisierung noch smarter. Das betrifft vor allem die Branchenschwergewichte VMware und Microsoft, die ihre umfangreichen Suiten vereinfacht haben. Unternehmen können Analytics-Features nutzen, um mehr aus ihren virtualisierten Umgebungen herauszuholen.
Prognose 5
Die Anwendung sollte die beste Virtualisierungsplattform diktieren, nicht umgekehrt, empfiehlt Forrester. Hinsichtlich der reinen Hypervisor-Technik könnten Unternehmen heute frei wählen und auch Open-Source-Alternativen ins Auge fassen. Entscheidend sollte aber nicht die Hypervisor-Technik sein, sondern die Betriebssysteme und Anwendungen, die in der virtualisierten Umgebung laufen.
Prognose 5
Die Anwendung sollte die beste Virtualisierungsplattform diktieren, nicht umgekehrt, empfiehlt Forrester. Hinsichtlich der reinen Hypervisor-Technik könnten Unternehmen heute frei wählen und auch Open-Source-Alternativen ins Auge fassen. Entscheidend sollte aber nicht die Hypervisor-Technik sein, sondern die Betriebssysteme und Anwendungen, die in der virtualisierten Umgebung laufen.
Prognose 6
Der Hypervisor-Preiskrieg setzt sich fort…. und geht doch an den Kundenbedürfnissen vorbei. Kunden bezahlten in Wirklichkeit nicht für den Hypervisor, sondern für den damit verbunden Management-Stack, konstatieren die Forrester- Experten.
Prognose 7
2013 wird das Jahr 1 des Software-defined Data Center. Das Konzept des Software-defined Data Center ist aus Sicht der Forrester-Experten der nächste logische Schritt hin zu hochautomatisierten und effizienten IT-Operationen.
Prognose 8
Das hybride Data Center wird populärer als reine Private oder Public Clouds. Anwenderunternehmen nutzen künftig eine Mischung aus virtualisierten lokalen Ressourcen (on-premises) und externen Workloads in der Cloud (off-premises).
Prognose 9
Ihr CFO fordert Kostentransparenz für virtuelle Umgebungen. Das obere Management Ihres Unternehmens wird sich 2013 viel stärker für die Kosten der virtualisierten IT interessieren, lautet die letzte Prognose der Forrester-Experten.

Erweiterte Virtualisierung - ohne SAN

Durch den stetig wachsenden Einsatz von Flash-basierten SSDs in Rechenzentren, realisieren IT-Profis nun, dass sich beschleunigte Server-Anwendungen wie keine andere Applikation auf spezifische Möglichkeiten des unterstützten Speichermediums verlassen. Hierzu zählen entscheidende Dienste, wie beispielsweise synchrones Mirroring, hohe Verfügbarkeit (HA), End-to-End-Fehlertoleranz und vMotion. In einigen Fällen sind diese kritischen Dienste eine Voraussetzung für die Ausführung bestimmter Server-Anwendungen.

Eine gemeinsame Nutzung von SAN-Speichern ermöglicht der virtuellen Server-Umgebung viele wichtige Funktionen, wie Live-VM-Migration, verteiltes Ressourcen-Management und Site/Data-Recovery. Aber mit diesen Fähigkeiten werden zusätzliche Ressourcen und Ausgaben erforderlich mit der Implementierung, Pflege und Aktualisierung. Die Kosteneinsparungen durch Virtualisierung werden kompromittiert durch die Zugabe von mehr Speichersystemen. Aber was wäre, wenn die Vorteile der Virtualisierung ohne die Verwendung weiterer Vorrichtungen realisiert werden könnten? Oder besser noch, wenn ein SAN überflüssig wäre? Das Ergebnis wäre eine "All-Silizium" SAN-lose virtuelle Infrastruktur - welche die physikalischen Hosts davon befreien würde, sich mit einem extern geteilten Speicher-Pool verbinden zu müssen.

Damit IT-Profis eine "No Data Loss/No VM Downtime"-Umgebung realisieren können, müssen alle virtualisierten Daten synchron gespiegelt und kontinuierlich über das Netzwerk verfügbar sein. Dafür sind HA- als auch FT-Dienste nötig, speziell für geschäftskritische VMs.

VMware Fault Tolerance ist eine der anspruchsvollsten Funktionen von virtualisierten Umgebungen, die sogar bei einem Serverausfall eine kontinuierliche, ununterbrochene Verfügbarkeit einer Anwendung ermöglicht. Die optimale Lösung müsste nicht nur Daten auf einen Host-basierten Flash-Speicher verschieben können, um so die Leistung zu maximieren sowie Host-Ressourcen effektiv zu nutzen, sondern sie müsste auch die kritischen Storage-Dienste bieten können, welche für den Betrieb von Unternehmensanwendungen erforderlich sind.

Vor dem Schritt in die Cloud
Bei Unternehmen, die gerade erst eine virtuelle Server-Landschaft aufgebaut haben, Augenmerk zuerst auf Automatisierung und Management legen, vor dem Schritt in die Cloud
Sicherheit
Virtuelle Infrastrukturen, Anwendungen und Desktops müssen mittels Firewalls, Access Policies und Virenscanner ebenso sorgfältig gegen Viren und Malware geschützt werden wie physikalische.
BYOD-Strategie
Strikte Trennung von privater und geschäftlicher Arbeitsumgebung muss gewährleistet sein, zum Beispiel mit Client-seitigem Hypervisor. Klare Betriebsvereinbarungen: Jeder Mitarbeiter muss wissen, was er darf und was nicht.
Software-Lizenzierung
Analyse der bestehenden Kundenumgebung
Backup & Disaster Recovery Strategie
Speicherstrategien, Datensicherung, Datenarchivierung, Multi-Tier-Speichertechnologien und vor allem Wiederherstellung und Migration berücksichtigen
Storage- und Netzwerk-Konzept
Um alle Features moderner Hypervisoren auszunutzen, sollten entsprechende Massenspeicherlösungen verwendet werden. Damit lässt sich die Verwendung von Service-Klassen automatisieren: Das Storage-Device informiert den Hypervisor automatisch über seine Leistungsklassen, sodass dieser entsprechend vorgegebener Regelwerke die Provisionierung von Workloads (VMs) automatisch nach vereinbarten SLAs vornehmen kann.
Organisation auf Kundenseite
Klärung und Definition: IT-Organisation (Aufbau- und Prozessorganisation, neue Rollen und Verantwortlichkeiten, neue Tools etc.) auf Kundenseite
Gesamtkonzept
Ganzheitlich Sicht über das Design und die Möglichkeiten der Implementierung behalten

Nahezu perfekt

Der Nettoeffekt einer SAN-losen, reinen Flash-Infrastruktur wäre, dass die virtuelle Umgebung tagtäglich wesentlich einfacher zu verwalten wäre. Da alle Daten in jedem Server auf dem Flash gespeichert sind, erhalten IT-Manager von Cloud- und Enterprise-Rechenzentren einen einheitlichen Host-Baustein mit Flash-Level-Speicherperformance. Niedrigere Strom- und Kühlungskosten im Vergleich zu traditionellen HDD-basierenden SANs wären ein weiterer Vorteil.

Gäbe es eine Lösung, die dabei hilft, die heutige Branchenvision Realität werden zu lassen und virtuelle Flash-Ressourcen intelligent über das Server-Netzwerk zu verteilen, wäre ein großer Schritt gemacht. Die Idee: Eine optimierte Lösung für virtuelle Umgebungen, die durch die dynamische Bereitstellung und Lieferung von Caching-Diensten für jede VM über die gesamte virtualisierte Umgebung einige Problematiken lösen würde. (rb)