Argumente für Festspeicher im Datacenter

Wann und wo SSDs in einem SAN Sinn ergeben

29.10.2014 von Joost van Leeuwen
Anzeige  Immer öfter lohnt der Einsatz von Flash-Speicher auch im Rechenzentrum. Bestimmte Voraussetzungen müssen aber erfüllt sein, um Server mit SSDs sinnvoll zu bestücken.

Mit ständig wachsenden Datenspeichervolumen und der Notwendigkeit einer schnelleren Datenverarbeitung, verlangen viele Unternehmen bessere Speicher-Ressourcen, um diese Anforderungen zu erfüllen. Um die Frage "Wann und wo SSDs in einer SAN-Umgebung Sinn machen" müssen wir zuerst einige allgemeine Hintergrundinformationen über SSDs begutachten. SSDs wurden entwickelt, um Daten viel schneller zu schreiben und lesen als herkömmliche rotierende Festplatten. Der offensichtliche Unterschied zwischen den beiden ist, dass die rotierende Scheibe der Festplatten und deren magnetischer Kopf nach einer bestimmten Position suchen, um die angeforderten Daten zu verarbeiten, während das physikalisch viel schnellere Medium der Flash-Technologie nicht die Last von beweglichen Teilen zu tragen hat

Dadurch ist eine SSD perfekt dafür geeignet, zufällige (Random) Daten zu lesen und zu schreiben, wohingegen HDDs die physikalische Limitierung beim Zugriff auf zufällige Positionen hat, was wiederum schwerwiegende Engpässe im System verursacht , insbesondere da die Anzahl der I/O-Befehle steigt.

Sequentielle vs. Random Data

Die Kombination einer Enterprise SSD mit Caching-Software bietet die grundlegenden Bestandteile für eine erfolgreiche Flash-Integration in das Rechenzentrum. Die SSD Hardware wirkt sich typischerweise auf die Geschwindigkeit aus, mit der die Anwendung auf die kritischen Daten zugreifen kann, indem sie die viel niedrigere Latenzzeit adressiert, während eine HDD auf die Bearbeitung sequentieller Schreib- und Lesezugriffe konzipiert ist. Wenn die Daten jedoch über die physikalische HDD verteilt werden, wird eine Defragmentierung erforderlich, um die offenen Lücken zu schließen und somit wieder eine normale Geschwindigkeit zu erreichen.

Moderne Betriebssysteme verarbeiten komplexe Daten mit mehr und mehr zufälligen Lese- und Schreibzugriffen. Eine HDD kämpft mit der Verarbeitung der Daten, während eine SSD darauf gut vorbereitet ist und problemlos mit sowohl sequentiellen als auch zufälligen Daten zurechtkommt. Aber es gibt noch mehr: die Zugriffszeit einer SSD ist sehr viel schneller und die I/O-Reaktionsfähigkeit kann die einer HDD um das 1000fache übersteigen.

Adressierung des 'I/O Blender' Effekts

In einer Serverumgebung laufen viele Anwendungen zusammen und IT-Manager richten die Infrastruktur so ein, dass virtuelle Server genutzt werden können und es somit Nutzern ermöglicht wird, mehrere Anwendungen laufen zu lassen. Resultierend darauf wird der Virtualisierungs-Layer alle Datenzugriffe in einem Datenstrom zusammenfassen. Dieses Phänomen ist als "I/O-Blender-Effekt" bekannt. Alle sequentiellen Befehle werden in einen großen Datenpfad zufälliger Daten integriert, die um den Zugriff auf den SAN wetteifern. Aus diesem Grund erfordert die Server-Virtualisierung einen starken Direktzugriff.

SAN-Arrays sind in den letzten Jahren enorm in ihrer Größe gewachsen, nicht nur um die wachsenden Datenbank-Anforderungen zu unterstützen, sondern auch aufgrund des gestiegenen Bedarfs an I/O-Performance. Wofür früher eine große Menge an HDDs mit niedriger I/O-Leistung in einem SAN gebraucht wurde, um alle I/O-Nutzer-Anfragen in einem kontinuierlichen Datenstrom bedienen zu können, wurde radikal geändert, indem eine SSD ausnahmslos Hunderte von HDDs ersetzen könnte. Doch es ist zu beachten, die gesamte SAN-Infrastruktur, inklusive Server, all seine Verbindungen und Zugriffspunkte sind nur so schnell wie das langsamste Element. Daher ist es nicht immer die effizienteste Lösung einfach eine HDD mit einer SSD zu ersetzen.

Betrachtet man dies aus der Sicht des Nutzers, ist der einzige Faktor, der wirklich zählt die Anwendungs-Performance; "Wie schnell bekomme ich die Daten für meine Anwendung?" Da der Engpass der Serverzugriff auf den SAN sein könnte, wäre es möglicherweise nicht die effizienteste Lösung dass HDD-Array zu ersetzen. Ein effizienterer Ansatz könnte darin bestehen, eine SSD in den Server hinzuzufügen und sie als Beschleuniger fungieren zu lassen, indem sie die am häufigsten verwendeten ('Hot') Daten zwischenspeichert.

Innerhalb jedem Anwendungsdatenzugriffsprofil gibt es normalerweise eine Untergruppe an Daten, die häufig angefordert wird. Diese 'Hot Data' können auf der SSD im Server zwischengespeichert werden, was die Problematik Flaschenhals bei SAN-Zugriffen als auch Serverengpässe beseitigt. Addiert man diese Ebene von Flash-Caching zur Infrastruktur, werden nicht nur die Gesamtinvestitionen gesenkt, indem nur in paar SSD Flashlaufwerke benötigt werden, sondern auch die Performance wird verbessert. Vom Bereitstellungsstandpunkt aus gesehen, kann dieses Feature leicht in die meisten modernen Server installiert werden und ist derzeit eine der kosteneffektivsten und effektivsten Lösungen.

SAN-los werden

Je nach Anwendung sollten IT-Manager eine SAN-lose Umgebung beanspruchen. Wenn die Anwendung eine große I/O-Last zu erfüllen hat, aber der gesamte Datensatz nicht sehr groß ist, wäre ein externer SAN möglicherweise nicht einmal erforderlich, da ein einfacher Server mit einer Flash-basierten SSD diese Aufgabe leicht erledigen könnte. Für eine Datenbank-Anwendung innerhalb dieser Flash-basierten Umgebung, könnte beispielsweise ein separates Flash-Volumen kreiert werden und welches im Server sitzend als SAN-Speicher fungieren könnte. Dies wäre eine Lösung den SAN zu ersetzen, ohne die mit dem SAN verbundenen Engpässe oder auch dem 'I/O-Blender-Effekt', welcher durch den Server verursacht wird. In diesem Beispiel kommen Server-Rückmeldungen nahezu sofort, ohne dass große Festplatten-Arrays, Wartung, Energieverbrauch, Kühlung oder HDD-Austausch notwendig sind.

Da es sich um Virtualisierung handelt, kann die Zugabe einer intelligenten Software es ermöglichen, dass der SSD-Flash für jede VM in einem virtualisierten Cluster offen ist ohne dass die Virtualisierungsfähigkeiten des Hypervisor-Layers beeinträchtigt werden, wie beispielsweise End-To-End Mirroring, HA, Fehlertoleranz (FT) oder dynamische VM-Migration von einem zum anderen Server. Dieses Level der 'Flash-Only'-Performance ist beispielhaft für ein 'Allsilicon' SAN-loses Rechenzentrum, welches die Vorteile der Virtualisierung liefert, ohne die Notwendigkeit für teure Back-End HDD-SANs.

Intelligenz wird hinzugefügt

Da Flash der Muskel hinter Server-Speicher ist, ist die Software das Gehirn innerhalb der gesamten Lösung. Daher macht das Hinzufügen eines Software-Layers, welcher die bestmögliche Nutzung und Integration des Flashs innerhalb des OS verwaltet, den großen Unterschied. Ob das Betriebssystem Windows-, Linux-basierend oder von VMware virtualisiert ist, unterschiedliche Anwendungen erfordern unterschiedliche Implementierungen, also einen ausgeklügelten Software-Layer, welcher nicht nur Daten beschleunigt, sondern auch so verwaltet, dass die Anwendungsperformance wahrhaft davon profitiert.

VMware ist eine der am weitesten verbreiteten Virtualisierungs-Suiten heutzutage, welche das Rechenzentrum einer Organisation dazu ermöglicht, Daten als auch Anwendungen aus dem SAN effizient zu verteilen und gemeinsam zu nutzen, ohne dass sie lokal auf dem Server sein müssen. Mit dem 'Application-Sharing', sind I/O-Lasten schnell gestiegen, was zu neuen Herausforderungen innerhalb eines Rechenzentrums führt und erfordert, dass die gesamte Infrastruktur effizienter und intelligenter wird.

SSD Flash-Ressourcen können im Voraus für erschwerte Prozesse vorbereitet werden, wie Datenbank-Batch-Läufe oder hohe Nachfragezugriffe. Boot-Stürme sind ein gutes Beispiel dafür, da eine große Nutzeranzahl zum Arbeitsbeginn morgens gleichzeitig auf ihre Computer zugreift. IT-Manager können sich auf diese Lastspitzen vorbereiten und dann mehr Leistung und I/O-Zugriff zur Verfügung stellen, wann und wo es am meisten benötigt wird.

Die VXL Software erzeugt einen Flash-Virtualisierungs-Layer über VMware, um IT-Managern die Möglichkeit zu geben, die Flash-Ressourcen genau nach Bedarf bereitstellen zu können. Dies ermöglicht eine intelligente und effiziente On-Demand-Verteilung der Flash-Ressourcen zwischen allen verbundenen VMs, so dass die Flash-basierte SSDs als hoch-verfügbare Netzwerk-Ressource virtualisiert und mit jeder VM im Cluster geteilt werden kann.

SSDs für den Unternehmenseinsatz
HGST Virident flashMAXII
Western Digital hat im Oktober 2013 den PCI-Express-Spezialisten Virident eingekauft und bei bei der Tochter HGST eingegliedert. Beim absoluten High-End-Laufwerk FlashMAX II kann die Capaticity-Variante bis zu 4,8 TByte speichern.
OCZ/Toshiba Z-Drive 4500
Das neue OCZ-Flaggschiff ist das Z-Drive 4500. Die PCI-Express-Karte kombiniert einen von OCZ entwickelten Controller mit dem neuen 19-Nanometer-Flash-Speicher von Toshiba und soll so beim Lesen bis zu 2165 MByte/s erreichen.
Samsung SSD SM843T
Die Enterprise-SSD SM843T von Samsung mit SATA-Schnittstelle nutzt denselben Controller wie die für Consumer bestimmte 840 Pro. (Bild: Samsung)
Toshiba PX03SNx
Die neue Toshiba-SSDs der PX03SNx-Baureihe mit SAS-3.0-Schnittstelle rangieren bei Preis, Leistung und Kapazität eine Stufe über der Intel DC S3500. Sie erreicht beim sequentiellen Lesezugriff bis zu 1100 MByte/s und ist mit bis zu 1,6 TByte Kapazität verfügbar .
Seagate SSD 1200
Das derzeitige Spitzenmodell unter den Seagate-SSDs ist die 1200 SSD mit SAS-3.0-Schnittstelle. Die SSDs der 1200-Serie bieten mit bis zu 800 GByte Speicherplatz aber nur die halbe Kapazität der neuen Toshiba- PX03SNx-Baureihe.
Mushkin Scorpion Deluxe
Bei der Mushkin Scorpion Deluxe sind unter dem Kühlkörper für den LSI-Controller vier SSDs im M.2-Formfaktor untergebracht, die als RAID-0-Verbund arbeiten.
Intel SSD DC-S3500
Intel hat die sparsamen SATA-SSDs der DC-S3500-Baureihe primär für den Einsatz in Cloud-Servern optimiert. Sie sind mit bis zu 800 GByte Kapazität erhältlich.
SSD Samsung XS1715
Die Samsung XS1715 ist die erste SSD mit NVMe-Interface. Über die vier PCI-Express-Lanes kann sie beim Lesen bis zu 3000 MByte/s übertragen und stößt damit in Leistungsdimensionen vor, für die bisher RAID-0-Lösungen notwendig waren.

Eine wahre Win-Win-Situation

Durch die Beseitigung von Speicherengpässen in einer Enterprise-Umgebung durch die Nutzung der Flash-basierten SSD-Technologie können IT-Manager eine steigende Auslastung der Server erreichen und gleichzeitig sowohl SAN- als auch Wartungskosten reduzieren. Kostengünstige HDD-Grundspeicher können für Kapazität eingesetzt werden, während die gewünschte I/O-Leistung und Speicher-Virtualisierung durch SSD-Ressourcen ermöglicht wird. Damit wird die Anzahl der benötigten Laufwerke reduziert, da die I/O-Leistung nicht mehr länger von den gleichzeitig laufenden Spindeln erzeugt werden muss. Dieser Ansatz reduziert nicht nur die CAPEX eines Rechenzentrums deutlich, sondern senkt auch den Strom- und Kühlungsbedarf, der mit High-End-SANs verbunden ist.

Virtualisierung in den Mix zu integrieren, ermöglicht es IT-Managern das Rechenzentrum ohne übermäßige CAPEX zu erweitern, während eine höhere Dienstleistungsqualität für Nutzer angeboten werden kann. Die intelligente Software bietet jene hohe Verfügbarkeit, welche von virtualisierten Umgebungen auf dem Host-Layer gefordert wird und die in Verbindung mit PCIe Flash-basierten SSDs, leicht die pro VM angeforderten IOPS generiert, wodurch die Notwendigkeit für teure High-End-SANs mit schweren Virtualisierungs-Dienstleistungen im SAN-Layer entfällt.

Die Bereitstellung von Flash-Technologie in eine IT-Infrastruktur gibt einer Organisation die Möglichkeit, das allgemeine Leistungsniveau und die Servicequalität drastisch zu erhöhen, flexibler in den täglichen Aufgaben zu sein und die Arbeitszeit von Rechenzentren zu sichern bei gleichzeitiger Reduzierung der Kosten als auch Wartungsressourcen - eine echte Win-Win-Situation. (rw)