Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

13.07.2001 - 

Vergleichsweise kostengünstige Lösung zur Leistungssteigerung

Solid State Disks erhöhen die Performance

13.07.2001
MÜNCHEN (CW) - Trotz ausgefeilter Raid-Techniken bilden Festplatten in immer stärkerem Maße das Nadelöhr bei der Datenausgabe. Abhilfe können Solid State Disks (SSDs) schaffen, insbesondere, wenn sie die am meisten benutzten Files enthalten.

Was lässt ein Computersystem schneller werden, das bereits über die besten Prozessoren, einen maximal ausgebauten Hauptspeicher und optimierte Applikationen verfügt? In vielen Fällen heißt die Antwort Solid State Disk. Diese aus RAM-Modulen aufgebauten Speichermedien glänzen durch extrem kurze Antwortzeiten sowie durch ihre Robustheit. Sie sind immun gegen Schock, Vibration, Staub und halten Temperaturen aus, bei denen herkömmliche Festplatten mit ihren rotierenden Lese- und Schreibköpfen die Segel streichen müssen. In den 80er Jahren galten sie wegen dieser Eigenschaften als das Maß aller Dinge beim Einsatz in rauhen Industrieumgebungen und für militärische Echtzeitanwendungen.

Brillante Access Time

Nachteile von SSDs sind der im Vergleich zu herkömmlichen Festplatten hohe Preis, die geringere Speicherkapazität und die Abhängigkeit von der Steckdose: RAM-Bausteine sind flüchtige oder energieabhängige Speicher, die den gespeicherten Inhalt verlieren, wenn die Stromzufuhr unterbrochen ist. Deshalb ist beim Kauf einer SSD darauf zu achten, dass sie dafür entsprechende Sicherungsmaßnahmen enthält. Dazu gehören ein zweifach ausgelegter Batteriesatz sowie eine interne Festplatte, auf die im Notfall der RAM-Inhalt automatisch gespeichert wird.

Heute liegt der Reiz der Chipspeicher in der enormen Geschwindigkeit, mit der auf Daten zugegriffen werden kann. Die durchschnittliche Access Time ist 200-mal kürzer als bei herkömmlichen Festplatten. Zwar konnten die Hersteller in den vergangenen Jahren die Speicherkapazität der Harddisks stark verbessern, jedoch nicht deren I/O-Leistung. Gemessen an der Kapazität ging sie sogar zurück: Der Quotient aus der Anzahl der I/Os geteilt durch die Speicherkapazität betrug 1992 etwa 60 IOPS (I/O per second), heute - wegen der hohen Speicherkapazitäten - liegt er unter fünf.

Deshalb haben Hersteller von Speicher-Arrays schon früh begonnen, Cache-Speicher in ihre Systeme einzubauen. Die als "Raid-Cache" oder "Block-Caching" bezeichnete Lösung ist aber nur so gut, wie die Trefferrate des Cache-Speichers, die wiederum vom Zugriffsmuster der Anwendung abhängt. Ein anderer Ansatz zur Steigerung des I/O-Verkehrs ist das "Data stripping", bei dem die Daten über mehrere Festplatten verteilt werden. Beide Verfahren bringen in vielen Applikationen die gewünschte Verbesserung, jedoch hat in jüngster Zeit das Internet die Anforderungen noch einmal drastisch erhöht: Stark steigende I/O-Zugriffe, unvorhersehbare Spitzenbelastungen und zunehmend ungeduldiger werdende Internet-Surfer.

Hot Files in den Cache

Deshalb ist die Technik des Block-Caching in vielen Fällen nicht mehr ausreichend. Dabei entscheidet der Raid-Controller darüber, was im schnellen Cache-Speicher abgelegt werden soll, hat aber keine Informationen darüber, von welchen Files die Blöcke stammen. Er entscheidet rein statistisch, was in den Cache kommt und was daraus entfernt wird. Viel wirkungsvoller ist es, wenn die häufig benutzten Files ("Hot Files") als Ganzes in einem schnellen Medium - einem File-Cache - zwischengelagert werden. Die Entscheidungen darüber, was in den Cache wandert, treffen dann allerdings die System-Manager und nicht statistische Gegebenheiten.

Zunächst muss aber untersucht werden, ob die Anschaffung einer SSD die Leistung steigert, sprich, ob der Server häufig auf den I/O warten muss. Das lässt sich mit Software-Tools ermitteln. Die nächste Frage ist, ob die I/O-Aktivität asymmetrisch auftritt, wenn nicht, dann empfiehlt es sich, das Raid-System zu erweitern, also mehr Festplatten hinzuzufügen.

Sind aber, wie beispielsweise bei vielen E-Mail-Anwendungen, die Message Queues in hohem Maße für die I/O-Belastung verantwortlich, schafft eine Auslagerung dieser Hot Files auf Solid State Disk eine enorme Verbesserung. Die Industrie berichtet von Durchsatzsteigerungen um den Faktor vier bis acht. Die Alternative wäre, vier bis acht Server zusätzlich anzuschaffen und zu verwalten, um die gleichen Antwortzeiten zu erreichen.

Allerdings sind in vielen Applikationen die Hot Files nicht einfach zu identifizieren. Beispielsweise ist es mit Analysewerkzeugen für Betriebssysteme nicht möglich, die Hot Files einer Oracle-Datenbank zu identifizieren. Zwar kann man vermuten, dass die Index-Files sehr aktiv sind, aber komplexe Installationen verfügen über mehrere Indices, die dann auch noch über mehrere Festplatten verstreut werden. Ein professionelles Werkzeug für die Analyse der File-Aktivität von Oracle ist "I/O Dynamics for Oracle" von Solid Data (www.soliddata.com).

Da sich SSDs dem Rechner wie eine Festplatte präsentieren, können sie an herkömmliche - möglichst Laufwerks-Controller angeschlossen werden. SSDs sind mit SCSI- und/oder Fiber-Channel-Interfaces zu haben.

Abb: Festplattenkapazität steigt, Performance nicht

Während in den vergangenen Jahren die Speicherkapazität von Festplatten enorm gestiegen ist, ist die I/O-Leistung nahezu gleich geblieben. Quelle: Solid Data Systems