IT-Systeme am Prüfstand

Zehn Mythen zum Thema Hochverfügbarkeit

13.08.2009
Von Ulrich Lenz

3. Hochverfügbarkeit ist teuer

Gesichert: Fehlertolerante Server mit doppelt ausgestatteter Hardware bieten ein hohes Maß an Ausfallsicherheit. (Quelle: NEC)
Gesichert: Fehlertolerante Server mit doppelt ausgestatteter Hardware bieten ein hohes Maß an Ausfallsicherheit. (Quelle: NEC)

"Teuer" ist wie immer relativ und muss hier im Verhältnis zum möglicherweise entstehenden Schaden gesehen werden. Sollte ein Server-Ausfall Kosten in Millionen-Höhe verursachen, so wäre auch der teuerste Server noch preiswert, sofern er nur wirklich ausfallsicher ist. Tatsächlich aber ist Hochverfügbarkeit heute sogar für kleinere und mittlere Unternehmen erschwinglich. Fehlertolerante Server kosten unterm Strich sogar weniger als entsprechende Cluster-Lösungen, weil hier keine zusätzlichen Kosten für Software-Anpassung, zusätzliche Lizenzen oder eine aufwändige Administration anfallen. Mittlerweile gibt es auch Lösungen, die die üblichen Standard-basierten x86-Server auf Basis der Open-Source Virtualisierungs-Software Xen zu einer hoch verfügbaren Plattform verbinden können. Solche Lösungen bieten eine Verfügbarkeit von über 99,99 Prozent.

4. Hochverfügbarkeit ist aufwändig zu administrieren

Die für wichtige Aufgaben üblicherweise verwendeten Cluster-Lösungen sind in der Tat sehr aufwändig in der Implementierung wie in der Administration. Unternehmen müssen dabei auch über spezielles Know-how verfügen. Dagegen verhalten sich fehlertolerante Server, die aus komplett redundanten Komponenten aufgebaut sind, nach außen wie ganz normale Server; für den Benutzer ist die Redundanz nicht sichtbar. Dementsprechend ist die Administration nicht aufwändiger als bei einem Standard-Server.

Zur Startseite