IT-Systeme am Prüfstand

Zehn Mythen zum Thema Hochverfügbarkeit

13.08.2009
Von Ulrich Lenz

1. Hochverfügbarkeit ist nur für große Unternehmen wichtig

Alle Unternehmen sind heute in hohem Maße von ihrer IT abhängig und können daher von Server-Ausfällen massiv betroffen werden. Somit gehört es zur Pflicht der Unternehmen eine wirksame Risikovorsorge betreiben. Lösungen wie fehlertolerante Server oder Software-Lösungen in Verbindung mit entsprechender Hardware sind auf Grund des geringen Aufwands für Implementierung und Administration auch für kleinere und mittlere Unternehmen geeignet.

2. Normale Server sind heute so zuverlässig, dass spezielle Hochverfügbarkeits-Lösungen überflüssig sind

Tatsächlich sind Server heute wesentlich zuverlässiger geworden und Serverausfälle sind in der Tat selten. Allerdings sind auch die Anforderungen gestiegen: Unternehmen betreiben auf Standard-Servern unternehmenskritische Anwendungen, für die früher beispielsweise große Unix-Systeme eingesetzt wurden. Solche Anwendungen müssen kontinuierlich verfügbar sein, sonst können große Schäden entstehen und möglicherweise sogar die Existenz des Unternehmens gefährden. Standard-Server unter Linux und Windows erreichen heute eine Verfügbarkeit von etwa 99,9 Prozent – was einer durchschnittlichen Ausfallzeit von 8,8 Stunden pro Jahr entspricht. Für unternehmenskritische Aufgaben sind jedoch mindestens 99,99 Prozent, in der Regel sogar 99,999 Prozent erforderlich, die Server fallen dann maximal 5 Minuten im Jahr aus.

Zur Startseite