Wie viel Hochverfügbarkeit brauchen kleine und mittlere Unternehmen?

08.08.2007
Von Michael Schumacher,
Die Debatte um den Klimaschutz und steigen-de Strompreise lassen den Energieverbrauch zu einer unternehmenskritischen Größe werden. Grund genug für SMB-Unternehmen, sich zu diesem Thema Gedanken zu machen.

Von Michael Schumacher*

Kleines Rechenzentrum ab zehn Racks mit integriertem "In-Row"-Klimaschränken. (Quelle: APC-MG)
Kleines Rechenzentrum ab zehn Racks mit integriertem "In-Row"-Klimaschränken. (Quelle: APC-MG)

Die Debatte um den Klimaschutz und steigende Strompreise lassen den Energieverbrauch zu einer unternehmenskritischen Größe werden. Laut Gartner hat sich der Stromverbrauch für Server im Zeitraum von 2000 bis 2005 verdoppelt. Allein auf die Server in den USA entfallen demnach 0,6 Prozent des weltweiten Energiebedarfs. Und so rückt die Datencentereffizienz zunehmend ins Visier der CIOs. Um hier Verbesserungen zu erzielen, können und müssen die IT-Manager an mehreren Schrauben drehen. Neben operativen Maßnahmen, wie dem Ablösen alter IT-Systeme, einem effizienteren Betrieb der Hardware oder der Migration auf Energie sparende Computing-Plattformen, versprechen insbesondere planungsbezogene Maßnahmen Erfolg.

Einflüsse auf die Verfügbarkeit

Lapidar listet die Bitkom die Folgen eines Server-Ausfalls auf.
Lapidar listet die Bitkom die Folgen eines Server-Ausfalls auf.

Prinzipiell gilt, dass jedes Unternehmen spezifische Anforderungen an die IT-Verfügbarkeit hat, die sich zum einen aus geschäftlichen Anforderungen zu Partnern, Kunden und Lieferanten, zum anderen aus gesetzlichen Anforderungen (z.B. transparente Bilanzierung, Lang-zeitarchivierung, elektronische Lesbarkeit, Datensicherheit, -schutz und -kompatibilität, etc.) ergeben. Maßgebliche Größe zur Bestimmung der Verfügbarkeit sind die Höhe der Ausfall- und Folgekosten, die durch Downtimes, d.h. die Nichtverfügbarkeit bestimmter Dienste, entstehen. Fatalerweise werden diese Informationen in mittelständischen Unternehmen kaum erfasst. Besonders wenig Beachtung finden indirekte Folgekosten durch Haftungsrisiken oder Imageschäden wie zum Beispiel der Verlust der Glaubwürdigkeit und Zuverlässigkeit gegenüber Partnern und Kunden. Die Entwicklung einer geeigneten Verfügbarkeitsstrategie erfordert deshalb einen kompetenten Berater, der dabei hilft, wirklich alle mit einem potentiellen Ausfall zusammenhängenden Gefahren und Schadenspotentiale zu ermitteln (siehe Grafik).

Verteilte physikalische Bedrohungen

Bedrohungen für die Servicequalität innerhalb der IT-Infrastruktur sind entweder digitaler oder physikalischer Natur. Während digitale Bedrohungen (Hackerangriffe, Virenattacken, etc.) auf der Netzwerkebene wirken, setzen die physikalischen Bedrohungen an der Basis der Datencenterabsicherung an. Zu ihnen zählen sowohl äußere Sicherheitsbedrohungen wie Diebstahl, Spionage, Sabotage oder Feuer, aber auch infrastrukturelle bzw. technische Bedrohungen. Die Absicherung dieser so genannten verteilten physikalischen Bedrohungen erfolgt einerseits durch integrierte Sensoren innerhalb der Einzelkomponenten wie USV-Module, oder Kühlungseinheiten, andererseits durch zusätzliche Sensoren, die innerhalb des Datencenters platziert werden. (Tabelle 2 zeigt die verschiedenen Bedrohungen, Folgeschäden und entsprechende Sensortypen)

Eine zunehmende Aufmerksamkeit erfährt das Thema Kühlung. Die lokale Überhitzung des Datencenters zählt zu den am häufigsten unterschätzten Verfügbarkeitsrisiken. Dies gilt insbesondere in dicht gepackten 19"-Schränken. Die Substitution älterer Server durch raumoptimierte Modelle und die dichtere Bestückung der Racks bewirkt immer stärkere Abwärmekonzentrationen in den Racks und Serverräumen. Dieser Trend wird durch das unablässig steigende Datenaufkommen noch verstärkt. Bis zum Jahr 2010 werden weltweit 35 Millionen Server in Betrieb sein, prognostiziert das Marktforschungsunternehmen IDC. Zum heutigen Zeitpunkt werden bereits 24 Millionen Server genutzt.

Zur Startseite