Wie viel Hochverfügbarkeit brauchen kleine und mittlere Unternehmen?

08.08.2007 von Michael Schumacher,
Die Debatte um den Klimaschutz und steigen-de Strompreise lassen den Energieverbrauch zu einer unternehmenskritischen Größe werden. Grund genug für SMB-Unternehmen, sich zu diesem Thema Gedanken zu machen.

Von Michael Schumacher*

Kleines Rechenzentrum ab zehn Racks mit integriertem "In-Row"-Klimaschränken. (Quelle: APC-MG)

Die Debatte um den Klimaschutz und steigende Strompreise lassen den Energieverbrauch zu einer unternehmenskritischen Größe werden. Laut Gartner hat sich der Stromverbrauch für Server im Zeitraum von 2000 bis 2005 verdoppelt. Allein auf die Server in den USA entfallen demnach 0,6 Prozent des weltweiten Energiebedarfs. Und so rückt die Datencentereffizienz zunehmend ins Visier der CIOs. Um hier Verbesserungen zu erzielen, können und müssen die IT-Manager an mehreren Schrauben drehen. Neben operativen Maßnahmen, wie dem Ablösen alter IT-Systeme, einem effizienteren Betrieb der Hardware oder der Migration auf Energie sparende Computing-Plattformen, versprechen insbesondere planungsbezogene Maßnahmen Erfolg.

Einflüsse auf die Verfügbarkeit

Lapidar listet die Bitkom die Folgen eines Server-Ausfalls auf.

Prinzipiell gilt, dass jedes Unternehmen spezifische Anforderungen an die IT-Verfügbarkeit hat, die sich zum einen aus geschäftlichen Anforderungen zu Partnern, Kunden und Lieferanten, zum anderen aus gesetzlichen Anforderungen (z.B. transparente Bilanzierung, Lang-zeitarchivierung, elektronische Lesbarkeit, Datensicherheit, -schutz und -kompatibilität, etc.) ergeben. Maßgebliche Größe zur Bestimmung der Verfügbarkeit sind die Höhe der Ausfall- und Folgekosten, die durch Downtimes, d.h. die Nichtverfügbarkeit bestimmter Dienste, entstehen. Fatalerweise werden diese Informationen in mittelständischen Unternehmen kaum erfasst. Besonders wenig Beachtung finden indirekte Folgekosten durch Haftungsrisiken oder Imageschäden wie zum Beispiel der Verlust der Glaubwürdigkeit und Zuverlässigkeit gegenüber Partnern und Kunden. Die Entwicklung einer geeigneten Verfügbarkeitsstrategie erfordert deshalb einen kompetenten Berater, der dabei hilft, wirklich alle mit einem potentiellen Ausfall zusammenhängenden Gefahren und Schadenspotentiale zu ermitteln (siehe Grafik).

Verteilte physikalische Bedrohungen

Bedrohungen für die Servicequalität innerhalb der IT-Infrastruktur sind entweder digitaler oder physikalischer Natur. Während digitale Bedrohungen (Hackerangriffe, Virenattacken, etc.) auf der Netzwerkebene wirken, setzen die physikalischen Bedrohungen an der Basis der Datencenterabsicherung an. Zu ihnen zählen sowohl äußere Sicherheitsbedrohungen wie Diebstahl, Spionage, Sabotage oder Feuer, aber auch infrastrukturelle bzw. technische Bedrohungen. Die Absicherung dieser so genannten verteilten physikalischen Bedrohungen erfolgt einerseits durch integrierte Sensoren innerhalb der Einzelkomponenten wie USV-Module, oder Kühlungseinheiten, andererseits durch zusätzliche Sensoren, die innerhalb des Datencenters platziert werden. (Tabelle 2 zeigt die verschiedenen Bedrohungen, Folgeschäden und entsprechende Sensortypen)

Eine zunehmende Aufmerksamkeit erfährt das Thema Kühlung. Die lokale Überhitzung des Datencenters zählt zu den am häufigsten unterschätzten Verfügbarkeitsrisiken. Dies gilt insbesondere in dicht gepackten 19"-Schränken. Die Substitution älterer Server durch raumoptimierte Modelle und die dichtere Bestückung der Racks bewirkt immer stärkere Abwärmekonzentrationen in den Racks und Serverräumen. Dieser Trend wird durch das unablässig steigende Datenaufkommen noch verstärkt. Bis zum Jahr 2010 werden weltweit 35 Millionen Server in Betrieb sein, prognostiziert das Marktforschungsunternehmen IDC. Zum heutigen Zeitpunkt werden bereits 24 Millionen Server genutzt.

Wo vor zehn Jahren noch sieben Server pro Rack untergebracht waren, drängen sich inzwischen 20 oder mehr. Bis 2007 soll bereits jeder dritte ausgelieferte Server ein Blade-Server sein. Der anhaltende Serverkonsolidierungstrend katapultiert die erforderliche Kühlleistung mühelos auf über 20 kW gegenüber den bislang üblichen Werten von etwa 2-5 kW. Da traditionelle Klimaanlagen mit diesen Anforderungen nicht mehr Schritt halten und die Verfügbarkeit oftmals völlig unbemerkt aufs Spiel setzen, erfahren integrierte Kühlungsarchitekturen eine immer stärkere Nachfrage.

Ein anschauliches Beispiel liefert das "InfraStruXure High Density"-Konzept des Herstellers APC. Die modular aufgebaute Lösung zeichnet sich durch eine klare räumliche Aufstellung der Racks nach dem Prinzip "heißer Gang - kalter Gang" aus und sorgt in Verbindung mit integrierten Klimaeinheiten für die getrennte Abführung der warmen Abluft und Wiederzuführung der abgekühlten Kaltluft zu den IT-Geräten (siehe Abbildung Seite 1). In Verbindung mit Luftleitsystemen lassen sich somit Raum-im-Raum-Konzepte für höchste Kühlleistungen - mit oder ohne Doppelboden - realisieren. Solche in sich geschlossenen Systeme eignen sich gleichsam für weitere Absicherungsmaßnahmen gegen andere physikalische Bedrohungen.

Individuelle Beratung, universelles Konzept

Die wachsenden Anforderungen an Flexibilität und Verfügbarkeit in kleinen und mittleren Unternehmen stellen viele vorhandene Infrastrukturkonzepte in Frage. Feste Raumkonzepte, starre Kapazitäten und unzureichende Klimatisierungslösungen gefährden häufig unbemerkt die Wettbewerbsfähigkeit. Zeitgemäße Lösungen erfordern hingegen eine individuelle Beratung und universelle Konzepte, die eine bedarfsgerechte Anpassung der Leistungs- und Kühlungskapazitäten sowie der Managements- und Sicherheitsmerkmale gestattet. Anbieter mit Beratungskompetenz sowie modularen, integrierten und skalierbaren Lösungen bieten dabei den größten Nutzen bei zugleich geringen TCO und einer hohen Investitionssicherheit.

*Autor Michael Schumacher ist Technischer Leiter bei APC-MGE Deustchland.