Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

11.07.2007

Wie viel Hochverfügbarkeit brauchen SMB-Unternehmen?

Michael Schumacher,
Die Debatte um den Klimaschutz und steigende Strompreise lassen den Energieverbrauch zu einer unternehmenskritischen Größe werden. Grund genug für SMB-Unter- nehmen, sich zu diesem Thema Gedanken zu machen.

Klimaschutz und Strompreise werden in immer mehr Unternehmen diskutiert, denn der Energieverbrauch wird zur erfolgskritischen Größe. Laut Gartner hat sich der Stromverbrauch für Server im Zeitraum von 2000 bis 2005 verdoppelt. Allein auf die Server in den USA entfallen demnach 0,6 Prozent des weltweiten Energiebedarfs. Und so rückt die Datencenter-Effizienz zunehmend ins Visier der CIOs. Um hier Verbesserungen zu erzielen, können und müssen die IT-Manager an mehreren Schrauben drehen. Neben operativen Maßnahmen, wie dem Ablösen alter IT-Systeme, einem effizienteren Betrieb der Hardware oder der Migration auf Energie sparende Computing-Plattformen versprechen vor allem planungsbezogene Maßnahmen Erfolg.

Einflüsse auf die Verfügbarkeit

Prinzipiell gilt, dass jedes Unternehmen spezifische Anforderungen an die IT-Verfügbarkeit hat, die sich zum einen aus geschäftlichen Anforderungen zu Partnern, Kunden und Lieferanten, zum anderen aus gesetzlichen Anforderungen (etwa transparente Bilanzierung, Langzeitarchivierung, elektronische Lesbarkeit, Datensicherheit, -schutz und -kompatibilität etc.) ergeben. Maßgebliche Größe zur Bestimmung der Verfügbarkeit sind die Höhe der Ausfall- und Folgekosten, die durch Downtimes, das heißt die Nichtverfügbarkeit bestimmter Dienste, entstehen. Fatalerweise werden diese Informationen im Mittelstand kaum erfasst. Besonders wenig Beachtung finden indirekte Folgekosten durch Haftungsrisiken oder Imageschäden wie zum Beispiel der Verlust der Glaubwürdigkeit und Zuverlässigkeit gegenüber Partnern und Kunden. Die Entwicklung einer geeigneten Verfügbarkeitsstrategie erfordert deshalb einen kompetenten Berater, der dabei hilft, wirklich alle mit einem potenziellen Ausfall zusammenhängenden Gefahren und Schadenspotenziale zu ermitteln (siehe Grafik auf der gegenüberliegenden Seite).

Verteilte physikalische Bedrohungen

Bedrohungen für die Servicequalität innerhalb der IT-Infrastruktur sind entweder digitaler oder physikalischer Natur. Während digitale Bedrohungen (Hackerangriffe, Virenattacken etc.) auf der Netzwerkebene wirken, setzen die physikalischen Bedrohungen an der Basis der Datencenter-Absicherung an. Zu ihnen zählen sowohl äußere Sicherheitsbedrohungen wie Diebstahl, Spionage, Sabotage oder Feuer als auch infrastrukturelle bzw. technische Bedrohungen. Die Absicherung dieser sogenannten verteilten physikalischen Bedrohungen erfolgt einerseits durch integrierte Sensoren innerhalb der Einzelkomponenten wie USV-Module oder Kühlungseinheiten, andererseits durch zusätzliche Sensoren, die innerhalb des Datencenters platziert werden.

Eine zunehmende Aufmerksamkeit erfährt das Thema Kühlung. Die lokale Überhitzung des Datencenters zählt zu den am häufigsten unterschätzten Verfügbarkeitsrisiken. Dies gilt insbesondere in dicht gepackten 19-Zoll-Schränken. Die Substitution älterer Server durch raumoptimierte Modelle und die dichtere Bestückung der Racks bewirken eine immer stärkere Abwärmekonzentration in den Racks und Server-Räumen.

Dieser Trend wird durch das unablässig steigende Datenaufkommen noch verstärkt. Bis zum Jahr 2010 werden weltweit 35 Millionen Server in Betrieb sein, prognostiziert das Marktforschungsunternehmen IDC. Zum heutigen Zeitpunkt werden bereits 24 Millionen Server genutzt.

Wo vor zehn Jahren noch sieben Server pro Rack untergebracht waren, drängen sich inzwischen 20 oder mehr. Bis 2007 soll bereits jeder dritte ausgelieferte Server ein Blade-Server sein. Der anhaltende Server-Konsolidierungs-Trend katapultiert die erforderliche Kühlleistung mühelos auf über 20 kW gegenüber den bislang üblichen Werten von etwa 2 bis 5 kW. Da traditionelle Klimaanlagen mit diesen Anforderungen nicht mehr Schritt halten und die Verfügbarkeit oftmals völlig unbemerkt aufs Spiel setzen, erfahren integrierte Kühlungsarchitekturen eine immer stärkere Nachfrage.

Ein anschauliches Beispiel liefert das InfraStruXure-High-Density-Konzept des Herstellers APC. Die modular aufgebaute Lösung zeichnet sich durch eine klare räumliche Aufstellung der Racks nach dem Prinzip "heißer Gang - kalter Gang" aus und sorgt in Verbindung mit integrierten Klimaeinheiten für die getrennte Abführung der warmen Abluft und Wiederzuführung der abgekühlten Kaltluft zu den IT-Geräten. In Verbindung mit Luftleitsystemen lassen sich somit Raum-im-Raum-Konzepte für höchste Kühlleistungen - mit oder ohne Doppelboden - realisieren. Solche in sich geschlossenen Systeme eignen sich gleichsam für weitere Absicherungsmaßnahmen gegen andere physikalische Bedrohungen.

Individuelle Beratung, universelles Konzept

Die wachsenden Anforderungen an Flexibilität und Verfügbarkeit in kleinen und mittleren Unternehmen stellen viele vorhandene Infrastrukturkonzepte in Frage. Feste Raumkonzepte, starre Kapazitäten und unzureichende Klimatisierungslösungen gefährden häufig unbemerkt die Wettbewerbsfähigkeit.

Zeitgemäße Lösungen erfordern hingegen eine individuelle Beratung und universelle Konzepte, die eine bedarfsgerechte Anpassung der Leistungs- und Kühlungskapazitäten sowie der Managements- und Sicherheitsmerkmale gestattet. Anbieter mit Beratungskompetenz sowie modularen, integrierten und skalierbaren Lösungen bieten dabei den größten Nutzen bei zugleich geringen TCO und einer hohen Investitionssicherheit.