Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.


17.10.2007

Große Wirkung dank kleiner Schritte

Die Effizienz von Datenzentren hängt stark von der Infrastruktur ab. Wer ihre Komponenten zu optimieren versteht, schafft Synergien mit ergänzenden Maßnahmen wie Server-Virtualisierung und -Standardisierung.
Die Effizienz eines Rechenzentrums errechnet sich dem Verhältnis von der Eingangsleistung der IT-Geräte zur gesamten Eingangsleistung des RZ.
Die Effizienz eines Rechenzentrums errechnet sich dem Verhältnis von der Eingangsleistung der IT-Geräte zur gesamten Eingangsleistung des RZ.
Kühlung, Stromversorgung und sonstige Infrastrukturgeräte benötigen doppelt so viel Energie wie die eigentliche IT.
Kühlung, Stromversorgung und sonstige Infrastrukturgeräte benötigen doppelt so viel Energie wie die eigentliche IT.
Sind die IT-Geräte nicht ausgelastet, verbraucht die Kühlung besonders viel Energie.
Sind die IT-Geräte nicht ausgelastet, verbraucht die Kühlung besonders viel Energie.

Die Debatte um Klimaschutz und steigende Strompreise lässt den Energieverbrauch zu einer unternehmenskritischen Größe werden. Laut Gartner hat sich der Stromverbrauch für Server im Zeitraum von 2000 bis 2005 verdoppelt. Allein auf die Server in den USA entfallen demnach 0,6 Prozent des weltweiten Energiebedarfs. So rückt die Steigerung der Energieeffizienz von Rechenzentren zunehmend ins Visier der technischen und kaufmännischen Entscheider. Zu den gängigen Maßnahmen zählen unter anderem das Ablösen alter IT-Systeme, die Standardisierung der Server-Landschaft, ein effizienterer Betrieb der Hardware durch Virtualisierung oder die Migration auf energiesparende Computing-Plattformen. Oftmals bleibt jedoch die Betrachtung der physikalischen IT-Infrastruktur außen vor, obgleich hier lohnende Sparpotenziale schlummern.

Hier lesen Sie ...

wer im Rechenzentrum die Stromfresser sind; mit welchen Methoden Energie gespart werden kann; wo im Rechenzentrum noch Einsparpotenzial zu finden ist.

Rein rechnerisch ergibt sich die Effizienz eines Rechenzentrums aus dem Verhältnis der Eingangsleistung der IT-Geräte (IT Power in) zur Eingangsleistung des Datencenters (Datacenter Power in). Je geringer der Stromverbrauch der physikalischen IT-Infrastruktur, desto höher wird bei gleich bleibender Eingangsleistung der für das IT-Equipment verbleibende Anteil der Netzleistung. In der Folge steigt auch die Rechenzentrumseffizienz entsprechend an (siehe Grafik "Datencenter-Effizienz"). Wie schlecht jedoch dieses Verhältnis in den meisten Fällen ist, zeigt sich darin, dass allein die Kühlung eines typischen Datencenters mehr Leistung verschlingt als das eigentliche IT-Equipment. Neben diesem größten Brocken gibt es aber noch weitere Einsparpotenziale, die entlang der Versorgungskette zu finden sind. Dazu zählen die Klimatisierung, die unterbrechungsfreie Stromversorgung (USV, engl.: UPS) und die Stromverteiler (Power Distribution Unit, PDU; siehe Grafik "Stromfluss im Rechenzentrum").

Schließlich besitzt auch das Management einen nicht zu vernachlässigenden Einfluss auf die Effizienz von Rechenzentren. Zusammenfassend lassen sich im Datencenter vier große Optimierungsbereiche definieren: Klima und Kühlung, unterbrechungsfreie Stromversorgung, Skalierbarkeit der Komponenten sowie Kapazitätsplanung und Management.

Stromfresser Klima und Kühlung

Die Kühlaggregate eines typischen hochsicheren Datencenters mit 2-n-Redundanz und n+1-redundanter Raumklimaanlage verbrauchen nach einer Untersuchung des Infrastrukturlösungsanbieters APC-MGE etwa ein Drittel der Eingangsleistung. Für eine separate Klimatisierung des Computerraumes (CRAC) fallen durchschnittlich weitere neun Prozent an, so dass für die optimale Temperatur insgesamt zirka 40 Prozent der Energie aufgewendet werden müssen. Das IT-Equipment nimmt entsprechend der typischen Auslastung von Datencentern etwa 30 Prozent der Stromleistung auf. Folgt man dem aktuellen Trend zur Server-Konsolidierung und lässt dabei die physikalische IT-Infrastruktur außer Betracht, verändert sich diese Relation weiter zu Ungunsten der nutzbaren Energie: Die höhere Leistungsdichte von Blade- und niedrigen Rack-Servern treibt die Abwärme je 19-Zoll-Gehäuse mühelos auf Werte von bis zu 20 Kilowatt. Um den Kühlungsbedarf zu drosseln und somit mehr Strom für das Equipment zur Verfügung zu stellen, verbreitern viele Anwender die Gänge zwischen den Schrankreihen. Das kann nur eine Behelfsmaßnahme für große Räume sein und versagt endgültig, wenn die Abwärme weiter steigt. Um die Energieeffizienz dauerhaft zu verbessern, hilft nur ein intelligentes und modular aufgebautes Kühlungskonzept.

Innerhalb der Schrankreihen kühlen statt breiter Gänge

Dabei setzt sich insbesondere das "In-Row-Cooling" durch. Solche Kühlungslösungen werden als eigenständige Gehäuse innerhalb der Schrankreihe platziert. Durch die Nähe zum IT-Equipment lassen sich zum einen höhere Leistungsdichten absichern, zum anderen reduziert sich auch die Stromaufnahme der Lüfter um bis zu 50 Prozent. Als Nebeneffekt machen solche Kühlungen in vielen Fällen auch eine separate Luftbefeuchtung beziehungsweise Wiederbefeuchtung überflüssig, was eine zusätzliche Energieersparnis von rund drei Prozent bringt. In Verbindung mit einem "Hot-Aisle-Containment"-System, das die warme Abluft der IT-Geräte in einem "heißen" Gang zwischen den Rack-Zeilen konzentriert, lassen sich so auch dicht gepackte Umgebungen mit bis zu 30 Kilowatt Wärmeleistung je Server-Rack bewältigen.

Ein weiterer Vorteil der Kühlung innerhalb der Rack-Reihen ist die gute Skalierbarkeit. Da die Aggregate in die Schrankzeilen integriert sind, können jederzeit zusätzliche Kühlgeräte hinzugefügt und so die Leistung erhöht werden. Nicht zuletzt profitieren kleinere Datencenter in engen räumlichen Verhältnissen von solch einer Kühlung, die eine effiziente Alternative zur konventionellen Raumklimatisierung darstellt und zudem ohne kostspielige Doppelbodenkonstruktionen auskommt.

Oft unterschätzt: die USV

Die unterbrechungsfreie Stromversorgung verbraucht im Mittelwert rund 18 Prozent der Netzleistung eines 2-n-redundanten Rechenzentrums. Moderne USV-Techniken begnügen sich mit weniger. Dies gilt insbesondere für Drei-Phasen-USV mit Doppelwandlertechnologie. Der verbesserte Konverter arbeitet darin etwa doppelt so effizient wie bei älteren USV-Anlagen. Dazu reduzieren sich die Leerlaufverluste im unausgelasteten Betrieb um bis zu 70 Prozent. Sehr effiziente USV-Modelle arbeiten sogar schon ab 30 Prozent Auslastung fast ohne Verluste. Weitere Effizienzsteigerungen ergeben sich aus einem modularen und integrierten Ansatz für die Stromversorgung, der das Rechenzentrum immer im optimalen Auslastungsgrad hält. Dieser liegt entgegen einer weit verbreiteten Ansicht nur theoretisch bei 100 Prozent! Moderne USV-Systeme erreichen die besten Wirkungsgrade und somit optimale Nutzung bei einer Auslastung von 75 bis 80 Prozent.

Skalierbarkeit der Komponenten

Die interne Redundanz solcher Konzepte trägt ihrerseits zur Datencenter-Effizienz bei: Um beispielsweise bei einer Kapazität von 160 Kilowatt eine einfache Redundanz zu erzielen, genügt statt einer zweiten USV mit nochmals 160 Kilowatt ein zusätzliches USV-Modul mit nur 16 Kilowatt Leistung.

Nicht nur bei der Dimensionierung der USV-Anlage gewinnt die Skalierbarkeit an Bedeutung. Im Hinblick auf eine bestmögliche Auslastung des Datencenters - nahe der Kapazitätsgrenze - muss die komplette Infrastruktur skalierbar sein, und zwar inklusive Kühlung. Hier kommt wieder der In-Row-Ansatz zum Tragen, denn die in die Server-Reihen integrierten Klimaschränke lassen sich ebenso schnell und einfach erweitern wie die IT-Racks. Laut Gartner wollen bereits 63 Prozent der befragten Datencenter-Manager die Kühlung innerhalb der kommenden zwei Jahre auf das In-Row-Konzept umstellen. Erst damit ist die physische Voraussetzung für gelungene Virtualisierungsprojekte geschaffen, die die Rechenkapazität der Server skalierbar und daher effizienter nutzbar machen sollen.

Just-in-time-Kapazität auch für das Rechenzentrum

Und es würde auch die immer noch gängige Praxis der Überdimensionierung beenden: Nach wie vor operieren Rechenzentren 65 bis 70 Prozent unterhalb ihrer Kapazitätsgrenze. Der Grund hierfür liegt gewöhnlich in der Absicht, einen Puffer für künftige Erweiterungen zu schaffen. Diese Praxis muss aber teuer bezahlt werden, denn die Verluste durch USV- und Kühlungskomponenten nehmen über das komplette Auslastungsspektrum hinweg zunächst exponentiell und dann erst linear ab: Je höher die Auslastung der IT-Systeme, desto höher auch die Effizienz von Kühlung und Stromversorgung (Grafik "Verluste je nach Auslastung").

Werden die IT-Ressourcen in bestehenden Rechenzentren durch Virtualisierung und Konsolidierung nachträglich optimiert, dann wird oft die Infrastruktur vergessen. Die auf Spitzenbelastung ausgelegten Strom- und Kühlkomponenten gelangen immer seltener an ihre volle Auslastung und machen wegen der hohen Verluste bei Unterauslastung nicht selten die Energiegewinne der IT-Systeme zunichte. Ein Tipp aus der Praxis: Um auch in Zeiten mit schwächerem Leistungsbedarf (zum Beispiel nachts) eine gute Auslastung zu erreichen, sollten diese Perioden beispielsweise für Backup-Schleifen genutzt werden.

Kapazitätsplanung und Management

Die Kapazitätsplanung kann ebenfalls einen Beitrag zur Effizienzsteigerung liefern, wenn sie beispielsweise dafür sorgt, die IT-Last bei gleich bleibender Strom- und Kühlungsleistung anzuheben. Dabei gilt es auch, ungenutzte Strom- und Kühlungskapazitäten zu vermeiden, die sich häufig aus spontanen Veränderungen an Equipment, Redundanzen oder Datencenter-Layout ergeben. Oft wird dabei versäumt, auch die Auswirkungen dieser Veränderungen zu berücksichtigen. Das nötige Change-Management lässt sich recht bequem und übersichtlich über spezifische Softwarelösungen abbilden. Die drei Grundelemente der physikalischen IT-Infrastruktur Datencenter-Design, Anwendung und Management lassen sich in einer gemeinsamen Plattform verbinden. Anbieter wie APC-MGE erklären, dass ihre Lösung zu jedem Zeitpunkt des Veränderungsprozesses die optimalen Standorte für einzelne Datencenter-Komponenten, etwa Server oder Netzequipment, bestimmt und ein herstellerunabhängiges Monitoring und Controlling der gesamten Versorgungskette inklusive USV, Stromverteiler und Kühlung betrieben werden kann. Nebenbei leisten solche Itil-konformen Hilfen auch einen wichtigen Beitrag zur Qualitätssicherung oder sogar zur Umsetzung von Umwelt- und Klimaschutzrichtlinien.

Fazit und Ausblick: Wohin geht die Reise?

Die konsequente Verbesserung der vier Bereiche Kühlung, USV, Skalierbarkeit sowie Planung und Management versetzt Unternehmen und Behörden in die Lage, ihre reale IT-Nutzung besser abzubilden und dadurch eine bestmögliche Auslastung zu erzielen: Auf diese Weise sind derzeit durchschnittlich 20 Prozent mehr Effizienz zu erzielen. Weil nächste USV-Generationen nur noch wenig Potenzial für Verbesserungen bieten, wird sich die zukünftige Entwicklungsarbeit verstärkt den High-Density-Lösungen widmen, die angesichts der laufenden Virtualisierungs- und Server-Konsolidierungswellen obligatorisch werden. Neben neuen Standards und der Echtzeitüberwachung wird vor allem auch die Rohstoffreduzierung ähnlich wichtig werden wie die aktuellen Effizienzbestrebungen. (kk)