Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

24.05.2007

Die Kostentreiber im Rechenzentrum

Energieeffizienz und Klimatisierung sind auf absehbare Zeit die größten Probleme im Rechenzentrum. Das zeigte die COMPUTERWOCHE-Konferenz "Datacenter Up-to-date", die in Frankfurt am Main stattfand.

Von Wolfgang Miedl*

RZ-Trends in Zahlen

2010 werden 41 Millionen physikalische Server installiert sein – und damit sieben Mal mehr als 1995;

angesichts einer durchschnittlichen Serverauslastung von unter zehn Prozent ist weltweit eine überschüssige Kapazität von 140 Milliarden Dollar installiert;

beim Bau eines neuen Rechenzentrums kostet ein Rack derzeit ca. 40 000 Dollar, ein Server durchschnittlich 2400 Dollar;

2010 werden 20 Milliarden Dollar für Server-Virtualisierung ausgegeben, was einer Steigerung von 68 Prozent gegenüber 2005 entspricht;

jedem investierten Dollar in neue IT-Infrastruktur stehen acht Dollar Ausgaben für die Wartung der bestehenden IT gegenüber;

jeder für Server ausgegebene Dollar zieht 50 Cent Kosten für Strom und Kühlung nach sich, 2010 steigt dieser Wert auf 70 Cent;

29 Milliarden Dollar werden jährlich für die Stromversorgung von Server und Klimatisierung ausgegeben.

Quelle: IDC

Anwender betreiben heute weit mehr Server als vor vier Jahren, befassen sich gleichzeitig aber zumeist intensiv mit den Themen physikalische Konsolidierung und Virtualisierung – auf diesen scheinbar widersprüchlichen Trend wies Thomas Meyer, Vice President EMEA bei IDC, in seinem Eingangsvortrag hin. Aufgrund immer leistungsfähigerer, größerer Multicore-Maschinen werde die Zahl der verkauften Server kaum noch steigen. Trotzdem könnten die Hersteller angesichts steigender Preise für die immer leistungsfähigeren Maschinen weiter steigende Umsätze erzielen.

Sprachen durch Virtualisierung

Dennoch erhoffen sich die Anwender spürbare Kosteneinsparungen durch den Einsatz von Virtualisierungstechniken, wie eine Umfrage zu den Top-drei-Motiven für Server-Virtualisierung ergab. Zwei Drittel der Befragten nannten die Kostenreduktion als Hauptmotiv, gefolgt von "Management und Wartung" mit 30,4 Prozent. Meyer kam darüber hinaus auch auf die Hemmnisse beim zukünftigen Ausbau von Rechenzentren zu sprechen. In erster Linie sorgten Stromversorgung und Kühlung für Probleme. Drei Punkte hob er hier besonders hervor:

Die von den Energieversorgern bereitgestellte Versorgungskapazität begrenzt oft die maximal installierbare Zahl an Servern. Für große Betreiber kann das geschäftliche Beeinträchtigungen zur Folge haben.

Viele Rechenzentren sind nicht mit "Best Practices" vertraut und wissen nicht, wie sie den Betrieb unter Gesichtspunkten der Energieeffizienz optimieren könnten.

Beim Einsatz von Blades verschärfen sich Klimatisierungs- und Stromprobleme. Doch auch der Einsatz von Rack-optimierten Räumen sowie neue Trends bei Storage, PCs und Notebooks können die Schwierigkeiten vergrößern.

Was RZs teuer macht

Meyer führte aus, wie sich die Betriebskosten in Rechenzentren zusammensetzen: Wartung und Administration schlagen demnach mit rund zwei Drittel der Kosten zu Buche, Strom nimmt derzeit schon einen Anteil von 13 Prozent ein, gefolgt von zehn Prozent für Sicherheitspersonal und vier Prozent für Miete.

Dass auch die Speichertechnik einen nicht zu unterschätzenden Anteil an den laufenden Kosten ausmacht, legte der Analyst und Storage-Experte Norbert Deuschle dar. Er stellte die Energiebilanz in den Mittelpunkt seinen Vortrags "Disk versus Tape" und wies in einer Beispielrechnung nach, das Festplatten-basierende Archivsysteme gravierende Kostennachteile gegenüber Bandspeicher-Medien haben. Deuschle legte dabei einen 100 TB Fixed-Content-Archivspeicher mit konservativen 30 Prozent Datenwachstum und 8760 Betriebsstunden jährlich zugrunde. Schon bei den Investitionskosten schlägt nach den Ausführungen des Analysten die Bandtechnik mit 170 000 Euro die Plattentechnik (730 000 Euro) um Längen (0,48 Euro pro Gigabyte versus 1,78 Euro pro GB).

SATA-Arrays sind Stromfresser

Noch gravierender fallen die Unterschiede bei den Energie- und Klimatisierungskosten aus. Die LTO-3-Bibliothek verursacht laut Deuschle jährliche Energiekosten von 4430 Euro, was einem Anteil von 8,5 Prozent der Investitionskosten über drei Jahre entspricht. Beim SATA-Array hingegen schlägt der Strom pro Jahr mit sage und schreibe 82 000 Euro zu Buche, was über drei Jahre gerechnet 35 Prozent der Investitionskosten ausmacht. Unterm Strich fallen für SATA-Plattensysteme die 25-fachen Energiekosten gegenüber einem LTO-3-Tapesystem an. Der Kaufpreis liegt beim Vierfachen eines vergleichbaren Bandarchivs.

Aufgrund dieser gravierenden Kostendifferenzen hält Deuschle es für möglich, dass Band- und optische Laufwerke zur Archivierung eine Renaissance erfahren, nachdem plattenbasierende Lösungen seit einiger Zeit den Markt dominieren. Weitere wichtige Trends auf dem Storage-Sektor seien Virtualisierung, Daten-De-Duplikation und File Area Networks. Bei der Daten-De-Duplikation handelt es sich um ein Verfahren zur Speicherplatz-Reduktion, das deutlich effizienter arbeitet als eine herkömmliche Datenkompression und dabei eine Datenverringerung im Verhältnis von 20 zu 1 bis 50 zu1 verspricht. File Area Networks ziehen eine neue Abstraktionsebene in Speicherarchitekturen ein und ermöglichen eine effizientere Speicherung von Unternehmensdaten.

Über ein großes RZ-Konsolidierungsprojekt berichtete Gero Eichmüller, der als Storage Architekt bei Vattenfall Europe Information Services arbeitet. Die IT-Tochter von Deutschlands drittgrößtem Energieversorger, der Vattenfall Europe AG, stand nach dem Zusammenschluss von vier regionalen Versorgungsunternehmen 2003 vor der schwierigen Aufgabe einer Fusion. Bis dato verfügten die vier IT-Abteilungen über eigene RZ-Strategien und Lösungen für überwiegend identische Services. Das Know-how war verteilt, und die IT kämpfte mit einem enormen Wachstum im Bereich unstrukturierter Daten wie E-Mails und File-Services.

Zu den globalen Zielen des Projekts zählte Eichmüller die Konsolidierung der sechs Datacenter und ihrer Lösungen, die Reduzierung der Betriebskosten um 70 Prozent sowie die Verbesserung der IT-Dienste im Benchmark-Vergleich. Erreicht werden sollten diese Ziele, indem zunächst eine redundante Netzinfrastruktur nebst einer flexiblen Data-Center-Architektur aufzubauen war. Weitere Maßnahmen bestanden in der Standardisierung von Hardware, Software und IT-Services sowie in der Homogenisierung und Verringerung der Storage Area Networks.

Weniger RZ-Standorte

Eichmüller unterstrich insbesondere die Bedeutung der neuen File-Service-Infrastruktur, die mit Hilfe von Netapp-Speichersystemen realisiert wurde. Alle Mitarbeiter arbeiten nun an datenlosen Clients. Alle E-Mail- und Office-Daten sowie Windows-Profile werden an einem der insgesamt 22 File-Service-Standorte vorgehalten. Dank der Einführung eines unternehmensweiten virtuellen Dateisystems können nun die Mitarbeiter einerseits standortunabhängig arbeiten und von sicheren, schnellen BAckups und einem praktisch ausfallsicheren Zugriff auf die Daten- und Anwendungsumgebung profitieren.

Im Juni wird die Migration abgeschlossen sein, und zu den wichtigsten Erfolgen zählt Eichmüller die Verringerung der RZ-Standorte, die Reduzierung der Kosten - auch für die Kunden - sowie einen hohen Grad an Standardisierung. Geplant ist zukünftig eine Ausweitung der Maßnahmen auf den gesamten Konzern in den Ländern Schweden, Polen, Finnland und Dänemark sowie ein späterer länderübergreifender Betrieb.

In einem weiteren Vortrag skizzierte Thomas Tauer, Direktor Site and Facility Services bei IBM, Möglichkeiten, um die Energieeffizienz im Rechenzentrum zu steigern. Anhand von anschaulichen Wärmebild-Animationen demonstrierte er, wie sich mit Hilfe einer optimierten Server-Reihenfolge im Rack der Luftstrom verbessern und der Klimatisierungsaufwand senken lässt. Im schlechtesten Fall betrug die Temperatur eines Blade-Servers 27 Grad, nach einer berechneten Umstellung sank sie auf 18 Grad. Tauer empfahl über die Klimatisierungsverbesserung hinaus, Strom sparende Hardwarekomponenten zu benutzen.