Sieben Wege zum effizienten RZ

Die Top-Trends im Data Center

Ariane Rüdiger ist freie Autorin und lebt in München.

Trend 6: Die Datenberge wachsen weiter

Während Sicherheits- und Energieprobleme lösbar scheinen, ist gegen die Daten- und Applikationsflut anscheinend kein Kraut gewachsen. Beides lässt die IT trotz beachtlicher Effizienzgewinne ständig weiter wachsen. So wird sich der mobile Datenverkehr nach Zahlen von Cisco bis 2015 jedes Jahr nahezu verdoppeln. Ein Grund dafür, so Andrew Harrison, Direktor beim RZ-Beratungsunternehmen Arup, sei fehlende Effizienz. Das Problem beginnt aus seiner Sicht schon bei den Entscheidungen darüber, welche Daten überhaupt gespeichert werden, welche Anwendungen nötig sind und wie effizient im Sinne einer Code-Optimierung diese programmiert werden. „Hier muss unbedingt etwas passieren“, fordert er. Bessere Kühlsysteme oder schnellere Rechner könnten unsinnige Entscheidungen in diesem Bereich nicht kompensieren.

Doch bis dahin ist der Weg wohl noch weit. Vorerst bemühen sich Server- und Speicherhersteller, die Datenmassen möglichst Platz sparend zu verarbeiten und wegzuspeichern. Wichtige, sich inzwischen rasant verbreitende Technologien sind beim Speichern Thin Provisioning, Data Deduplication und Tiering. Die Anbieter dieser innovativen Speichertechniken sind größtenteils schon wieder den Imperien der großen Anbieter einverleibt, was das Marketing dafür vereinfacht. So verspricht HP den Nutzern seiner 3Par-Systeme eine glatte Halbierung des Speicherbedarfs. Und EMC reklamiert mit IQ 108NL Scale-Out NAS auf Basis von Isilon-Technologie das größte Dateisystem der Welt für sich.

Die eigentliche Herausforderung besteht nicht in der Speicherung, sondern darin, spezifische Informationen zu finden. Ein Beispiel für neue Ansätze im Bereich der Datenverwaltung und -analyse ist Apache Hadoop, ein Open-Source-Framework zur Verwaltung großer, verteilter Datenbestände. Sowohl EMC als auch Netapp wollen noch in diesem Jahr Lösungen auf Basis der Technologie anbieten. Große Datenmengen lassen sich mit Hadoop so aufgliedern, dass sie von verteilten Computern bearbeitet werden können.

Bei den Servern geht alles wie üblich in Richtung schneller, höher, weiter. Allerdings werden Leistungssteigerungen mittlerweile durch Multicore-Architekturen statt durch schnellere Taktung erreicht. Intel-CPUs dominieren in den meisten Server-Systemen, aber auch AMD-Prozessoren sind häufig anzutreffen. Allerdings könnte sich das durchaus ändern. Denn Newcomer wie Calxeda versuchen es mit ganz neuen Ansätzen: Calxeda beispielsweise setzt auf die ARM-Prozessorplattform – mit erstaunlichen Resultaten: Ein voll bestücktes Rack fasst 9600 ARM-Prozessorknoten, hat mehr als 20 TBit breite interne Verbindungswege und leistet pro Watt vier- bis sechs Mal so viel wie ein gleich großes Rack, das mit Intel-Atom-Rechnern bestückt ist.

Zur Startseite