Sieben Wege zum effizienten RZ

Die Top-Trends im Data Center

02.12.2011 von Ariane Rüdiger
Neue Servicemodelle wie Cloud Computing und der Druck, IT-Ressourcen effizienter zu nutzen, verändern das Rechenzentrum grundlegend.
Foto: Fotolia / Andres Rodriguez

Neue Servicemodelle wie Cloud Computing und der Druck, IT-Ressourcen effizienter zu nutzen, verändern das Rechenzentrum grundlegend.
von Ariane Rüdiger (freie Journalistin in München)
Netzwerke und Rechenzentren werden in einigen Jahren das Rückgrat der globalen gesellschaftlichen, wirtschaftlichen und politischen Infrastruktur bilden“, prognostizierte Aaron Davis, Marketingchef beim Energiemanagement-Spezialisten Schneider Electric auf der Kongressmesse Datacenter 2011 in Nizza. Schon heute verursache die IT rund zwei Prozent des weltweit erzeugten Kohlendioxids; in einigen Jahren könnten es bis zu 20 Prozent sein. „Diese Verantwortung muss die Branche verstehen und ihr auch gerecht werden“, forderte der Manager.

Die Konsequenzen für das RZ heißen: Automatisierung, Globalisierung, Modularisierung und Ökologisierung. Zu den Gewinnern dieser Entwicklung gehören die Betreiber der großen Dienstleistungs-Rechenzentren, Verlierer sind oft die IT-Organisationen in Anwenderfirmen. Denn gerade kleine und mittlere Unternehmen, da waren sich zumindest in Nizza die meisten Experten einig, werden schon aus finanziellen Gründen mittelfristig den Verlockungen eines serviceorientierten IT-Modells, sprich Cloud Computing, nachgeben.

Trend 1: Von der Private zur Public Cloud

„Private Clouds werden oft genug nur ein Übergang zur mindestens teilweisen Nutzung von Public-Cloud-Infrastrukturen sein“, erwartet Peter Edwards, Associate Director beim Beratungsunternehmen Arup. Das passt zu den Prognosen von IBMs Cheftechnologen Gunter Dueck: „Irgendwann werden die Controller anfangen, die Kosten des internen RZ mit denen von externen RZ-Dienstleistern zu vergleichen.“ Dieser Vergleich werde sehr häufig zu Ungunsten der internen Lösung ausgehen. Oder, wie es Fujitsu-CTO Joseph Reger vor BS2000-Kunden in Dresden formulierte: „Die IT verschwindet in den Anwendungen.“
IT-Manager müssten deshalb genau die Bedürfnisse des Kerngeschäfts verstehen und sich an ihnen orientieren, fordert Marion Howard-Healy, Senior Consultant beim Beratungsunternehmen Broad Group. Oft genug werde das in Zukunft eine Make-or-buy-Entscheidung und dann die Suche nach dem passenden RZ-Dienstleister bedeuten. Healy: „Dazu braucht man eher betriebswirtschaftliche Kenntnisse.“
Wichtiger als bisher wird die geografischen Lage eines Rechenzentrums: Sie entscheidet über Strom- und Kühlkosten, die Anbindung ans Stromnetz und die Verfügbarkeit von Personal. Einige RZ-Dienstleister versuchen angesichts günstiger Arbeitskräfte und niedrigen Stromtarifen beispielsweise in Ost- oder Zentraleuropa zu punkten. Andere achten neben finanziellen Aspekten auch auf ökologische Faktoren und die eigene Sicherheit. Sie verteilen ihre Data Center möglichst in unterschiedlichen Zeit- und Klimazonen mit günstigen Kühlbedingungen und kohlendioxidarmer Stromerzeugung – Nordeuropa ist ein Beispiel für einen solche Standort.

Cloud Computing Checkliste
Cloud Computing Checkliste
Wenn Fachbereiche ohne Wissen der IT Cloud-Services beschaffen, entsteht früher oder später eine "Schatten-IT". Hier erfahren Sie, wie Sie die Datensicherheit im Unternehmen erhöhen und dieser Schatten-IT entgegenwirken können. Hierzu sollten die Verantwortung und Aufgaben der Cloud-Strategie, Unternehmensleitung und IT-Abteilung klar geregelt sein.
Die zentrale Cloud-Strategie …
legt fest, wie eine Private Cloud im Unternehmen organisiert wird.
Die zentrale Cloud-Strategie …
bestimmt, welche SaaS-Anwendungen aus der Public Cloud beziehbar sind.
Die zentrale Cloud-Strategie …
regelt, wie virtuelle Server in Public Clouds zu nutzen sind (Stichwort IaaS).
Die zentrale Cloud-Strategie …
definiert die Zuständigkeiten der Abteilungen bei der Bestellung von Cloud-Leistungen und Vertragsverhandlungen.
Die zentrale Cloud-Strategie …
enthält Vorgaben für Datenschutz und Datensicherheit bei der Cloud-Nutzung.
Die zentrale Cloud-Strategie …
untersagt den Mitarbeitern den eigenmächtigen Einsatz von Cloud-Services.
Die Unternehmensleitung muss …
IT-Richtlinie im Unternehmen erlassen und für die Umsetzung sorgen.
Die Unternehmensleitung muss …
das nötige Know-how zu Cloud-Verträgen im Unternehmen sicherstellen - durch Schulungen, Entwicklung von Standards und Musterregelungen.
Die Unternehmensleitung muss …
das Zusammenwirken der Abteilungen bei Vertragsverhandlungen koordinieren.
Die IT-Abteilung schließlich …
erarbeitet ein detailliertes Sicherheitskonzept für die Unternehmens-IT und prüft es laufend.
Die IT-Abteilung schließlich …
untersucht die Möglichkeiten zur Einbindung von Cloud-Services in Unter-nehmens-IT.
Die IT-Abteilung schließlich …
berät die Unternehmensleitung bei der Entwicklung der Cloud-Strategie und deren Umsetzung.
Die IT-Abteilung schließlich …
wirkt an Verhandlungen zu SaaS- und Cloud-Verträgen mit, prüft laufend deren Einhaltung, löst auftretende Probleme.
Die IT-Abteilung schließlich …
schult Mitarbeiter aller Abteilungen zu Datensicherheit.

Teaserbild Homepage Aufmacher: (c) zentilia_Fotolia
Teaserbild: Fotolia / Andres Rodriguez

Trend 2: Modularisierung

Ein weiterer wichtiger Trend im Data Center ist die Modularisierung: Infrastruktur soll im Idealfall nur dann implementiert und bezahlt werden, wenn sie wirklich jemand braucht. IT-Anwenderunternehmen können inzwischen aus einem breiten Angebot modularer RZ-Ansätze wählen. Colt stellte in Nizza beispielsweise fertig vorkonfigurierte Data-Center -Module in vier Größen zwischen 125 und 500 Quadratmeter vor. Jedes ist mit unterschiedlichen Redundanzniveaus und für unterschiedliche Stromlasten verfügbar und kann auch in fertigen Gebäuden montiert werden. Module unterschiedlicher Größe und Ausstattung lassen sich bedarfsgerecht zu Multi-Tier-Rechenzentren zusammensetzen. Die Stuttgarter M + W-Group plädiert sogar für ein Konzept, bei dem die Gebäudehülle erst der letzte, gegebenenfalls sogar verzichtbare Baustein des Rechenzentrums ist, ganz ähnlich auch das spanische Unternehmen AST Modular.

Die neue Pod-Lösung von HP soll einen PUE von 1,5 erreichen können
Foto: Colt

Gerade kommt von HP ein neuer „Eco-Pod“ auf den Markt, der einen PUE von 1,05 erreichen soll (PUE = Power Usage Effectiveness, Verhältnis der vom gesamten Rechenzentrum verbrauchten zu der von der IT verbrauchten Energie). Das HP-System besteht aus zwei 40-Fuß-Containern je einer Rechnerreihe, denen von außen Kaltluft zuströmt, und einem Zwischenelement, in dem sich der heiße Mittelgang befindet. Die Leistungsdichte soll 1,725 MW betragen, die Rackkapazität liegt bei 2200 Höheneinheiten, das sind bis 39 kW pro Rack. Weitere Beispiele für vorstrukturierte Lösungen sind Flexpod, eine Gemeinschaftsleistung von Cisco und Netapp oder Fujitsu/Microsofts Hyper-V-Lösung.

Aber auch Teilmodullösungen sind sinnvoll: Schneider Electric stellt mit EcoBreeze ein modulares RZ-Kühlsystem vor, das als primäres Kühlmedium Außenluft verwendet. Sie wird, wenn erforderlich, per Verdunstungskühlung auf niedrigere Temperatur gebracht. Die unterirdische Verrohrung wird vormontiert, die einzelnen Kühlmodule dann aufgestellt, wenn das Rechenzentrum sich allmählich füllt.

Trend 3: Automatisierung und Integration

Nach wie vor schreitet die Automatisierung im RZ fort und sorgt dafür, dass ein anderer Megatrend nur maßvoll Schaden anrichten kann: In den nächsten Jahren geht rund die Hälfte des geschulten RZ-Personals in Rente. Während Daten- und Kommunikationsvolumina ungebremst wachsen, müssen die anfallenden Aufgaben mit dem gleichen oder weniger Personal erledigt werden, da der Nachwuchs fehlt.
Nach der Virtualisierung von Standard-Servern folgt nun auch die „Hybridisierung“ der Mainframes, also ihre Öffnung für Standardtechnologien, wie sie beispielsweise Fujitsu in den neueren BS2000-Modellen praktiziert und in der schon geplanten SE-Serie fortsetzen wird. Die Techniken sollen das BS2000-Betriebssystem, virtualisierte Gastsysteme unter v2000, aber auch Systeme unter anderen Hypervisoren mit Intel-Hardware und Peripherie in einem System integrieren. Dieses wird dann von einem Breitband-Backplane und einem einheitlichen Management zusammengehalten. Ganz ähnlich macht es IBM bei seinen zBX-Systemen: Sie integrieren in z-Series-Mainframes einfach Blades mit Intel-Architektur. Damit wird das Host-System auch für andere Workloads geöffnet. Ob dies neue Kunden für den Mainframe gewinnt oder nur die alten bei der Stange hält, bleibt abzuwarten.

Mit herausziehbaren Trägern, die die Anschlüsse freilegen, will Corning beim Verkabeln von Glasfasern viel Zeit sparen
Foto: ad

Um das Arbeiten im RZ zu vereinfachen, gibt es neue Ideen: Das Stecken der zahlreichen Glasfaserverbindungen an Aggregations- Switches im RZ ist bisher sehr aufwändig und komplex. Hier soll ein neues System von Corning, LANScape Premium Edge, helfen. Die einzelnen Anschlüsse, in die Fasern eingebracht werden müssen, befinden sich auf einem beweglichen Träger, den man etwa zehn Zentimeter aus dem Chassis des Switch herausziehen kann. Dann liegen sie frei und lassen sich leicht bestücken. Corning spricht davon, dass sich durch die Methode der Zeitbedarf für diese Aufgabe um drei Viertel verringert.

Ein anderes Beispiel ist das Management der IT-Infrastrukturen und der RZ-Gebäude: Lange brauchte man nahezu für jeden einzelnen Systemtyp ein Programm, mit dem sich das entsprechende Gerät steuern lässt. Mittlerweile wachsen nicht nur die IT-Systeme im RZ managementtechnisch zusammen, sondern das Management der IT-Infrastruktur wird direkt gekoppelt mit dem der physikalischen Gebäude-Infrastruktur, also der Steuerung der Klima-, Kühl und anderer Systeme. Dies ist auch sinnvoll, denn so kann, wie das beispielsweise das RZ Marilyn in Paris tut, die Abwärme aus dem RZ genutzt werden, um angrenzende Büros zu heizen.

Mit seiner neuen Lösung DCIM (Datacenter Infrastructure Manager) integriert Emerson die Produkte von Avocent und Liebert unter ein Dach
Foto: Emerson

Zwei Beispiele von vielen für diesen Trend. Ganz neu ist Emersons Trellis DCIM (Datacenter Infrastructure Management), das die Produkte seiner Aufkäufe wie Avocent und Liebert endlich zu einer umfassenden Lösung integriert. Mit der Lösung lassen sich nun IT- und physikalische Infrastruktur des RZ gemeinsam verwalten. Die zahlreichen Module sind unabhängig voneinander einsetzbar.

Schneider Electric geht mit Ecostruxure noch weiter: Das modulare Programm vereint unter einem Dach das Energiemanagement, das Prozess- und Maschinenmanagement von Produktionsanlagen sowie das RZ-Management und das Gebäude- und Sicherheitsmanagement. Damit wird eine übergreifende Steuerung und Optimierung des Betriebsgeschehens auch unter energetischen Gesichtspunkten möglich.

Die 10 Schritte bei der RZ-Konsolidierung
Schritt 1: Bau und Ertüchtigungsplanung
Sollen ein beziehungsweise mehrere Rechenzentren migriert werden, gilt es zunächst, die richtige Örtlichkeit zu finden und eine nachhaltige Planung aufzusetzen.
Schritt 2: Inventarisierung der Hardware
Häufig unterschätzt wird bei einer RZ-Konsolidierung die Inventarisierung der Hardware.
Schritt 3: Applikationsanalyse und -abhängigkeiten
Aufwändiger noch als die Bestandsaufnahme der Hardware gestaltet sich in den meisten Fällen die Analyse der Applikationen. Die Frage lautet: Wo läuft was und wie gestalten sich die Verbindungen?
Schritt 4: Endkundenanalyse und -kommunikation
Rund die Hälfte der Aufgaben, die bei einer Konsolidierung mit gekoppeltem Umzug anfallen, betrifft die Kommunikation. Vor einer Migration gilt zu erfassen, welche Abteilungen welche Applikationen nutzen und die jeweiligen Ansprechpartner mit ins Boot zu holen.
Schritt 5: Changemanagement
Ein Konsolidierungsprozess läuft in den meisten Fällen nicht strikt nach Plan. Umso wichtiger ist ein kontinuierliches Changemanagement.
Schritt 6: Besiedelungsplanung
Sind die vorbereitenden Maßnahmen auf den Weg gebracht, muss die Besiedelung der RZ-Räumlichkeiten mit IT-Komponenten konzipiert und umgesetzt werden. Die Frage lautet: Wo werden welche Komponenten am sinnvollsten aufgebaut?
Schritt 7: Kopplung von Rechenzentren
Werden mehrere Rechenzentren verschiedener Standorte zusammengelegt, gilt es bestehende Kopplungsleitungen zu überprüfen, gegebenenfalls neue Leitungen zu beantragen, diese zeitlich zu terminieren und ihre Qualität sicherzustellen.
Schritt 8: Risikomanagement
Risikomanagement ist neben dem Changemanagement einer der permanent laufenden Prozesse im Zuge einer RZ-Konsolidierung.
Schritt 9: Migrationsplanung
Wenn Inventarisierung, Analyse und Konzeption stehen, heißt es, konkrete Migrationsgruppen zusammenzufassen und den phasenweisen Umzug zu planen.
Schritt 10: Qualitätssicherung
Durch eine laufende Qualitätssicherung und Kontrolle muss während des gesamten Prozesses sichergestellt werden, dass der Übergang gefahrlos abläuft und die jeweiligen Services zum vereinbaren Zeitpunkt wieder zur Verfügung stehen.

Trend 4: RZ-Sicherheit – ein lösbares Problem

Die Sicherheit ist noch immer ein neuralgischer Punkt beim Übergang zu dienstleistungsorientierten RZ-Modellen. Wer RZ-Leistung an Kunden verkauft, muss garantieren können, dass mit ihren Daten kein Schindluder getrieben wird. Allerdings ist die Branche entgegen der sich jüngst häufenden Skandale davon überzeugt, das Problem lösen zu können.

Ganz ohne politische Anstrengungen wird das aber wohl nicht funktionieren. „Wir brauchen dringend eine mindestens EU-weite Harmonisierung der Sicherheitsrichtlinien“, fordert beispielsweise der auf IT-Recht spezialisierte italienische Anwalt Rocco Panetta.

Wege zu mehr technischer Sicherheit gibt es viele. So arbeiten Netzriesen wie Cisco und Juniper schon länger daran, Infrastrukturelemente so zu gestalten, dass erst gar keine Malware Daten oder Rechner erreicht.

Doch oft ist der Mensch der eigentliche Schadensurheber – sei es nun aus Böswilligkeit oder Schlamperei. Auch dagegen ist ein Kraut gewachsen. Elektrisch fernsteuerbare Schrankschlösser von TZ Infrastructure Protection am Schaltschrank helfen weiter, wenn man nicht an jedem RZ-Standort entsprechendes Personal vorhalten kann. Jeder Schrank erhält zwei Schlösser – je eins für Vorder- und Hintertür das den Handhebel ersetzt. Jedes Schloss kommt mit zwei Temperatursensoren, die messen, wenn der Schrank überhitzt. Alle Schlösser eines Unternehmens – auch Schränke in mehreren RZ - lassen sich von einem zentralen Punkt nach Regeln steuern, auch wenn kein Mitarbeiter vor Ort ist. Über ein RFID-Modul im Schrank und eine Kennkarte können berechtigte Mitarbeiter aber auch vor Ort den Schrank öffnen. Das Schloss protokolliert zudem Zugriffsversuche Unberechtigter.

Trend 5: Standards und Messbarkeit

Die Qualität von RZs oder Cloud-Services lässt sich in in Zukunft auch an Zertifikaten ablesen. Das ist nicht nur für reinrassige Dienstleister interessant, sondern auch dann, wenn Unternehmen erst allmählich ihre Rechenleistung auch Dritten zugänglich machen wollen. Eine Zertifizierung mit ein bis fünf Sternen (beste Note) plant beispielsweise der deutsche Zweig des europaweiten Verbandes der Cloud-Anbieter, EuroCloud Deutschland eco e.V. Dabei werden neben der RZ-Technik auch Kriterien wie Sicherheit oder Vertragsgestaltung geprüft. „EuroCloud will vor allem Vertrauen für die Cloud-Technologie aufbauen“, sagt Bernd Becker, Vorsitzender des deutschen Zweigs und zweiter Vorsitzender des europäischen Verbandes. Damit wird man angesichts der jüngsten Pannen wohl allerhand zu tun haben.

Auch hinsichtlich ihres Energieverbrauchs werden RZs vergleichbarer, das ist nun kein Exotenthema mehr. Denn sobald Kunden für den verbrauchten Strom direkt zahlen sollen, werden sie für verschwenderische Praktiken weniger Verständnis haben als bisher. Der französische RZ-Betreiber Celeste jedenfalls implementiert Strommesser an jedem Server-Steckplatz seines Kollokations-Rechenzentrums Marilyn in Paris und will seine Kunden für den Strom zur Kasse bitten. Wo das nicht geplant ist, zahlt der RZ-Betreiber selbst. Überflüssiger Stromverbrauch belastet dann direkt den Gewinn oder – bei internen RZ – die Kostenstelle. Lesen Sie hierzu auch den Artikel: "Wie Pioniere das RZ kühlen"

Die PUE (Power Usage Effectiveness, Verhältnis der vom gesamten Rechenzentrum verbrauchten zu der von der IT verbrauchten Energie) hat mittlerweile zahlreiche Verwandte: CUE für den Kohlendioxidausstoß pro kWh IT-Leistung, WUE für Wasserverbrauch pro kWh IT-Leistung und ERE für außerhalb des Rechenzentrums weiterverwendete Abfall-Energie, zum Beispiel Wärme. PUE als Messlatte für die Umweltqualität von RZ wurde inzwischen von hochrangigen US-, europäischen und japanischen Akteuren spezifiziert. Mittelfristig ist auch eine Standardisierung denkbar. Angestrebt wird heute bei RZ-Renovierungen ein PUE-Wert von 1,4. Bei Neubauten sind Werte unter 1,3 anscheinend ohne allzu große Verrenkungen erreichbar. Das durchschnittliche Alt-Rechenzentrum liegt dagegen bei PUEs über 2: Es braucht mehr Energie fürs Drumherum als für die Rechenprozesse.

Seit Neuestem propagiert The Green Grid das in Nizza vorgestellte DCMM (Data Center Maturity Model). Es bewertet unterschiedliche Bereiche wie Server, Storage, Netzwerke, Kühlung, Stromversorgung etc. separat anhand einer mehrstufigen Skala und vordefinierter Kriterien bezüglich ihrer „Reife“. Die Einzelbewertungen lassen sich dann zu einer Gesamtwertung verdichten. Auch DCMM soll international spezifiziert werden..

Trend 6: Die Datenberge wachsen weiter

Während Sicherheits- und Energieprobleme lösbar scheinen, ist gegen die Daten- und Applikationsflut anscheinend kein Kraut gewachsen. Beides lässt die IT trotz beachtlicher Effizienzgewinne ständig weiter wachsen. So wird sich der mobile Datenverkehr nach Zahlen von Cisco bis 2015 jedes Jahr nahezu verdoppeln. Ein Grund dafür, so Andrew Harrison, Direktor beim RZ-Beratungsunternehmen Arup, sei fehlende Effizienz. Das Problem beginnt aus seiner Sicht schon bei den Entscheidungen darüber, welche Daten überhaupt gespeichert werden, welche Anwendungen nötig sind und wie effizient im Sinne einer Code-Optimierung diese programmiert werden. „Hier muss unbedingt etwas passieren“, fordert er. Bessere Kühlsysteme oder schnellere Rechner könnten unsinnige Entscheidungen in diesem Bereich nicht kompensieren.

Doch bis dahin ist der Weg wohl noch weit. Vorerst bemühen sich Server- und Speicherhersteller, die Datenmassen möglichst Platz sparend zu verarbeiten und wegzuspeichern. Wichtige, sich inzwischen rasant verbreitende Technologien sind beim Speichern Thin Provisioning, Data Deduplication und Tiering. Die Anbieter dieser innovativen Speichertechniken sind größtenteils schon wieder den Imperien der großen Anbieter einverleibt, was das Marketing dafür vereinfacht. So verspricht HP den Nutzern seiner 3Par-Systeme eine glatte Halbierung des Speicherbedarfs. Und EMC reklamiert mit IQ 108NL Scale-Out NAS auf Basis von Isilon-Technologie das größte Dateisystem der Welt für sich.

Die eigentliche Herausforderung besteht nicht in der Speicherung, sondern darin, spezifische Informationen zu finden. Ein Beispiel für neue Ansätze im Bereich der Datenverwaltung und -analyse ist Apache Hadoop, ein Open-Source-Framework zur Verwaltung großer, verteilter Datenbestände. Sowohl EMC als auch Netapp wollen noch in diesem Jahr Lösungen auf Basis der Technologie anbieten. Große Datenmengen lassen sich mit Hadoop so aufgliedern, dass sie von verteilten Computern bearbeitet werden können.

Bei den Servern geht alles wie üblich in Richtung schneller, höher, weiter. Allerdings werden Leistungssteigerungen mittlerweile durch Multicore-Architekturen statt durch schnellere Taktung erreicht. Intel-CPUs dominieren in den meisten Server-Systemen, aber auch AMD-Prozessoren sind häufig anzutreffen. Allerdings könnte sich das durchaus ändern. Denn Newcomer wie Calxeda versuchen es mit ganz neuen Ansätzen: Calxeda beispielsweise setzt auf die ARM-Prozessorplattform – mit erstaunlichen Resultaten: Ein voll bestücktes Rack fasst 9600 ARM-Prozessorknoten, hat mehr als 20 TBit breite interne Verbindungswege und leistet pro Watt vier- bis sechs Mal so viel wie ein gleich großes Rack, das mit Intel-Atom-Rechnern bestückt ist.

Trend 7: Breite Wege, lange Strecken

Weil Daten und Anwendungen in virtualisierten Umgebungen wesentlich mehr als früher im und zwischen RZs verschoben werden, braucht man ausreichende, und das heißt, verglichen mit der 1-GBit/s-Welt vergangener Tage, mehr Bandbreite. Glasfaser wird deshalb in vielen Rechenzentren zum Maß der Dinge, wobei mancherorts auch schon 40-Gigabit-Komponenten eingesetzt werden. Das Marktvolumen für 10G, 40G und 100G-Transponder soll nach aktuellen Zahlen von Infonetics bis 2015 auf 2,8 Milliarden Dollar wachsen. Der Umsatz mit optischen Transceivern für 10G-Verbindungen legte 2010 um 160 Prozent zu, wird aber in Zukunft teilweise von kleineren Bauformen wie SFP kannibalisiert.

Im Dell-Server PowerEdge M915 sind die Schnittstellen unabhängig vom verwendeten Switch partitionierbar
Foto: Dell

Inzwischen offerieren viele Hersteller Produkte, die auf die neuen Cloud-tauglichen Rechenzentren zugeschnitten sind. Dell beispielsweise integriert in seine PowerEdge M915-Server eine Netzwerkkarte, deren Schnittstellen sich unabhängig vom Switch-Fabrikat partitionieren lassen – ein Schlag gegen HP und Cisco. Beide bieten ihren Kunden Partitionierungstechnologien an, die lediglich zu bestimmten Switches passen, um die Lösung aus einer Hand nahezulegen. HP wiederum, vor einiger Zeit durch den Aufkauf von 3Com im Netzwerkbereich verstärkt, präsentiert seine Architektur FlexNetwork, die RZ-, Campus- und Zweigstellennetz gemeinsam verwaltet und die Serverkommunikation über FlexFabric einbindet. Zentrale Komponente ist der Core-Switch HP A15000.

Mit einer 20 TBit breiten Backbone und bis zu 768 10-GBit/s-Ethernet-Schnittstellen kommt das Flaggschiff der Open-Fabric-Datacenter-Serie von Extreme Networks.
Foto: Extreme Networks

Auch Force10 verkündet mit Open Cloud Networking eine neue Offenheits-Strategie fürs RZ, die mit einer Reihe standardbasierender Komponenten unterfüttert wird. Bei Extreme Networks heißt die entsprechende Strategie Open Fabric Datacenter. Das Spitzenmodell Black Diamond x8 kommt mit einem 20-TBit-Chassis und unterstützt blockierungsfrei bis zu 768 10-GBit/s-Ethernet-Schnittstellen oder 192 Schnittstellen für 40 GBit/s-Ethernet. Weil Daten über weite Strecken fließen müssen, interessiert sich inzwischen auch EMC für WAN-Optimierung. Der Storage-Anbieter hat, passend zu VPLEX Geo, einer Lösung, die Daten unter einer Oberfläche auf mehrere geografisch verteilte Rechenzentren distribuiert, die Silverpeak-Appliance im Programm. Damit lassen sich unterschiedliche WAN-Optimierungstechniken umsetzen, die das Datenvolumen verringern und den Transport beschleunigen.

LSI, eigentlich eher als Storage-Hersteller bekannt, will drei seiner Produkte, den LSI Axxia Netzwerkbeschleuniger, den Axxia Medienbeschleuniger und die WarpDrive SLP-300 Solid-State Beschleunigerkarte, zu einer Lösung für die schnelle Content-Auslieferung kombinieren. Auch die Telekom-Provider halten breitere Verbindungen vor. Telefonica offeriert seinen Kunden mit Hermes einen eigenen Dienst für den schnellen Transport von Massendaten bis in den Petabytebereich.

Fazit – das RZ der Zukunft

Cloud und Effizienzprobleme treiben die Standardisierung, Automatisierung und Kalibrierung von Rechenzentren rasant voran. Hinzu kommen neue Techniken zur Modularisierung und Kühlung des Data Center. Experten sind sich einig, dass diese Faktoren sowohl unternehmensinterne interne als auch von Dienstleistern betriebene RZs grundlegend verändern werden.
(Dieser Beitrag wurde von Computerwoche, einer Schwesterpublikation von ChannelPartner, übernommen / rb)