Die Pläne von EMC, Pivotal und VMware

Die Zukunft der Virtualisierung

21.05.2013
Von Hartmut  Wiehr

SDDC ist für Forrester die angemessene Antwort auf eine kaum noch beherrschbare Komplexität in den Rechenzentren und Generationen von Silo-Implementationen, unvollständigen Virtualisierungsanstrengungen und einem Wirrwarr von Management-Tools. In dem Maße, wie verfeinerte Virtualisierungs-Tools, SDNs und Converged-Infrastructure-Stacks Eingang in die Rechenzentren finden, eröffne sich die Chance, die Infrastruktur der Rechenzentren neu zu modellieren. Der Begriff "Software Defined Data Center" (SDDC) vereint dann nach Forrester-Angaben nichts weniger als alle Anstrengungen, "gewachsene" Legacy-Strukturen, Cloud Computing und neue I/O-Ansätze in eine gemeinsame Management-Ebene zu überführen.

Der lange Weg zur Virtualisierung

Folgt man dieser Forrester-Begriffsbestimmung, dann wird auch klar, dass SDDC keineswegs bedeutet, die alten Rechenzentren wegzuwerfen und durch neue auf Software-Basis zu ersetzen. Stattdessen geht es eher darum, neue Rahmenbedingungen und Tools zu finden, um das klassische Inventar von Rechenzentren auf neue Art zusammenzuhalten. Server bleiben Server, Festplatten bleiben Festplatten, Netzwerke dienen mit ihrer physischen Basis dem Datentransport und so weiter. Gelsinger hat es, wie zitiert, so beschrieben: "Alle Infrastruktur ist virtualisiert und wird als Service geliefert."

Auf der Storage-Ebene soll es zum Beispiel vermehrt darum gehen, Management-Funktionen von der Hardware zu entkoppeln, heterogene Speicherumgebungen in Pools zusammenzufassen und geographisch verteilt skalieren zu können. Im Idealfall hieße das, eigene Schnittstellen für die Arrays der Konkurrenz zu öffnen und den Weg zu Commodity-Produkten zu ebnen. Manche von diesen hehren Zielen schwirren schon seit einiger durch die Storage-Welt, an der Umsetzung hat es aber fast immer gehapert, weil kein Hersteller bereit war und ist, den eigenen proprietären Ansatz aufzugeben. Software Defined Storage würde in der Konsequenz bedeuten, sich als Hersteller von der eigenen existierenden Storage-Technologie zu befreien – und sogar bereit zu sein, weniger eigene Hardware zu verkaufen.

So sieht das virtualisierte Rechenzentrum in den Augen von Forrester aus: Management und Service dominieren die physikalische Basis.
So sieht das virtualisierte Rechenzentrum in den Augen von Forrester aus: Management und Service dominieren die physikalische Basis.
Foto: Forrester

Ob EMC, HP oder IBM dazu in der Zukunft bereit sein werden, ist durchaus anzuzweifeln. EMC immerhin hat jüngst mit "ViPR" einen neuen Vorstoß in Richtung offene Speicher-Infrastruktur vorgenommen. Man entwickelt mit ViPR einen Software-Layer für Storage-Arrays, mit dem alle Speicherprodukte verschiedener Hersteller sowie Commodity-Produkte über offene APIs in eine gemeinsame Infrastruktur überführt werden könnten. Dies soll besonders für Unternehmen und Service Provider interessant sein, die an einer Cloud-Zukunft arbeiten und dabei ihre bestehenden Gerätschaften mitnehmen wollen. Bestehende Ansätze für virtuelle Storage-Pools, die es zum Beispiel von HDS oder IBM gibt, waren immer Hersteller-zentriert und nicht generell offen. Lediglich von DataCore gibt es einen Software-Ansatz, mit dem Geräte unterschiedlicher Provenienz virtualisiert werden können.

Forrester-Mann Fichera spricht von einer langanhaltenden Suche in der Welt der Computer-Technologie, die Abstraktion von den tiefer liegenden Ressourcen in den Rechenzentren zu verbessern. Diese seien zwar immer sehr mächtig gewesen, aber nie anwenderfreundlich und einfach zu nutzen.
Als Beispiele für Abstraktionen nennt er die Entwicklung von rohen Maschinen- zu Assembly-Programmiersprachen oder von Datenverarbeitung vom Batch- zum Time-Sharing-Verfahren. Mit Virtualisierung – bereits üblich ab Ende der 60er bis Anfang der 70er Jahre in Mainframe- oder Unix-Umgebungen – gelang schließlich ein weiterer, wichtiger Schritt in der Abstraktion von den physikalischen Ressourcen. Fichera schreibt: "Und ab Mitte der 70er Jahre verwandelten Multi-User-Betriebssysteme, Virtualisierung und erste Software-Defined-Netzwerke den Computer in eine Umgebung, in der Programmierer mit durchschnittlichen Fähigkeiten und wenig Verständnis von der darunter liegenden Hardware effektive Anwendungen für Business-Probleme entwickeln konnten."

Zur Startseite