Virtualisierung im SDDC

Der Weg ins Software Defined Data Center

10.03.2014 von Joachim Hackmann
2014 ist das Jahr, in dem Unternehmen sich dem Thema Software Defined Data Center (SDDC) zuwenden sollten. Die Technik zur einheitlichen, softwarebasierten Steuerung eines virtualisierten Rechenzentrum stehe vor der Reife, meinen US-Analysten.
Foto: rashevskyi viacheslav, Shutterstock.com

Mit dem Schlagwort Software Defined Data Center (SDDC) hat die Virtualisierungsdiskussion den Rechenzentrumsbetrieb erreicht. Das Konzept sieht vor, über die einzelnen, virtualisierten Bestandteile eines Data Centers - etwa Server, Netzwerke, Speicher, Security - Abstraktionsschicht zu legen, die die gesamte Infrastruktur steuert, kontrolliert, provisioniert und automatisiert (siehe Software Defined Data Center - Hype oder Realität?).

Das US-Markforschungshaus Enterprise Management Associates (EMA) ist davon überzeugt, dass diese Idee noch im Lauf dieses Jahres Realität wird, und die erforderlichen Produkte und Techniken so reif sind, dass Anwender ein SDDC implementieren können.

Stärken und Schwächen von Software Defined Networking (SDN) -
Schwächen von Software Defined Networking
Fokussierung auf Switches und Vernachlässigung von Server-Endpoints und damit der Anwendungsschnittstellen.
Schwächen von Software Defined Networking
Unzureichendes Management von IT-Ressourcen über mehrere Domains hinweg.
Schwächen von Software Defined Networking
Stärkere Belastung des Netzes durch die Kommunikation zwischen den Controllern: Sie steigt um etwa drei bis vier Prozent.
Schwächen von Software Defined Networking
Mangelnder Support von optischen Netzen mit leistungsvermittelnder Übertragung. Hier müssen Erweiterungen der OpenFlow-Spezifikation weiterhelfen.
Schwächen von Software Defined Networking
Skalierbarkeit: In großen Netzen fallen Millionen von Flows an. Das erfordert hoch skalierbare Controller. Bislang fehlen jedoch die Erfahrungswerte mit solchen Systemen beziehungsweise großen Netzen.
Schwächen von Software Defined Networking
Single Point of Failure durch zentralen Controller: Redundanz lässt sich durch den Einsatz mehrerer Controller erreichen. Das erhöht jedoch die Kosten und den Managementaufwand.
Stärken von Software Defined Networking
Einfaches Verschieben von Virtual Machines (VM) im Netzwerk.
Stärken von Software Defined Networking
Geringere Komplexität der Netzwerkinfrastruktur, da weniger Switch-Ports und Kabel erforderlich sind. Das reduziert zudem Kosten.
Stärken von Software Defined Networking
Komplette Sicht auf Anwendungen, Netzwerkelemente und Datenströme (Flows)
Stärken von Software Defined Networking
Kein Mapping von Servicedefinitionen auf physikalische Netzwerk-Ports. Das verringert den Konfigurationsaufwand.
Stärken von Software Defined Networking
Flexiblere Konfiguration von Services: Über Einträge in Flow Tablets lassen sich Dienste und Eigenschaften wie etwa Quality-of-Service-Merkmale und VLAN-Einstellungen konfigurieren, was in herkömmlichen Netzen mittels Scripts nicht möglich ist.
Stärken von Software Defined Networking
Bereitstellung von Anwendungen und Netzdiensten innerhalb von Stunden, nicht Tagen.
Stärken von Software Defined Networking
Zentrale Steuerung von Switches, Routern, virtualisierten Switches (vSwitches), WLAN-Access-Points und anderen Netzsystemen.
Stärken von Software Defined Networking
Offener Ansatz: Der Controller ist kein herstellerspezifisches System. Er lässt sich nach Bedarf durch Netzwerkfachleute konfigurieren und programmieren.

In einem Blog-Beitrag rät EMA-Berater Torsten Volk Unternehmen sich mit dem Konzept ernsthaft zu beschäftigen. Ein softwarebasierender Betrieb der Data Center sei erforderlich, weil die IT-Mannschaft künftig nicht mehr schnell genug den Bedarf der Fachbereiche nach IT-Ressourcen erfüllen kann. "Im Kern eines SDDC steht der Anspruch, dass Anforderungen der Fachbereiche besser bedient werden können, wenn die IT-Infrastruktur - egal ob intern oder extern betrieben - zentral kontrolliert wird. Die Ressourcen werden ganz klar am Bedarf von Applikationen und Services ausgerichtet", schreibt Volk in einem Report zum Thema. Dazu sollten Anwenderunternehmen bei Neuanschaffungen die Server, Netzkomponenten und Speichersysteme nicht wie bislang je nach Leistung und Funktionsumfang auswählen, sondern darauf achten, wie sie sich in eine zentrale Management-Strategie einfügen.

Volk nannte drei wesentliche Schlüsselelemente für ein Software Defined Data Center (SDDC):

1. Kapazitäts-Management

Im SDDC geht es vor allem darum, Hardware zügig zu provisionieren, so dass die Anwender die Ressourcen nutzen können. Dafür wiederum ist es wesentlich, dass auch die benötigten Kapazitäten zur Verfügung stehen, die die Fachbereiche für den Betrieb ihrer Applikationen und Services benötigen. Was nicht da ist, lässt sich nicht zuweisen. Alle Automatisierungsbemühungen wären dann perdú.

Daher ist es erforderlich, sinnvolle Schwellwerte zu finden, die auf anstehende Anforderungen aus den Fachbereichen hinweisen, um rechtzeitig neue Kapazitäten aufzubauen. Dafür gibt es Werkzeuge. Volk nennt etwa "ProactiveNet" von BMC, "Performance Management" von CA und das recht unbekannte Tool "VMTurbo".

2. Multi-Cloud-Management-Plattformen

Data Center haben komplizierte Architekturen. Homogene Rechenzentren, die mit Komponenten eines Herstellers bestückt sind, gibt es selten, gängig ist ein Mix aus diversen Lösungen. Selbst innerhalb eines Anwendungsfeldes und in relativ neuen Backend-Technologien dominiert die Vielfalt. So ist es durchaus üblich, dass in Unternehmen, die in Sachen Virtualisierung eine klare VMware-Strategie fahren, vereinzelt Hyper-V-Installationen von Microsoft zu finden sind. Wo die IT-Strategie Private-Cloud-Strukturen vorsieht, werden dennoch Amazon Web Services (AWS) oder andere externe Cloud-Dienste genutzt.

Unterm Strich haben mit der zunehmenden Virtualisierung der Server, Speichersysteme und Netze sehr viele unterschiedliche Hypervisor-Technologien den Weg ins Data-Center gefunden. Eine verlässliche Kontrolle und Steuerung von SLAs und Security-Systemen sowie der Application-Performance ist kaum möglich.

Um die Komplexität in den Griff zu bekommen, empfiehlt EMA-Manager Volk Multi-Cloud-Management-Plattformen. Mehr und mehr Anbieter von Cloud-Management-Portalen implementieren Unterstützungsfunktionen für Techniken unterschiedlicher Hersteller. Für den Betrieb von SDDC hält der EMA-Experte die Nutzung derartiger Management-Plattformen für unerlässlich.

3. Konfigurations-Management

Ganz entscheidend für den Erfolg eines Software Defined Data Center (SDDC) ist die Migration von einer manuellen Ressourcen-Zuteilung zu einem automatisieren Provisioning.

Für eine selbsttätige Zuteilung der erforderlichen Computing-, Netz- und Speichersysteme muss der Provisioning-Lösung bekannt sein, welche Anforderungen die jeweiligen Applikationen beziehungsweise die genutzten Service haben. Hier setzt auch die in jüngster Zeit vielfach von den Softwareherstellern zitierte "Devop"-Idee an. Um solche Informationen liefern zu können, müssen Entwickler (Developer) schon in der Gestaltung der Applikationen eng mit den Betriebsexperten (Operator) kooperieren.

Volk nennt die beispielhaft die zwei Tools "Puppet" (von Puppet Labs) und "Chef" (vom gleichnamigen Unternehmen), die beim automatischen Provisioning helfen.

SDDC braucht eine neue Abstraktionsschicht

Alles in allem benötigen SDDCs laut Volk eine neue Abstraktionsschicht oberhalb von Hardware-Ressourcen sowie internen und externen Cloud-Installationen. Sie ermächtigt Applikationen auf Basis von Leistungsdaten, Sicherheits- und Verfügbarkeitsanforderung dazu, die eigene IT-Umgebung so zu definieren, dass immer ausreichend Kapazitäten bereit stehen.

Dass der Weg zum SDDC notwendig ist, will das Marktforschungshaus mit Umfragedaten belegen. Demnach sind 70 Prozent der IT-Nutzer der Meinung, IT-Projekte sollten nicht länger als zwei Wochen dauern. 40 Prozent der befragten IT-Manager stufen ihre manuellen Prozesse zur Konfiguration der IT-Infrastruktur als zu langsam ein, wenn etwa Anforderungen aus den Fachbereichen umgesetzt werden sollen.

SDDC sei der "goldene Pfad", diese Herausforderungen zu lösen, finden die Marktbeobachter von EMA.

Prognosen zur Server-Virtualisierung -
Prognose 1
Konsolidierungsvorteile reichen nicht, um noch mehr Virtualisierung zu rechtfertigen. IT-Manager müssen erklären, wie Virtualisierung Anwendungen flexibler und sicherer mache.
Prognose 2
Ihre Virtualisierungsumgebung muss dynamisch sein, sonst verschwenden Sie Geld. Unternehmen sollten die zahlreichen Features nutzen, die das Hypervisor Resource Management inzwischen biete, rät Forrester.
Prognose 3
Disaster Recovery und Ausfallsicherheit treiben die meisten neuen Virtualisierungsprojekte. Das hat eine Forrester-Umfrage ergeben. Der Return on Investment (RoI) für Virtualisierungsvorhaben werde zunehmend durch eine verbesserte Ausfallsicherheit der IT-Infrastruktur bestimmt.
Prognose 4
Analytics-Funktionen machen konsolidierte Management-Tools für die Virtualisierung noch smarter. Das betrifft vor allem die Branchenschwergewichte VMware und Microsoft, die ihre umfangreichen Suiten vereinfacht haben. Unternehmen können Analytics-Features nutzen, um mehr aus ihren virtualisierten Umgebungen herauszuholen.
Prognose 4
Analytics-Funktionen machen konsolidierte Management-Tools für die Virtualisierung noch smarter. Das betrifft vor allem die Branchenschwergewichte VMware und Microsoft, die ihre umfangreichen Suiten vereinfacht haben. Unternehmen können Analytics-Features nutzen, um mehr aus ihren virtualisierten Umgebungen herauszuholen.
Prognose 5
Die Anwendung sollte die beste Virtualisierungsplattform diktieren, nicht umgekehrt, empfiehlt Forrester. Hinsichtlich der reinen Hypervisor-Technik könnten Unternehmen heute frei wählen und auch Open-Source-Alternativen ins Auge fassen. Entscheidend sollte aber nicht die Hypervisor-Technik sein, sondern die Betriebssysteme und Anwendungen, die in der virtualisierten Umgebung laufen.
Prognose 5
Die Anwendung sollte die beste Virtualisierungsplattform diktieren, nicht umgekehrt, empfiehlt Forrester. Hinsichtlich der reinen Hypervisor-Technik könnten Unternehmen heute frei wählen und auch Open-Source-Alternativen ins Auge fassen. Entscheidend sollte aber nicht die Hypervisor-Technik sein, sondern die Betriebssysteme und Anwendungen, die in der virtualisierten Umgebung laufen.
Prognose 6
Der Hypervisor-Preiskrieg setzt sich fort…. und geht doch an den Kundenbedürfnissen vorbei. Kunden bezahlten in Wirklichkeit nicht für den Hypervisor, sondern für den damit verbunden Management-Stack, konstatieren die Forrester- Experten.
Prognose 7
2013 wird das Jahr 1 des Software-defined Data Center. Das Konzept des Software-defined Data Center ist aus Sicht der Forrester-Experten der nächste logische Schritt hin zu hochautomatisierten und effizienten IT-Operationen.
Prognose 8
Das hybride Data Center wird populärer als reine Private oder Public Clouds. Anwenderunternehmen nutzen künftig eine Mischung aus virtualisierten lokalen Ressourcen (on-premises) und externen Workloads in der Cloud (off-premises).
Prognose 9
Ihr CFO fordert Kostentransparenz für virtuelle Umgebungen. Das obere Management Ihres Unternehmens wird sich 2013 viel stärker für die Kosten der virtualisierten IT interessieren, lautet die letzte Prognose der Forrester-Experten.